A k AdemiA Sztuk Pięk nych E d u k a cja a r t yst ycz n a w z a k r e sie sz t u k pla st ycz nych

Grzegorz Adametz

Pięk no w metod ach kodowan ia wied zy

Praca magisterska pod kierunkiem prof. dr hab. Marii Mendel

Gdańsk 2009

Spis treści Wprowad ze nie
E r o s i L ogo s I n s pi r a cje Tek s t y ź r ó d łowe P r a g m at y z m , s e m iot yk a , st r u k t u r a l i z m

4
5 8 9 10

Część I Sztuka i Nauka
1.1. 1. 2 . 1.3. 1.4. Ws p ól ny m ia now n i k H ie r a r ch ia o d k r yć D y fe r e ncja sz t u k i i n au k i M at e r ia ł ba d a ń m at e m at yk i

14
15 16 17 21

Część II Inf lacja ogólności idei
2 .1. Poję ci a o gól ne 2 .1.1. St r u k t u r y ogól ne 2 .1. 2 . D ef i n icja p r z ez a b st r a kcję 2 .1.3. G e nez a m at e m at yk i 2 .1.4. G e nez a a k sjom at yk i 2 . 2 . Uo gól n i a n ie p oję ć ge ome t r i i 2 . 2 .1. Ele me nt y Eu k l id e s a 2 . 2 . 2 . Mo dy f i k a cje piąt ego a k sjom at u 2 . 2 .3. Uogól n ie n ia p oję cia p r z e st r z e n i 2 . 2 .4. Pa sja Ba n a ch a 2 . 2 .5. P r og r a m e rla nge ń sk i 2 . 2 .6. To p olog ia 2 . 2 .7. Ur z ą d z e n ia st e r ują c e 2 . 3. St r u k t u r y ge ome t r yc z ne 2 .3.1. Sk r z y w ie n ia p r o st ej 2 .3. 2 . Pa r k ie t a r z 2 .3.3. K r yst a log r a f ia 2 .3.4. Te n s or y 2 .3.5. G ła d ko ś ć k r z y wej 2 .3.6. M at e m at yk a wob e c ch a o s u 2 . 4 . Uo gól n ien i a p oję ci a l ic z by 2 .4.1. Te or ia m nogo ś ci 2 .4. 2 . Si f r von Ne u m a n n a 2 .4.3. Su kc e s y n a r z ę d z i m at e m at ycz nych

23
24 24 25 27 27 29 29 30 30 32 33 34 35 37 37 39 43 45 47 50 52 52 53 54

Część III Język matematyki
3.1. Poz n a n ie m at e m at ycz ne 3. 2 . Po d st aw y p oz n a n ia m at e m at yk i 3.3. Z n a k i m at e m at ycz ne 3.4. For m a l i z m w t a r ap at a ch 3.5. Og r a n icz e n ia log i k i dw uwa r t o ś ciowej 3.6. Z a st o s owa n ie log i k i dw uwa r t o ś ciowej 3.7. L og i k i a lt e r n at y w ne 3.8. L og i k a i nt u icjon i st ycz n a 3.9. L og i k a r oz my t a 3.10. Pole m i k a z p oję cie m l iczb Br ouwe r a 3.11. Liczby a cy f r y 3.12 . Rozbu dowa s yst e mu not a cji 3.13. Z m ie n n a l i ng w i st ycz n a 3.14. Og r a n icz e n ia i sk ut e cz no ś ć ję z yk a s y mb ol icz nego

56
57 58 58 59 60 62 62 63 64 64 66 67 69 71

Część IV Estetyka działań intelektualnych
4.1. 4. 2 . 4.3. 4.4. 4.5. 4.6. 4.7. O d p ow ie d n ia st r u k t u r a K r e a cja i u ż y t kowa n ie p r og r a mu Fu n kcjon a l no ś ć, a pię k no P ię k no id ei O d k r y wcy now ych s e n s ów I lu m i n a cja St o s u nek cz ę ś ci do c a ło ś ci

72
73 74 75 76 76 78 81

Wyprowadzenie
Wyob r a ź n ia , a r z e cz y w i st o ś ć E d u k a cja wob e c konwe ncjon a l i z mu O d r o d z e n ie e pi st e molog i i Lu d z k i st o s u nek do r z e cz y

83
84 85 87 88

Bibliograf ia Źródła internetowe

92 93

Wprowad zenie

5

W świecie, jakim przyszło nam żyć, wszelka żywa istota, która osiąga świadomość, wita ład radosnym odruchem harmonijnych uczuć wszędzie tam, gdzie odnajdzie wokół siebie uporządkowaną zgodność. John Dewey

E ro s i L o g o s Przyjemność wyzwalana przez dostrzeganie piękna, w mniejszym lub większym stopniu znana jest wszystkim ludziom. Wrażliwość na piękno związana jest z podstawowymi funkcjami ustroju, a mianowicie z pociągiem seksualnym, który jest mechanizmem niezwykle istotnym dla zakodowanej genetycznie skłonności organizmów biologicznych do reprodukcji. Z tego względu wielu psychologów traktuje działalność artystyczną jako ujście dla wybujałego popędu seksualnego twórcy. Z kolei teoretycy sztuki często zwracają uwagę na erotyczne motywy występujące obficie w dziełach sztuki w sposób zakamuflowany, lub dosłowny. Odbiorcy natomiast odczuwają zadowolenie, porównywane z satysfakcją seksualną, doświadczając piękna przeżywanych kompozycji. Szczególnie wyraźnie związek ten zarysowuje się w odbiorze dzieł abstrakcyjnych. Kompozycji muzycznych lub plastycznych, które w swej formie nie odnoszą się bezpośrednio do wyrażanych idei, lecz działają na odbiorcę przede wszystkim jakościami zmysłowymi przekazanymi za pomocą formy. Taki sposób odbierania dzieła nie wymaga od odbiorcy znajomości kontekstu kulturowego ani historii sztuki. Walory dekoracyjne dzieł plastycznych i przedmiotów użytkowych są powszechnie dostrzeganym przejawem piękna. Choć profesorowie nauczający sztuk pięknych często traktują te wartości jak należące do niższego rzędu, to teoretycy estetyki zajmują się nimi przede wszystkim. Formalna warstwa analizy skupiona jest na fizycznych właściwościach obiektów, oraz fizjologii i psychologii percepcji tych właściwości. Nie sposób jednakże całkowicie pozbawić ją kontekstu kulturowego. Wpływ uwarunkowań kulturowych może w dużym stopniu determinować częstotliwość wykorzystywania jednych form i unikania innych. Na wpływ ten podatne są również mechanizmy percepcyjne odbiorców, u których uwarunkowania kulturowe kształtują swoiste nawyki spostrzeżeniowe. Dobrym przykładem takiego nawyku, z którym miałem nieprzyjemność stykać się dość często, jest poszukiwanie w obrazach abstrakcyjnych form znanych z codziennego doświadczenia. W układzie plam i linii odbiorcy szukają na zasadzie ikonicznego podobieństwa np.: ryby lub ptaka. Przez odbiorców posiadających ten nawyk często odnajdywane jest podobieństwo abstrakcyjnej formy do twarzy. Jest to najprawdopodobniej atawizm wynikający z faktu, że twarz jest pierwszą formą rozpoznawalną w okresie niemowlęcym.

6

Ten ograniczony sposób percepcji ugruntowany jest w naszej kulturze wielowiekową tradycją reprezentacji, ukoronowaniem której jest obecnie najpopularniejsza ze sztuk - film. Choć każdy z nas widział prawdopodobnie choć jeden film abstrakcyjny, najczęściej jako ilustrację muzyki, to chyba wszyscy się zgodzą, że w telewizji takie filmy to tylko margines. Tuż obok cywilizacji europejskiej, rozwijała się kultura Islamu, w której sytuacja jest z goła odmienna. Radykalna interpretacja drugiego z biblijnych boskich przykazań zakazywała naśladownictwa form naturalnych we wszelkiej twórczości plastycznej. Ograniczenie to doprowadziło do wielkiego rozkwitu form dekoracyjnych. W Europie natomiast, ornamentyka przeżywała fazy rozkwitu w epokach, które ceniły sobie dekoracje architektoniczne. Jednak pozostawała w domenie rzemiosła nie równającego się z tak zwaną sztuką wysoką - wyrażającą idee religijne i społeczne w scenach figuratywnych. Fascynacja sztuką dalekiego wschodu, której uległo wielu artystów na początku dwudziestego stulecia doprowadziła do przeniknięcia motywów zdobniczych do malarstwa sztalugowego. Dzieła powstałe w wyniku tego procesu zderzały się z ostrą krytyką tradycjonalistów. ”Ponieważ ornament nie jest już dłużej spójną, organiczną częścią naszej kultury to nie może być też dłużej środkiem wyrazu naszej kultury.”1 pisał Adolf Loose krytykując środki wyrazu Gustava Klimta. Powrót do pierwotnych wartości w sztuce Art Nouveau objawiał się również eksploatacją tematyki erotycznej. Ze względów obyczajowych wywoływało to silny sprzeciw krytyków. Erotyzm i dekoracyjność były dwoma symptomami powrotu artystów do środków wyrazu najbardziej bezpośrednio działających na zmysłowość widza.
Ryc. 1. Gustav Klimt, Dziewica

Źródło: http://www.artwallpapers.net/paintings/gustav_klimt/03/gustav_klimt03.jpg, 01.03.2009

Powyższe rozważania na temat związku jakości dekoracyjnych (czyli abstrakcyjnych konstrukcji) z jakościami erotycznymi miały zasugerować mój punkt widzenia na problematykę piękna. Piękno wiąże się ściśle z kierunkiem, w którym nasza percepcja przyciągana jest przez libido. Niezależnie czy forma ma dosłownie erotyczny charakter, czy jej naturalne piękno jest bardziej wysublimowane, zawsze gdy z satysfakcją płynącą z jej apercepcji związane jest uczucie przyjemności, wzbudzane są procesy pierwotnie odpowiedzialne za dobór partnera/ki.
1 Gilles Néret, Gustav Klimt, Edipresse, Warszawa 2005

7

Z tego też względu uważam, że piękno jest wartością, osiągalną dla każdego, kto zechce poświęcić mu choć trochę uwagi. Odbiorcy form dekoracyjnych nie są zmuszeni do angażowania swego intelektu w przeżywaniu ich piękna. Inaczej jest z twórcami. W przypadku naśladownictwa natury — przy odtwarzaniu zaobserwowanych jakości wizualnych racjonalne myślenie jest niezbędne. Bierze ono udział w procesie porównywania obserwowanej rzeczywistości ze stwarzaną plastyczną reprezentacją. Podczas ich przetwarzania obserwator może, acz nie musi być bardziej zaangażowany w procesy twórcze. Sądzę, że projektowanie form abstrakcyjnych takich jak ornamenty wymaga większego zaangażowania sił intelektualnych. W przypadku konstruowania form nienaturalnych intelekt niezbędny jest dla zatrzymania wizji w określonych granicach. W niektórych przypadkach może być nawet prowodyrem tych wizji. Przykładem niech będzie tu znakomity grafik M. C. Escher dla którego niejednokrotnie problem matematyczny był przewodnią inspiracją dla powstania plastycznej kompozycji. Narzędzia matematyczne okazują się niezbędne dla wykreowania pewnych typów kompozycji, a ponad to znajdują szerokie zastosowanie w analizie formalnej dzieł sztuki. Niestety studenci sztuk pięknych stykają się z matematyką nader rzadko. Najlepiej znana jest im geometria rzutowa na płaszczyźnie, która stanowi, będący w powszechnym użyciu, język rysunku technicznego. Pozwala on za pomocą wskaźników szczegółowo opisać właściwości przestrzenne obiektów trójwymiarowych. Pojęciem podstawowym zarówno w plastyce, jak i w geometrii jest linia. Problematyka związana z pojęciem linii i jej percepcją wiąże ze sobą odbiór motywów erotycznych i dekoracyjnych. W ten mianowicie sposób, iż właśnie postrzeganie płynności linii daje nam ten szczególny rodzaj satysfakcji, wynikający z zachwytu nad formą. Dostrzegane w ten sposób piękno nie jest raczej właściwością rzeczywistości zewnętrznej. Kontur jest skłonnością umysłu — narzędziem formowania kształtu. Wrażenie obserwatora umożliwiające wyodrębnianie mniejszej całości w całości większej, jest ważnym środkiem orientacji w świecie przedmiotów. Dewey pisze o liniach: „(…) przyroda nie przedstawia nam odosobnionych linii. Są one, tak jak ich doświadczamy, zarysem przedmiotów, stanowią granicę rzeczy. Określają kształty, po których normalnie poznajemy otaczające nas przedmioty. Dlatego linie przekazują znaczenie przedmiotów. (…) linie określają przedmioty i wyznaczają ich granice, ale równocześnie łączą je wzajemnie i wiążą ze sobą. Uderzywszy się o ostry kant, łatwo ocenić trafność określenia kąt ostry”2 . Przypadek linii, jako konturu określającego kształt przedmiotu, opisywałem w mojej pracy licencjackiej O zdolności operowania kształtami. Wykazałem w niej, że kontur stanowi pojęcie kluczowe dla zrozumienia procesu formowania się wyobrażenia i wrażenia kształtu. Jest również podstawowym narzędziem opisu plastycznego kształtu. W przypadku konstruowania form abstrakcyjnych, takich jak ornamenty, zachodzi fascynujące mnie zjawisko prowadzące do obrazowej konkretyzacji abstrakcji. Z drugiej strony abstrakcyjne ujęcie spostrzeżeń zmysłowych, jakie serwuje nauka, jest równie fascynujące.

2

John Dewey, Sztuka jako doświadczenie, Wydawnictwo Polskiej Akademii Nauk, Gdańsk 1975, s. 123

8

i n s pi r ac j E Idea tej pracy narodziła się z rozważań porównujących pewne tendencje w sztuce z rozwojem nauki i dostrzegania między nimi związków. Rozważałem podjęcie się próby odnalezienia bezpośrednich inspiracji artystów nauką. Wątpliwość, czy mimo oczywistego podobieństwa jakiejś idei artystycznej do naukowej można zawsze przypisać artyście taką inspirację, zrodziła we mnie pewne przypuszczenie. Takie mianowicie, że stopień rozwoju kultury wpływa na poszukiwania sensów prowadzone przez jednostki. Metaforycznie możnaby powiedzieć, że współtwórcy społeczeństwa dojrzewają wspólnie do konkretnej idei. Argumentem, może być znany powszechnie fakt — zdarzało się nie raz, że tego samego odkrycia dokonali niezależnie od siebie r óż n i lu d z ie w t y m s a my m cz a sie. Tytuł pracy wskazuje po pierwsze na poszukiwanie oznak piękna. Poszukiwania te prowadzę wśród skodyfikowanych przejawów działalności intelektualnej, a szczególnie w metodologii nauk ścisłych i geometrii. Nauka ma dostarczać nam funkcjonalnej wiedzy. Choć nie zawsze jesteśmy w stanie wykorzystać praktycznie nowe odkrycia naukowe, to nie ma rozwoju techniki bez nauki. Wiedza naukowa jest więc ściśle związana z historycznym rozwojem cywilizacji. Wiedza ta odróżnia się od mądrości ludowej, czy prawd objawionych. W zależności od punktu widzenia uznawana jest za jedyną prawdziwą, bądź też stanowi podzbiór w zbiorze wiedzy, obok innych baz danych, takich jak wymienione powyżej dla przykładu. Wiedza naukowa odróżnia się charakterystycznym sposobem jej zdobywania i przekazywania. Wyrażenie metody kodowania, zawarte w tytule wskazywać ma, że w niniejszej pracy interesuje mnie wiedza zkodyfikowana i w niej to właśnie poszukiwać będę wartości estetycznych. Okazało się, że moja wiedza z zakresu historii nauk ścisłych wymaga uzupełnienia, co też chętnie czynię. Stwierdziłem wkrótce, że w pracy magisterskiej nie dążę do wykorzystania wiedzy przekazanej w wyniku edukacji na uczelni, lecz do uzupełnienia jej o ten materiał, którego moim zdaniem najbardziej w niej brak. Okazały się nim: podstawy logiki i metodologii nauki, pragmatyzmu i materializmu, oraz zagadnienia związane z rozwojem matematyki w XX wieku. Druga i trzecia część tej pracy jest po części rysem historycznym rozwoju tych nauk. Myślę, że mogłaby stanowić podstawę do skonstruowania treści wykładu z historii matematyki, jaki moim zdaniem powinien zawierać się w materiale programu filozofii na uczelni humanistycznej. Niestety, tak się nie raz zdarza, że ogólna wiedza z zakresu rozwoju nauk ścisłych osób wykształconych na uczelniach humanistycznych bywa dość uboga. Pewnego razu studentka psychologii, (osoba inteligentna i oczytana w swojej dziedzinie), uważająca się za oświeconą realistkę, zaskoczyła mnie stwierdzeniem, że wszystko przecież da się obliczyć. Niewiedza taka prowadzi do fałszywej wizji współczesnych badań naukowych, co z kolei u przedstawicieli nauk ścisłych wzbudza uzasadnione opinie o ignorancji humanistów. Ci drudzy często odwdzięczają się tym samym. Co należałoby zrobić, aby zminimalizować ten konflikt? Obie ze stron powinny poświęcić uwagę na popularyzowanie wiedzy z zakresu swojej dziedziny w sposób komunikatywny dla strony przeciwnej. Cel ten można osiągnąć tworząc opracowania ogólne i redukując w nich ścisłą terminologię. Nie jest to zadanie proste — duże jest ryzyko zbytniego spłycenia prezentowanej teorii. Przekład języka specjalistycznego na potoczny wyklucza możliwości przedstawienia niektórych zagadnień. Publikacje popularnonaukowe należy czytać w sposób bardzo

9

krytyczny. Wspomniane niedoskonałości popularyzacji, mogą być świadomie, bądź nieświadomie wykorzystane przez autora jako podbudowa indywidualnej interpretacji i zamiast naukowej teorii upowszechniać konkretne stanowisko filozoficzne. Wierzę jednak, że można rzetelnie realizować to zadanie. Interdyscyplinarność pociąga za sobą poszerzanie horyzontów myślowych, którego zaletą jest zwiększenie możliwości twórczego myślenia. Skojarzenie idei odległych może generować nowe jakości poznawcze. Ponad to dążenie do intelektualnego zbliżenia przedstawicieli rozmaitych dyscyplin nabiera znaczenia wobec niebezpieczeństwa izolacji specjalistów. Wiedzy wciąż przybywa i nauka rozgałęzia się na szereg coraz bardziej wyspecjalizowanych dziedzin. Nad niewspółmiernością ogromu zgromadzonej przez ludzkość wiedzy w stosunku do poznawczych możliwości jednego człowieka ubolewano już w oświeceniu. ”Uczonego, który osiągnął taki stopień kultury, by samemu przyczynić się do jej rozwoju zabiera śmierć, a jego miejsce zajmuje uczeń na poziomie abecadła…” 3 Obecnie tendencja ta postępuje. Czy niezbędni będą wkrótce insperci podejmujący wyprawy w głąb nauki by wyszukiwać dane z odkryć już dokonanych4? Możliwe, acz niekoniecznie; należy pamiętać o trendach zmniejszających zasób wiedzy, takich jak: redukcjonizm, falsyfikacjonizm, unifikacja teorii. Te k s T y ź ró d ł ow e Wybór odpowiedniej metodologii wzbudza we mnie szereg wątpliwości, których rozwiązanie zajęłoby kilkanaście miesięcy i kilkadziesiąt stron tekstu. Podstawowa wątpliwość streszcza się w pytaniu: czy możemy poznać przedmiot badany? Wiążą się z nim kolejne: na ile możemy go poznać; w jaki sposób, czy dowiemy się prawdy? Prowadzi to do pytań charakterystycznych dla epistemologii, psychologii poznawczej i kognitywistyki. Dlatego też we wspomnianej pracy licencjackiej poświęciłem rozdział na rozważenie zagadnień związanych z poznaniem i w niniejszej pracy powracające rozważania na ten temat będą stanowić istotny element. Moja praca ma charakter teoretycznych studiów nad literaturą, a w niektórych jej fragmentach oddaję się analizie pojęć, lub procesów ich generowania. Spośród źródeł internetowych korzystałem głównie z Wikipedii. Źródło to może budzić wątpliwości co do rzetelności ze względu na otwarty charakter zamieszczanych artykułów. Starałem się więc w miarę możliwości, porównywać treści z innymi źródłami. Encyklopedyczny charakter czyni to źródło przydatnym przy przytaczaniu definicji. Hipertekstualny charakter pozwala na łatwe poszerzanie wiedzy w wybranym kierunku. Wikipedia jest kontynuacją idei przyświecającej twórcom internetu, który miał być przestrzenią wymiany informacji. Przydatny okazał się też bardzo mały słownik matematyczny i słownik wyrazów obcych, którymi posługiwałem się dla objaśnienia terminów mogących sprawiać trudności czytelnikom. Spośród źródeł zarekomendować pragnę stronę prowadzoną przez profesora filozofii Uniwersytetu Marii Curie - Skłodowskiej w Lublinie Wojciecha Sady. Odróżnia się od wielu innych stron profesorskich, z których wiele zawiera jedynie programy wykładów. Strona zatytułowana
3 4 Imanuel Kant, Antropologia w ujęciu pragmatycznym, Wydawnictwo IFiS PAN, Warszawa 2005, s. 301 Na u k i wg ł ę b ien io w e to futurystyczna idea z literatury Stanisława Lema I n spe r t to uczony biegły w fazie wgłobienia nauki zobacz: http://solaris.lem.pl/content/view/136/96/1/1/, 2009-04-11

10

Dzieje religii, filozofii i nauki, zawiera doskonały chronologiczny spis największych wydarzeń z całej znanej historii myśli. Dodatkowo osobny dział poświęcony jest dziełom Wittgensteina, o którym profesor Sady napisał książkę. Dla mnie inspirujący niezmiernie był inny tekst: Spór o racjonalność naukową. Wykorzystywałem też czasem opracowania studentów dowolnych uczelni, które ze względu na swój ogólnikowy, pobieżny charakter są bardziej przystępne od opracowań profesorskich. Przydatne więc były w przypadku zagadnień, które chciałem zaprezentować i szerzej nie rozważać w ich pierwotnym kontekście. p r ag m at y z m , s E m i o t y k a , s t ru k t u r a L i z m Spośród bibliografii niniejszej pracy, chciałbym na wstępie wyróżnić dwie pozycje, które przyjąłem za podstawowe dla mojego wywodu; zakładając trafność przedstawionych w nich teorii ze względu na zgodność z moim sposobem rozumowania. Są to lektury, którym poświęciłem wiele godzin, przez cały czas studiów wracając do nich chętnie. Pierwsza z nich należy do spisu lektur zalecanych na kierunku edukacji artystycznej. Jest nią Sztuka jako doświadczenie, autorstwa Johna Dewey (1859–1952) Był on pedagogiem, filozofem, twórcą pragmatycznej estetyki. Wymieniona książka powinna wzbogacać artystę o większą świadomość tego jak tworzy, a każdego odbiorcę sztuki o większą wrażliwość przy obcowaniu z dziełami. Natchniony wywód Dewey’a może dostarczyć wielu wzruszeń. Wartość sztuki widzi Dewey w jej funkcji wzbogacania doświadczenia. Proces twórczy rozpatruje on przez pryzmat procesów psychicznych, jako kontrolowaną ekspresję. Pisze też o aktywności odbiorcy, postrzegającego każdą rzecz nową przez pryzmat zgromadzonych doświadczeń. Dzieło sztuki może wzbogacać zasób doświadczeń i to świadczy o jego wartości. Nie ogranicza wartości estetycznych do wyników kontemplacji formy; wskazuje, że dzieła to nośniki idei. Dlatego dzieło jest odbierane w całej swej krasie, gdy odbiorca zna kulturowy kontekst interpretacji zawartych w nim treści. Przykładowo architektura odpowiada praktycznie na społeczne potrzeby. Funkcjonalizm budowli wzbogacany jest wartością estetyczną, zawartą w formalnym sposobie wyrażenia jej słuszności. Rzeźba natomiast przekazuje to, co ludzie pragną utrwalić, inaczej wskazuje, jakie wartości uważają za trwałe. Max Bense (1910–1990) jest mniej znaną osobistością. To niemiecki filozof, semiotyk, logik, fizyk i pisarz. Kontynuuje on ideę triadycznej koncepcji znaku, którą sformułował Charls Sanders Peirce (1839–1914). Świat przez pryzmat znaku to pozycja trudna w odbiorze, sporo w niej macierzy i słów, których definicje trudno odnaleźć. Wszystkie terminy za wyjątkiem środka przekazu autor przejął od Peirce’a. Jeśli więc elementami triadycznej relacji konstruującej znak u Peirce’a są: podstawa znaku, przedmiot i z naczenie; u Bense’a są to: środek przekazu, przedmiot i znaczenie. Podstawa może być abstrakcyjno–umysłowa, zaś nośnik (środek przekazu) jest zawsze konkretno–zmysłowy5. Podstawa znaku to idea, ze względu na którą znak reprezentuje przedmiot dynamiczny.
5 Ex cathedra: akademicka strona filozoficzna i privatissimum Andrzeja Nowaka IF UJ, http://apertum.110mb.com/faq.html#znak, 2009-04-22

11 Tab. 1. Systematyka Triadyczno-trychotomicznej teorii znaku Max’a Bense’a Tematyka realności Trychotomia Modus*

Kategoria

1

Środek pobrany z danego repertuaru

Qualisignum Sensisignum Legisignum Możliwość

Przedmiot w obrębie 2 pewnego odniesienia przedmiotowego

Ikon Indeks Symbol Rzeczywistość

3

Interpretant wewnętrzny w określonym kontekście

Rhemat Dicent Argument Konieczność

Źródło: opracowanie własne na podstawie: Max Bense, Świat przez pryzmat znaku, dz. cyt., s. 80 *Mo d u s — narzędzie filozofii, logiki, lingwistyki i informatyki. W gramatyce łacińskiej modus określa tryb czasownika; w informatyce sposób budowy algorytmu.

Mo d a l n y — dotyczący rodzaju, sposobu bycia, istnienia czegoś; odnoszący się do stopnia pewności sądu. podaje za: http://www.slownik-online.pl/kopalinski/A9394F5B847389F4C12565DB005A59AC.php, 2009-04-22

Przy pomocy wyrazu zbiór dokonuje się tematyzacji w teorii przedmiotu, a przy pomocy wyrazu kategoria — w teorii znaku6. Połączenie tematyk realności, umożliwia precyzyjne sformułowanie semiotycznej teorii rzeczywistości teoriopoznawczej7. Narzędziem umożliwiającym przeprowadzenie tego zadania jest prezentowany przez Bense’a system klas znaków i semiotycznych tematyk realności. Warto przypomnieć definicje poszczególnych elementów trychotomii. W pracy mojej korzystam czasem jedynie z określeń z drugiej kategorii, które określają w jaki sposób reprezentant odnosi się do interpretanta. Definicje podaję za słownikiem stanowiącym uzupełnienie cytowanego wydania dzieła Bense’a8.

6 7 8

Max Bense, Świat przez pryzmat znaku, Państwowy Instytut Wydawniczy, Warszawa 1980, s. 157 Tamże, s. 159 Tamże, s. 185-193

12

│K a t e g o r i a 1

Q u a l i sig nu m — Jakość zmysłowa występująca jako środek przekazu. Jest znakiem samym przez się, nie odniesionym jeszcze do żadnego przedmiotu. Jest dostępne percepcji zmysłowej, lecz nie jest obiektem żadnego spostrzeżenia, gdyż nie posiada konkretności. Jest to jedynie możliwość stania się środkiem przekazu. • Se n si sig nu m — Konkretne zdarzenie, lub przedmiot służący jako środek przekazu. • L eg i sig nu m — Abstrakcyjny środek przekazu, jest to znak ogólny, poza przestrzenny i ponad czasowy, na przykład pojęcie. • • I kon — Znak który odnosi się do przedmiotu na mocy podobieństwa. I nd ek s — Znak wskazujący na istnienie oznaczonego nim przedmiotu, związany z nim zależnością przyczynową; inaczej wskaźnik. • Sy mb ol — Znak konwencjonalny, to jest reprezentujący przedmiot na mocy konwencji o węższym lub szerszym zasięgu. • R he m a 9 — Znak, którego kontekst interpretacyjny jest otwarty, to jest zawierający tylko możliwość znaczenia, podlegającą realizacji, kiedy zostaje odniesiony do konkretnego przedmiotu. Zdaniu rhematycznemu nie przysługuje ani prawdziwość, ani fałszywość. • D ic e nt — Znak, którego kontekst interpretacyjny jest zamknięty, to jest który jest odniesiony do rzeczywistego przedmiotu. Zdanie dicentyczne jest zdaniem orzekającym o prawdzie lub fałszu. • A rg u me nt — Znak, w którym zawarta jest konieczność znaczenia, jego kontekst jest pełny. Zdanie argumentowe polega na wnioskowaniu i przysługuje mu walor prawdziwości.

Peirce znany jako twórca semiotyki jest również prekursorem pragmatyzmu. William James poświęca się ścisłej definicji pragmatyzmu jako kierunku filozoficznego. Wykład Co to znaczy pragmatyzm?10 zaczyna od anegdoty, a następnie zwraca uwagę na artykuł Peirce’a opublikowany w Popular Science Monthly w 1878 roku pod tytułem Jak uczynić jasnymi nasze idee. ”Peirce, po wykazaniu, że wszystkie nasze przeświadczenia są w rzeczywistości prawidłami postępowania, twierdzi, że dla rozwinięcia znaczenia jakiejś myśli wystarczy tylko wskazać postępowanie które z niej wynika (…)”11. Skupienie się na praktycznych skutkach zastosowania naszych pojęć do odpowiednich przedmiotów i działań stwarza sytuację, w której teorie stają się narzędziami, a nie satysfakcjonującymi odpowiedziami na postawione pytania12. Tak więc obie z kluczowych dla mojej pracy inspiracji to publikacje związane ściśle z filozofią pragmatyzmu. Obok narzędzi semiotycznych, których podstawy streściłem na poprzednich stronach, inną charakterystyczną metodą wypracowaną w myśl filozofii pragmatyzmu jest strukturalizm, mający również źródła w analizie języka.
9 10 11 12 W literaturze polskiej funkcjonuje również inna forma spolszczenia: — R e ma t William James, Pragmatyzm, Książka i wiedza, Warszawa 1957, s. 33 Tamże, s. 35 Tamże, s. 38

│K a t e g o r i a 2 │K a t e g o r i a 3

13

„Wyjaśnienia strukturalne powołują się na prawidłowości struktury. Rozumowanie takie ma na celu ukazanie, że struktura pewnych układów empirycznych determinuje pewne fakty empiryczne. (…) Prawa strukturalne opisujące struktury układów powstają poprzez narzucenie pojęć geometrii na struktury nomologiczne13. Dla wyjaśniania faktów zachodzących w czasoprzestrzeni konieczne jest także dodanie do pojęć geometrii, nałożonych na modele nomologiczne, pojęć czasowości, dopiero w oparciu o takie modele można wyjaśniać fakty z uwagi na pewne cechy struktury”14.

13 No m ol og i a — nauka o prawach nauki, przeciwieństwo fenomenologii. podaje za: Słownik wyrazów obcych, pod red. Doc. dr Jana Tokarskiego, Państwowe Wydawnictwo Naukowe, Warszawa, s. 515 14 Michalina Błędzka, Adrianna Weber, Maciej Sendłak, Metodologia nauk, 6.5. Wyjaśnianie strukturalne http://rowerowy.szczecin.pl/f/pliki/3ci/skrypty/ Modelowanie.doc, 2009-04-10 Niniejszy dokument, zawiera szczegółowy przegląd zagadnień z zakresu metodologii nauk.

Część

I

1. Sz t u ka i Nau ka

15

…mózg jest organem uwagi skierowanej na życie. Henri Bergson

Czy w działalności intelektualnej pojawiają się jakości estetyczne i na czym może polegać ich rola? Poszukując odpowiedzi na te pytania rozważę, jakie wartości odgrywają znaczenie w działalności naukowej i w jaki sposób determinują one rozwój badań naukowych. Materiałem stanowiącym podstawę dla tych rozważań będzie metamatematyka15. Uważam, że ze względu na swój wielce abstrakcyjny charakter oraz istotne znaczenie dla innych nauk, będzie to najlepsza reprezentacja świata nauki. Dla zrozumienia prezentowanych teorii zbędne będą zdolności rachunkowe i znajomość matematycznego języka. Zajmować się będę filozoficzną podbudową nauki, której historia jest równie niezwykle interesująca jak i długa. 1.1. ws p ó l n y m i a n ow n i k Kultura mieści w sobie szereg zachowań, które poza ułatwieniem i umilaniem człowiekowi życia, pozwalają na realizację głębszych potrzeb psychicznym. Jedną z takich ważnych potrzeb jest pragnienie zrozumienia otaczającej rzeczywistości. Odczuwane przez ludzi w różnym stopniu, jest wyrazem duchowej potrzeby poznania prawdy. Co wspólnego ma pragnienie prawdy z potrzebą piękna? Oba te pojęcia wraz z trzecim, którym jest dobro, określają w najbardziej ogólny sposób duchowe potrzeby człowieka. Są tak ważne dla ludzkości, że każde z nich doczekało się statusu głównego pojęcia szczególnych działów filozofii. Estetyka jako samodzielna dziedzina filozofii wyodrębniła się dopiero w XVII wieku. Jednakże problematyka jej była od zarania obecna w dziełach wybitnych myślicieli. Podstawowe dla estetyki pojęcie piękna kojarzy się zwykle z dążeniami artystów i potrzebami, na które ich dzieła odpowiadają. Mylnie byłoby sądzić, że piękno jest istotą sztuki. Nie można też zgodzić się z tym, że prawda i dobro są obojętne świadomym artystom. Stanowią one równie ważną motywację podejmowanych działań artystycznych, równie ważny element przekazów zawartych w dziele, równie ważną wartość objawianą przez dzieło odbiorcy. Jestem o tym głęboko przekonany nie tylko w wyniku wiedzy z zakresu historii sztuki, ale tym bardziej z własnych doświadczeń w czynnym działaniu artystycznym. W moim opracowaniu interesuje mnie natomiast, jak przedstawia się sytuacja z drugiej strony. Podobnie potocznym skojarzeniem jak: sztuka → piękno, jest nauka → prawda. Postaram się udowodnić, że jest ono równie fałszywe, jako to pierwsze. Powstanie tej części pracy jest w dużej mierze wynikiem postawienia pytania: ja k ie z n a cz e n ie d la n au k i m a pię k no?
15 M e t a m a t e m t y k a — dział badań nad podstawami matematyki; zajmuje się analizą budowy i własności teorii matematycznych. podaje za: http://pl.wikipedia.org/wiki/Metamatematyka, 2009-03-10

16

Najpierw jednak pragnę uczynić dygresję pytając o znaczenie dobra. Czy dobro jest obojętne dla nauki? Mam nadzieję, że nie. Niech dowodem będzie motywacja wielu naukowców, jaką stanowi pragnienie ulepszania świata. Obserwowalne efekty tej motywacji stanowią artefakty postępu technicznego. Argumentując poglądy o destruktywnym wpływie postępu technicznego na środowisko zwróćmy uwagę, że intencja ułatwienia i umilania naszego życia jest dobra. Zgubne jest natomiast rozbudzanie potrzeb konsumpcyjnych do granic możliwości, uprzywilejowane w systemach, których podmiotem jest kapitał. Zagadnieniami etycznymi w niniejszej pracy zajmować się więcej nie będę. Jednak poza postawionym pytaniem o piękno ważne będzie pojęcie prawdy i wzajemna relacja tych pojęć. Ponieważ dla naukowców ważną z praktycznego punktu widzenia jest zgodność teorii z rzeczywistością, większość upowszechnionych teorii to te uważane za prawdziwie obecnie, lub przez dłuższy czas w przeszłości. Są też i takie, które przeszły do historii, pomimo szybkiego podważenia ich prawdziwości, a to ze względu na zawarte w nich piękno. Na i le w ię c pię k no i p r awd z iwo ś ć s ą z a le ż ne w s w y m ws p ó ł w yst ę p owa n iu? 1.2. H i e r a rc H i a o d k ryć Jeśli estetyka zajmuje się pięknem, a etyka dobrem, który z działów filozofii jest nauką o istocie prawdy? Czy jest to ontologia, która zajmuje się istnieniem bytu (czyli zakłada, że coś obiektywnie istnieje, lub co najmniej w innej wersji założenie to neguje)? Czy jest to raczej epistemologia, mówiąca o naszym poznaniu? Obie z tych dziedzin zajmują się na swój sposób pojęciem prawdy. Z mojej perspektywy wygląda na to, że jest to raczej epistemologia. Sądzę, że jest to nie tylko konsekwencją mojej pragmatycznie zorientowanej postawy, ale również cechą czasów, w których od ponad stu lat przedmiotem, coraz wnikliwszych badań, stają się same narzędzia badawcze. Prawdopodobnie w czasach, gdy poznanie pojmowano jako konsekwencję bytu, powszechniejsze było skojarzenie prawdy z przedmiotem rozważań ontologii. Przeniesienie akcentu w sposobie definiowania pojęcia prawdy z ontologii do epistemologii związane jest jak wspomniałem z przedmiotem badań naukowych. Najprostszym znaczeniem odkrycia naukowego jest odkrycie obiektu (nowego kontynentu, gatunku, pierwiastka, lub ciała niebieskiego). Odkrycie obiektu związane jest ściśle z tematyką bytu. W miarę rozwoju danej dziedziny nauki, obszar jej zainteresowań zostaje bardziej wyeksploatowany. Wskutek tego maleją możliwości odkrywania nowych bytów, wzrasta natomiast znaczenie odkrywania związków pomiędzy nimi. Są to odkrycia procesów i praw, polegające na opisywaniu wzajemnych relacji pomiędzy obiektami. Tematyka tego typu odkryć jest moim zdaniem w równym stopniu ontologiczna, jak i epistemologiczna. Kolejnym etapem pogłębiania wiedzy danej dziedziny jest odkrywanie związków pomiędzy tymi relacjami. W wyniku ich ustalenia tworzone są struktury. Określenie tworzone w stosunku do teorii struktur wydaje się być trafniejsze niż odkrywane. Na tym zaawansowanym etapie odkryć naukowych tematyka epistemologiczna bierze górę nad ontologiczną. Dylemat umiejscowienia prawdy w bycie lub poznaniu można równie dobrze odrzucić, traktując pytanie, jako absurdalne. Postawa taka będzie, jak najbardziej funkcjonalna w procesie badania podstaw nauki, który w znacznej mierze sprowadza się do badania języka,

17

używanego do zakodowania wiedzy. Takie właśnie założenie filozoficzne, „że p oz n awa l no ś ć i by t nie tylko pokrywają się w sensie metafizycznym, lecz są wręcz synonimami” 16, przyjął Peirce podejmując się pierwszej analizy teoriopoznawczej znaku. 1. 3. d y f e r e n c ja s z T u k i i n au k i Pojęcia estetyki wyrosły na gruncie badania wytworów sztuki i procesów ich kształtowania. Chcąc podjąć się próby zastosowania tych pojęć do roztrząsania tworów nauki, na wstępie należałoby określić, na czym zasadza się różnica między tymi dziedzinami. Konsekwencją hipotezy o równouprawnieniu piękna i prawdy w teleologii sztuki i nauki, jest odrzucenie rozróżnienia tych dwóch dziedzin pod względem centralnego obiektu zainteresowań. Cel, którym najogólniej rzecz ujmując jest zaspokojenie duchowych potrzeb piękna, prawdy i dobra, może być osiągany poprzez różnorakie działania. Sztuka i nauka nie obejmują swym zakresem wszystkich rodzajów tych działań. Poza nimi na kulturowy repertuar środków urzeczywistniających duchowe potrzeby składają się jeszcze działania w myśl religii i magii. Stwierdzając, że dążenie do piękna jest jednym z celów podejmowania wymienionych działań, poczyniłem wstępne założenie. Jeśli udowodnię jego słuszność, odpowiedzią na postawione pytanie będzie stwierdzenia, że piękno jest jednym z celów, które determinują działania naukowe. Nie jest to dla mnie odpowiedź zadowalająca, gdyż nie ma żadnego związku z odrębnością nauki od innych sposobów poznawania świata. Dlatego sformułuję pytanie o piękno w nauce bardziej szczegółowo. Mianowicie: W ja k i s p o s ób z n a cz e n ie pię k n a w p ł y wa n a for mę efek t ów p r a c y n au kowej? Przekonany jestem, że dyferencji należy dokonać ze względu na metodę, jak i na odrębny charakter efektów działań artystycznych i naukowych. Różnica pomiędzy efektami odmiennych sposobów poznawania świata jest widoczna w oczywisty sposób. Mniej widoczna jest natomiast różnica w sposobie do celu prowadzącym, co wynika zapewne z faktu, iż częściej przyglądamy się efektom niż działaniom do nich prowadzącym. Spróbujmy się pokrótce przyjrzeć metodom działań artystycznych i naukowych. Będą one zależne od sensu tych działań. Sztuka i nauka dążą do celu odmiennymi drogami, sensem działań nazywam środek do tego celu. W tym ujęciu sens jest podrzędny celowi, a nadrzędny wobec metodologii i determinuje jej wybór. Uogólnionym sensem działań w obydwu dyscyplinach jest przekazanie informacji. Jednakże, gdy zwrócimy uwagę na charakter tej informacji, dyferencja sztuki i nauki zarysowuje się z całą wyrazistością. Teoria naukowa ma za zadanie być nośnikiem obiektywnego poznania. W związku z takim właśnie jej sensem szczególnym, informacja musi być kodowana w odpowiedni sposób; mianowicie: spełniać powinna warunek stabilności. Oznacza to, że sformułowania powinny być w jak największym stopniu ścisłe i uporządkowane logicznie tak, by maksymalnie zminimalizować deformacje w odbiorze informacji przez różnych odbiorców. W dalszej części tekstu zamiast wyrażenia dzieło sztuki będę używał akt sztuki. Pierwsze wyrażenie w potocznym pojęciu utożsamiane jest tylko z artefaktami posiadającymi trwałość: takimi, jak obrazy, rzeźby, budowle i z tego względu jest zbyt wąskie przy analizowaniu
16 Max Bense, Świat przez pryzmat znaku, dz. cyt., s. 141

18

ogółu zjawisk sztuki, do których zaliczamy: kompozycje literackie i muzyczne, przedstawienia teatralne i inne akcje tymczasowe. Akt sztuki – będę więc odnosił do wszystkich działań i wytworów artystycznych. Słowa akt wydaje mi się najwłaściwsze, gdyż zwraca uwagę na aktywność w twórczym działaniu. Pochodzi od łacińskiego actus znaczącego działanie, wykonywanie, dzianie się. Każde więc dzieło sztuki poprzedzone jest aktem sztuki, a nie każdy akt pozostawia po sobie dzieło. Wspomniany wymóg stabilności informacji nie ma istotnego znaczenia w działaniach artystycznych, których sens szczególny stanowi przekazanie subiektywnego przeżycia. Dwie zalety dobrego aktu sztuki wykluczają obiektywizm przekazywanych informacji. Po pierwsze: im bardziej zarysowuje się w akcie sztuki subiektywizm, tym bardziej jest ono wyjątkowe, a jego niezwykłość bardziej porusza emocje odbiorców niż zjawiska, z którymi już się opatrzyli. Drugie wynika z pierwszego: w wyniku poruszenia emocji odbiorców powstają nowe subiektywne treści znaczeniowe świadczące o zalecie aktu sztuki, którą stanowi jego uniwersalizm. W przypadku tworzenia aktów sztuki, którym przypisać można te dwie, wymienione zalety, kierowanie się intuicją będzie metodą efektywniejszą od postępowania logicznego. Wybór metodologii logicznej, bądź intuicjonistycznej związany jest nie tylko z odmiennym sensem szczególnym porównywanych dziedzin i zamierzonym efektem działań, ale również z materiałem, który jest porządkowany w tych działaniach. W przypadku sztuki materiał ten stanowią jednostkowe wrażenia i przeżycia. Logiczne związki tego rodzaju doświadczeń nie mają istotnego znaczenia dla zakresu oddziaływań aktu sztuki. Inaczej w przypadku teorii naukowej, która porządkuje częstokroć wyniki eksperymentów ujęte w kategoriach ilościowych. Definicja tego rodzaju doświadczenia inklinuje możliwość wielokrotnego powtarzania go z tym samym wynikiem. Działanie to nazywa się weryfikacją teorii. Jest ono dla teorii naukowej niezwykle istotne. Jednostkowy eksperyment nie ma racji bytu, ponieważ dopiero wykonany wielokrotnie pozwala zgromadzić bazę danych, która stanowić może materiał wyjściowy formułowania teorii. Uzyskanie wyników tożsamych, w granicach dopuszczalnych błędów pomiarowych, w kolejnych podobnych eksperymentach, określa zakres ogólności teorii naukowej. Odpowiednia ogólność i obszerny materiał dowodowy to zalety dobrej teorii naukowej, wynikające z zastosowania odpowiedniej metodologii. Podsumowanie wniosków płynących z rozważań dotyczących dyferencji sztuki i nauki jak i poszukiwania ich wspólnego mianownika przedstawia tabela druga. W tabeli materiał rozumiany jest jako dane na wejściu, a tworzywo jako dane na wyjściu. Pojęcie metody zawężone jest tu do sposobu przekształceń jednych danych w drugie. Odmienność materiału wynikająca ze sposobu zmagazynowania potrzebnych danej metodzie danych opisana była już wcześniej. Tworzywo natomiast w tym ujęciu pragnę dookreślić. Pojęcia rozmyte i skojarzenia, jako tworzywo działań artystycznych, istnieją tylko w umysłach twórców i odbiorców. Nie są więc tożsame z potocznym rozumieniem tworzywa, jako fizycznej substancji poddanej obróbce. Są wobec wykorzystanych fizykalnych bytów nadrzędne w tym sensie, że lepiej nadają się do tematyzacji17 procesów działań artystycznych.
17 Te m a t yz a c j a — uchwycenie sensu badanego przedmiotu przez odpowiedni dobór aparatury pojęciowej. podaje za: Max Bense, Świat przez pryzmat znaku, dz. cyt., s. 192

19 Tab. 2. Różnice i podobieństwa działań artystycznych i naukowych.

sztuk a

nau k a

cel działań

prawda, dobro, piękno przekazanie informacji…

sens działań …o subiektywnym przeżyciu materiał cechy metody tworzywo efekty Źródło: opracowanie własne skojarzone wrażenia i emocje intuicyjność i ujęcie jakościowe pojęcia rozmyte i skojarzenia akt sztuki …o obiektywnym poznaniu usystematyzowane wyniki eksperymentów logiczność i ujęcie ilościowe język sformalizowany teoria naukowa

Natomiast język sformalizowany, powinien być w tym kontekście rozumiany, jako całościowy repertuar środków. Język sformalizowany, jako tworzywo nauki, będzie zatem pojęciem o szerszym zakresie, niż rozumiany tylko, jako narzędzie. W obrębie tak pojętego języka, narzędzia stanowić będą jednostki mniejsze. Kończąc próbę dyferencji sztuki i nauki, pragnę zaprezentować jeszcze punkt widzenia, będącego mym autorytetem w dziedzinie teorii estetyki Johna Dewey’a. Zwraca on uwagę, na materiał doświadczenia wiodącego do intelektualnych wniosków. Są nim mianowicie znaki i symbole18. Jakości służące do wyrażenia symboli, które teoria naukowa wykorzystuje muszą spełniać wyłącznie wymogi komunikatywności. Symbole w działalności intelektualnej pozbawione są więc jakości ekspresywnych, które są istotne w aktach sztuki. W sztuce to jakości właśnie są materiałem. Indywidualny sposób wyrażenia ma podstawowe znaczenie. W sztuce nowatorski sposób przedstawienia liczy się bardziej niż nowatorska treść. Różni artyści wyrażają wciąż te same idee, na różne sposoby. Jest to twórcze działanie, którym wzbogacają oni kulturę o nowe wartości, podczas gdy w nauce postępowanie takie byłoby plagiatem. Naukowcy z kolei skupieni są na przedstawianiu idei nowatorskich, a sposób ich wyrażenia może pozostawać ten sam przez wiele pokoleń. Takie powtarzanie tego samego sposobu nie jest niczym cennym w sztuce, nawet jeśli służy wyrażaniu nowych idei. Teoria naukowa, przeciwnie niż akt sztuki, ma charakter ogólny. Jest konstrukcją złożoną z pojęć ogólnych i powinna zachowywać spójność swojej formy przy zastosowaniu jej do przypadków szczegółowych. Akt sztuki odnosi się również bardzo często do pewnej ogólnej idei, ale poprzez jakości, które bezpośrednio działają na zmysły. Każdy akt sztuki ma wartość indywidualną i stanowić może szczególny przypadek wyrażenia konkretnej idei.
18 John Dewey, Sztuka jako doświadczenie, dz. cyt., s. 49

20 Ryc. II Gustaw Cubert, Kamieniarze

źródło: http://cudaswiata.files.wordpress.com/2008/11/courbet-stone-breakers.jpg, 12.02.2006

Przykładowo: obraz Gustawa Cuberta Kamieniarze wyraża ideę wartość ludzkiej pracy, zaczerpniętą z myśli społecznej ówczesnych czasów — dobitnie eksponowaną na przykład przez Karola Marksa w wybitnym dziele myśli społeczno–politycznej, którym jest Kapitał. Obraz Cuberta odnosi się do idei, działając na widza przedstawieniem konkretnej sceny, która najpierw musi zostać spostrzeżona zmysłowo, aby następnie móc wywołać w odbiorcy jakąś refleksję. Język symboliczny jako cecha odróżniająca naukę od sztuki nie oznacza bynajmniej, że działania artystyczne pozbawione są znaczeń symbolicznych, wymaga przecież tego wspomniane powyżej odnoszenie się treści aktów sztuki do idei. Oczywiste jest, że język to środek przekazu również dla artystów. Tego wymaga komunikacja, niezależnie od charakteru informacji. Zauważmy jednak, że jest to język, odmiennie wartościowany. Wieloznaczność wyrażeń będzie w poezji potraktowana jako zaleta zastosowanego języka; w nauce wieloznaczność może jedynie osłabić wartość teorii. Dlatego drugą (obok symboliki) istotną cechą języka nauki, którą trzeba było podkreślić jest jego formalizm. Powyższe przedstawienie czynników determinujących wybór odpowiedniej metody, oraz porównanie wartościowania efektów działalności artystycznej i naukowej wskazuje, jakiego rozróżnienia należałoby dokonać, postawiwszy sobie za cel opis jakości estetycznych teorii naukowych. Jako charakterystyczne cechy metody naukowej wyróżniłem logiczność i ujęcie ilościowe. Rozszerzając pojęcie metody o blisko z nią związane zagadnienia materiału (jako wejściowych, usystematyzowanych danych) i tworzywa (jako narzędzia konstrukcji semantycznych) wyróżniam dwie ogólne cechy metody naukowej, które poddam dalszej, szczegółowej analizie: p o pie r wsz e — me t o d a u k ie r u n kowa n a n a ogól no ś ć; p o d r u g ie — m at e r ia ł , a w ię c sfor m a l i z owa ny ję z yk s y mb ol i. Cechy te będą tematami kolejnych dwóch rozdziałów, w których nie zamierzam rozdrabniać się, na poszukiwania estetycznych wartości każdej z przedstawianych teorii. Sądzę że, skondensowany charakter mojego wywodu usprawiedliwia to uchylenie. Zamierzam natomiast przedstawiać ludzki sposób myślenia, leżący u podstaw formułowania każdej teorii. Sposób ten nawet w przypadku naukowców tylko z grubsza może być wciśnięty w sztywne ramy logicznych analiz. Ludzką rzeczą pozostają interpretacje, przekonania i wątpliwości.

21

Osobiście na pytanie, jakie znaczenie dla nauki ma piękno i w jaki sposób wpływa na formę i efekty pracy naukowców, postaram się odpowiedzieć w rozważaniach, które znajdą się w części czwartej. W kolejnych rozdziałach skupię się natomiast na rozjaśnieniu metody i tworzywa pracy matematyków. Mam nadzieję, że poza próbą odpowiedzi na postawione pytania, tekst mój może być na przykład materiałem przydatnym do zaplanowania wykładu z historii filozofii matematyki na uczelni artystycznej. 1.4. m aT e r i a ł b a da ń m aT e m aT y k i Teraz pozostaje mi jeszcze wyjaśnić, dlaczego w dalszej części wywodu skupiam się jedynie na matematyce. Przede wszystkim to matematyka dostarcza metodologii innym naukom. Chcąc więc przeanalizować cechy metody naukowej, by odnaleźć w niej wartości estetyczne, zwracam się do źródła. W ten sposób analizowany materiał pozbawiony będzie wyjątkowych właściwości poszczególnych gałęzi nauki. Amputacja taka ułatwi, moim zdaniem, spojrzenie na sedno problemu. Ponad to wybór ten związany też jest z paradoksem materiału, który jest przedmiotem badań matematycznych. Łatwo jest w świecie fizycznym z grubsza wyodrębnić przedmioty zainteresowania nauk, takich jak biologia, chemia, czy nawet językoznawstwo. Oczywiście granice obszarów, w których badane byty się znajdują są umowne i często obszary badawcze różnych nauk nachodzą na siebie. Czasem różne nauki interesują się tymi samymi przedmiotami w odmienny sposób. W przypadku matematyki próba wskazania fizycznie istniejącego obszaru jej badań nie jest tak prosta, a przy powzięciu niektórych założeń, wręcz niemożliwa. Zacznijmy od tego, że matematyk potrzebuje aksjomatyki19, by móc zacząć działać. Przyjmuje się więc pewne założenia, jako prawdziwe. Od czego zależy ten wybór? Można by powiedzieć, że to po prostu rzecz gustu. Tak jak stwierdził George Cantor „Istota matematyki zawiera się w wolności” 20. „Arbitralność, a zarazem niczym nie ograniczona swoboda doboru aksjomatów, ma uniezależnić matematykę od świata. Fakt jego istnienia lub nieistnienia byłby więc dla niej bez znaczenia” 21. Czym więc w istocie zajmuje się tak wyzwolona nauka? By odpowiedzieć na to pytanie, powrócę do zaproponowanego przeze mnie modelu hierarchii odkryć. Dla nauk przyrodniczych postęp od odkrywania bytów, poprzez badanie ich związków, do tworzenia struktur, pokrywa się w znacznej mierze z historycznym rozwojem danej dyscypliny. Matematyka natomiast zaczyna swój rozwój od szczytu hierarchii. Początków matematyki jako nauki należy szukać w starożytnej Grecji. Z przełomu VI i VII wieku p.n.e. pochodzi pierwsze znane prawo matematyki, a mianowicie twierdzenie Talesa. „Jeżeli ramiona kąta przetniemy dwiema prostymi równoległymi, to odcinki wyznaczone przez te proste na jednym ramieniu są proporcjonalne do odpowiednich odcinków wyznaczonych przez te same proste na drugim ramieniu”22.
19 A k s j o m a t y k a — układ sądów logicznych systemu dedukcyjnego, z którego można wyprowadzić wszystkie twierdzenia tego systemu. podaje za: Słownik wyrazów obcych, dz. cyt., s. 16 20 http//pl.wikiquote/wiki/Matematyka 21 Bernard Korzeniewski, Absolut — odniesienie urojone, Kraków 1994, Racjonalista.pl 2004, .pdf s. 36 22 Mały słownik matematyczny, Państwowe Wydawnictwo „Wiedza powszechna”, Warszawa 1974, s. 303

22

Jest to twierdzenie o proporcjonalności odcinków w geometrii euklidesowej. Nie mogło by zostać sformułowane bez abstrakcyjnych ścisłych pojęć z których korzysta (jak odcinek, kąt, prostopadłość). Dla rozważań na temat materiału badań matematyki znaczenie ma fakt, już podkreślony, a aktualnie uwydatniony najprostszym przykładem: nie ma rozwoju matematyki bez wstępnego założenia pewników. Definiowanie pojęć abstrakcyjnych ginie we mgle prehistorii. Wracając do pytania, co jest przedmiotem badań matematyki, postawię pytanie pomocnicze. Czego dotyczą te pierwsze zdefiniowane w matematyce pojęcia? Przytoczyłem twierdzenie Talesa nie tylko dlatego, że jest pierwszym, ale również i najlepszym dla udowodnienia pewnej tezy. Mówi ono o proporcjonalności. Czym jest proporcja wie każdy artysta — relacją pomiędzy wielkościami. W matematyce oznacza równość dwóch stosunków a : b = c : d 23, a więc stosunek stosunków! Widać teraz wyraźnie, że pojęcie to odnosi się bezpośrednio do struktury, a dopiero pośrednio do szczególnych obiektów fizycznych, bądź matematycznych. Wyłania się teraz najtrudniejsze i najciekawsze z postawionych pytań o rodowód struktury? Moja aktualna odpowiedź jest wyrazem wiary w człowieka. Struktura jest dziełem twórczej wyobraźni. Stanowisko takie jest również charakterystyczne dla metodologii konstruktywistycznych, w których odrzuca się istnienie elementów syntetycznych a priori w sensie Kanta24. Wyobraźnia potrzebna do rozwoju matematyki, jest nie mniejsza od tej potrzebnej w twórczości artystycznej — o tym przekonuje niniejsza praca. Matila C. Ghyka, który poświęcił się dogłębnym studiom nad spuścizną tradycji pitagorejskiej stwierdza: „(…) postrzeganie stosunków i proporcji jest tożsame z elementarną czynnością władzy sądzenia i w ogóle twórczego wyboru,(…) inteligencja w swej funkcji syntezy poznawczej bądź twórczej prowadzi do harmonii, albo nawet sama jest harmonią. Mówiąc krócej: w tej harmonicznej koncepcji poznania i życia piękno, prawda i dobro są je d ny m” 25.

Ryc. III

Alex Grey, Zena spoglądająca na Księżyc,

akryl na papierze, 1996

Obrazy inspirowane mistycznymi doświadczeniami pokazują, jak pragmatyczna potrzeba asymilacji jednoczy się z idealistycznym dążeniem do prawdy w kierowanym ludzką ciekawością akcie percepcji.

źródło: http://alexgrey.net/a-gallery/wndr.html

23 Słownik wyrazów obcych, dz. cyt., s. 606 24 Wojciech Sady, Spór o racjonalność naukową — Od Poincarégo do Laudana, s. 18 .pdf pobrany z: http://www.scribd.com/doc/8220980/Wojciech-Sady-Spor-o-Racjonalno-Naukow, 2009-03-27, .htm do wglądu: http://sady.umcs.lublin.pl/sady.racjnauk0.htm, 2009-04-09 25 Matila C. Ghyka, Złota Liczba. Rytuały i rytmy pitagorejskie w rozwoju cywilizacji zachodniej, Towarzystwo Autorów i Wydawców Prac Naukowych U n iv e rs ita s , Kraków 2001, wyd. I, s. 24

Część

II

2. Inf lacja ogólności idei

24

„Chcemy zaszczepić subtelność i ścisłość matematyki wszystkim naukom, jeśli to tylko możliwe, nie w przekonaniu, że tym sposobem poznamy rzeczy, ale by stwierdzić nasz ludzki stosunek do rzeczy. Matematyka jest tylko środkiem ogólnej i ostatecznej znajomości ludzi” Friedrich Nietzsche

2.1.

Pojęcia ogólne

Rozwój matematyki nieustannie kształtowany jest przez dążenie do formułowania pojęć bardziej ogólnych od tych, którymi nauka ta już dysponuje. „Twórcze uogólnienie pojęć w matematyce (…) polega na tym, że nowe pojęcie musi być radykalnie nowe, ale musi też w jakimś sensie zawierać w sobie starą treść”26. Oznacza to, że istniejąca teoria staje się szczególnym przypadkiem nowej bardziej ogólnej teorii. „Łączeniu teorii towarzyszy proces unifikacji pojęć. (…) Nowe pojęcie zawiera w sobie niekiedy kilka starych, uprzednio nie sprowadzanych do siebie pojęć, jako swoje szczególne przypadki; Ponad to, co bardzo istotne, nowe pojęcie ukazuje również sieć relacji między tymi szczególnymi przypadkami i to jest zupełnie nowa informacja, której nie można było wydobyć ze starych, niezwiązanych ze sobą pojęć”27. 2.1.1. s T ru k T u ry o g ó l n e Ważnym przedmiotem badań matematyki są więc struktury ogólne, których rozmaite modele znane są od bardzo dawna. Dowód twierdzenia wykazany jednorazowo w kontekście ogólnym, pozwala na wielokrotne stosowanie twierdzenia w szczególnych przypadkach. Często przydaje się w nowych sytuacjach, które wcale nie były zawczasu przewidziane, jako szczególne przypadki takiego twierdzenia. Dodatkową zaletą ogólności jest przejrzystość — łatwo jest dostrzec jakie właściwości, jakich obiektów, wykorzystuje dowodzenie i z jakich konstrukcji korzysta. Choć rozważania tworów zbyt szczegółowych nie są zbyt owocne, to i przesadne uogólnienie może stać się praktycznie bezwartościowe. Bardzo ważne jest znalezienie odpowiednich uogólnień 28. Genialność sformułowania pierwotnych pojęć matematycznych, takich jak liczby i figury polegała na dostrzeżeniu nieoczywistych analogii. Utworzenie klas abstrakcji wyrażających cechy zupełnie różnych obiektów wymaga rozwoju myślenia abstrakcyjnego — operowania znakami, które oddalają nas od bezpośredniego oglądu świata zewnętrznego. „Równocześnie jednak dzięki temu oddaleniu, od rzeczywistości, jakie uzyskujemy w poznaniu symbolicznym,
26 Michał Heller, Początek jest wszędzie, Prószyński i S.–ka, Warszawa 2002, s. 117 27 Tamże, s. 172 28 Krzysztof Ciesielski i Zdzisław Pogoda, Diamenty matematyki http://www.wiw.pl/matematyka/diamenty/diamenty_05_02.asp, 2009-03-03

25

dzięki rezygnacji z samoobecności przedmiotu bezpośrednio oglądanego, zyskujemy dostęp do obszarów niedostępnych oglądaniu”29. Zdolność przekształcenia reakcji na informację z bezpośredniego działania w znak pozwala jej uzyskać autonomiczność. Dzięki temu możliwe staje się otaczanie jej strukturą z coraz bardziej komplikującym się i samonapędzającym się mechanizmem 30. Matematyka rozwinęła się więc dzięki zdolności do abstrahowania. Jest przeto wynikiem tego samego procesu ewolucji sposobu myślenia, co język. Sprzężenie zwrotne nastąpiło gdy matematyka badając swoje własne podstawy, wypracowała narzędzia użyteczne do analizy procesów myślenia. 2.1.2. d e f i n ic ja pr z e z a b s T r a kc j ę W tym miejscu przedstawię proces abstrahowania z perspektywy semiotyki w ujęciu Maxa Bense’a. Rozpoczynając analizę semiotyczną teorii świadomości bazuje on na cybernetycznym pojęciu bytu.31 Wprowadza „pojęcie funkcji, jako relacji w znaczeniu stosunku zależności dwóch danych ontycznych uznanych za zmienne32.” Szczególnym rodzajem takiego przyporządkowania, użytecznym dla analizy semiotycznej jest funkcja bytowa, której zmiennymi są znaki. Funkcja bytowa urzeczywistnia byt znaków i pozwala na tworzenie typologii ontycznej, przez klasyfikację funkcji bytowych wedle liczby jej argumentów33. Klasyfikacja ta wygląda jak pokazuje tabela 3.
Tab. 3. Klasyfikacja funkcji bytowych przedmiot 0 znak 1 świadomość 2 komunikacja 3

funkcja bytowa ilość argumentów

Źródło: opracowanie własne na podstawie: Max Bense, Świat przez pryzmat znaku, dz. cyt., s. 53 - 54

W terminologii cybernetycznej trzy argumenty komunikacji, jako funkcji bytowej to: nadajnik, sygnał, odbiornik. Tak przedstawiana triada jest jednym z rozpowszechnionych uproszczeń podstaw semiotyki. Skupię się jednakże na świadomości, bo ta właśnie funkcja bytowa jest odpowiedzialna za proces abstrahowania. Jej argumenty to składniki relacji podmiot – przedmiot34. Obliczenia świadomości mogą przebiegać w dwóch kierunkach. Jeśli dana jest w podmiocie, obliczanie niewiadomej w przedmiocie jest procesem psychicznym zwanym apercepcją przez iterację35. Oznacza to przyswojenie odebranych bodźców i przyporządkowanie im posiadanego pojęcia, które pozostaje związane z przedmiotem w czasie jego percepcji.
29 Max Bense, Świat przez pryzmat znaku, dz. cyt., s. 23 30 Jurij Łotman, Kultura i eksplozja, Państwowy Instytut Wydawniczy, Warszawa 1999, s. 49 31 C y b e r n e t y c z n e p o j ę c i e b y t u zasygnalizował w 1957 Gotthard Günther w Das Bewusstsein der Maschinen. Rozważając symulacje procesów świadomości w maszynach elektronicznych, nie zatracił jej niesubstancjonalnego i funkcjonalnego pojęcia. podaje za: Max Bense, Świat przez pryzmat znaku, dz. cyt., s. 52 Cy b e r n e t y k a — nauka o sterowaniu, w węższym sensie: o układach zdolnych do samosterowności. podaje za: Słownik wyrazów obcych, dz. cyt., s. 123 32 Max Bense, Świat przez pryzmat znaku, dz. cyt., s. 53 33 Tamże, s. 53 34 Tamże, s. 54 35 I t e r a c j a — czynność powtarzania (najczęściej wielokrotnego) tej samej instrukcji w pętli. Mianem iteracji określa się także operacje wykonywane wewnątrz takiej pętli. podaje za: http://pl.wikipedia.org/wiki/Iteracja, 2009-03-28

26

Jeśli funkcja bytowa przebiega w przeciwnym kierunku (dana jest w przedmiocie, niewiadoma w podmiocie), mówimy o definicji przez abstrakcję. Definicja przez abstrakcje to proces świadomości, którego wynikiem jest tworzenie nowych klas równoważności stosunku równoważności36. Opuszczając wysokie klasy abstrakcji, przedstawię to na przykładzie z dziedziny sztuk pięknych. Kolaż to termin dla określenia techniki formowania kompozycji z różnych materiałów, takich jak gazety, tkaniny, fotografie itp., których wycinki naklejane są na płótno i łączone z tradycyjnymi technikami malarskimi. Słowo to pochodzi od francuskiego coller (klej), a wprowadzili je do słownictwa francuscy kubiści na początku wieku XX37. Gdy znamy taką definicję, przyglądając się dziełu wykonanemu tę techniką przypisujemy nazwę kolaż. Związek ten pozostaje czynny w naszych myślach przez cały czas odbierania takiego dzieła. Oczywiście kolaż kolażowi nie równy i możemy poddać w wątpliwość naszą klasyfikację. Nazwa jest zawsze klasą abstrakcji, do której zaliczamy w akcie apercepcji szczególne przedmioty, ze względu na odnalezienie w nich cech, które definiują znaną nazwę. W latach 50–tych Jean Dubuffet wprowadzając nową nazwę, tworzy nową klasę abstrakcji asamblaż (fr. assemblage — gromadzenie, zbieranie, zbiór) dla określenia trójwymiarowych kompozycji stworzonych z różnorodnych gotowych przedmiotów38. Abstrahuje więc on od posiadanego pojęcia kolażu i definiuje nowe. Człowiek znający jedynie pojęcie kolażu może zaliczyć do tej klasy abstrakcji postrzegany przedmiot, który człowiek o szerszej wiedzy z zakresu sztuk pięknych zakwalifikuje jako asamblaż. Kwestią sporną jest czy możemy traktować asamblaż jako szczególny przypadek kolażu. Tak, jeśli rozszerzmy pojęcie kolażu (które pierwotnie dotyczyło dzieł płaskich) na dzieła trójwymiarowe. W wielu przypadkach nowe klasy abstrakcji tworzone są w obrębie już istniejących. Specjalista potrafi wymienić dziesiątki odmian tulipanów. Podczas gdy dla ignoranta kwiat to kwiat. Tworzenie podzbiorów służy w nauce usystematyzowaniu zebranych materiałów, bądź też wyników. Jednakże, jak już wspomniałem, bardziej twórczy charakter ma w nauce tworzenie pojęć bardziej ogólnych od tych już posiadanych. Ten rodzaj abstrahowania zdaje się niebywale trudny. Wymaga oderwania myśli od kilku posiadanych definicji, i poszukiwania ich wspólnego mianownika znajdującego się poza porzuconymi definicjami, ale (najczęściej) pozostającego z nimi w zgodzie.
Ryc. IV Salvador Dali, Homar Telefon, asamblaż, 1936

źródło: http://nga.gov.au/International/Catalogue/Images/LRG/2607.jpg

36 Nazwa zaczerpnięta od Rudolfa Carnapa podaje za: Max Bense, Świat przez pryzmat znaku, dz. cyt., s. 55, 37 http://pl.wikipedia.org/wiki/Kolaż, 2009-03-28 38 http://pl.wikipedia.org/wiki/Assemblage, 2009-03-28

27

2.1. 3. g E n E z a m at E m at y k i Konstruując pojęcia ogólne, człowiek zdobył nową umiejętność. Dzięki niej możliwe stało się formułowanie pojęć abstrakcyjnych, stanowiących podstawy do wyciągania coraz bardziej ogólnych wniosków na podstawie analizy swoich doświadczeń. W okresie rozkwitu wielkich cywilizacji starożytnych matematyka stała się rzemiosłem wielce użytecznym przy sprawowaniu kontroli ekonomicznej. Rachunki znajdowały zastosowanie głównie przy transakcjach handlowych i określaniu wynagrodzeń robotników, oraz nakładaniu podatków na obywateli. Liczono powierzchnie ziemi uprawnej, wielkość plonów i innych surowców, liczebność hodowanych zwierząt i wytworzonych produktów39. Wcześnie też zaczęły rozwijać się obliczenia astronomiczne. Zauważmy, że w prehistorii obiektami kultu, utożsamianymi z bóstwem, były często ciała niebieskie. Wiedza na temat zjawisk na niebie była elitarna. Mogła służyć kaście kapłańskiej do umacniania swego autorytetu40. Greccy filozofowie wzbogacili osiągnięcia Babilończyków i Egipcjan elementami własnej filozofii. Dla nich matematyka była doskonałym narzędziem edukacyjnym — uzupełniała metaforyczny, jakościowy opis świata w filozofii, opisem ilościowym41. Odeszli oni od rozwijania matematyki w bardziej praktycznych jej zastosowaniach, które to były przedmiotem uwagi starszych cywilizacji starożytnych. Powrót idei matematycznych na grunt zastosowań praktycznych nastąpił po wchłonięciu kultury greckiej przez Cesarstwo Rzymskie. Rzymianie byli w swych działaniach bardziej praktyczni — bardzo cenili sobie rozwój techniczny. Wykorzystali oni osiągnięcia Greków, którzy skupili się na uporządkowaniu pojęć ogólnych. 2.1.4. g E n E z a a k s j o m at y k i Wielkie zasługi dla rozwoju matematyki przypisuje się Pitagorejczykom, którzy skoncentrowali się na sformułowaniu zasad ogólnych. Wypracowali oni naukową metodykę dziedziny, którą wcześniej rachmistrze i geometrzy posługiwali się praktycznie. Duży postęp w tym kierunku został dokonany po asymilacji, spopularyzowanych w Grecji w V wieku p.n.e., poglądów atomistów. W myśl teorii atomistów realne cechy przedmiotów materialnych są tylko ilościowe. Liczby charakteryzowały geometryczne własności obiektów, takie jak kształt i położenie. Postrzeganie liczb w nierozerwalnym związku z wielkościami przestrzennymi jest typową cechą greckiego sposobu myślenia 42 . Zagadnieniu wpływu postrzegania przestrzeni na pojęcie liczby, przyjrzę się dokładniej, przy okazji polemiki z intuicjonistyczną koncepcją liczb. Dla Pitagorejczyków liczba stała się zasadą bytu — czynnikiem decydującym o właściwościach wszystkich przedmiotów i zjawisk. Poglądy te znane są między innymi z przekazów filozofa żyjącego w II wieku w Gerazie (Jordania) — Nikomacha.
39 Roman Duda, Matematyka między duchem i materią w Ku interdyscyplinarności, Wydawnictwo Uniwersytetu Wrocławskiego 2008, s. 52 40 http://www.sciaga.pl/tekst/40118-41-rola_kaplanow_i_religii_w_starozytnych_cywilizacjach, 2009-03-28 41 Roman Duda, Matematyka między duchem i materią, dz. cyt., s. 53 42 Władysław Tatarkiewicz, Historia Filozofii, Tom I, Państwowe Wydawnictwo Naukowe, Warszawa 1970, s. 44 – 45

28

Hołdując idei Pitagorejczyków, określa on liczbę jako wieczną esencję rzeczywistości, która preegzystowała w umyśle stwórcy służąc mu przy realizacji planu stworzenia. W dziele Wprowadzenie do arytmetyki Nikomach wyjaśnia: „Rzeczy bezcielesne, jak jakości, konfiguracje, równość…, stosunki, uporządkowania…, miejsca, czasy…, — są ze swojej istoty niezmienne, okazjonalnie wszakże mogą uczestniczyć w perypetiach przytrafiających się ciałom, którym towarzyszą. (…) te rzeczy niematerialne, wieczne, są prawdziwą rzeczywistością. To natomiast, co podlega kształtowaniu i niszczeniu…, nie jest ze swej istoty rzeczywiste w akcie” 43. Świat zawdzięczał więc liczbie swój kształt i ład. Centralne miejsce jakie zajęła liczba w filozofii pitagorejskiej było wynikiem: • „zajmowania się matematyką, poszukiwania cech ilościowych, baczenia mniej na rzeczy poszczególne, a więcej na stosunki między nimi; • ogólnie greckiego, a specjalnie pitagorejskiego łączenia spraw arytmetycznych z geometrycznymi, traktowania liczb jako przestrzennych; • odkrycia, że ustrój zjawisk, nawet tak tajemniczych, jak harmonia, zależny jest od proporcji i liczby”44. Filozofia grecka opierała się na przekonaniu, że świat jest racjonalnie poznawalny, a wiedza o nim opiera się na pojęciach ogólnych i spełnia określone wymogi formalne. Grecki światopogląd stał się podstawą dla rozwoju nauki45. Przedstawię teraz skrót charakterystycznych cech tradycji greckiej w matematyce, które po dziś dzień nie zatraciły swojej wielkiej wagi: • p oję cia s ą ś ci śle d ef i n iowa ne p r z ez a k sjom at y b ą d ź d ef i n icje; • z n a cz ą c a je st dok ła d no ś ć, cz yl i p r e c y z ja ok r e śle ń ; • t w ie rd z e n ia i dowo dy u k ła d ają się w s yst e my log icz ne z wa ne t e or ia m i 46. Wyróżnione są teorie, które na podstawie kilku pojęć pierwotnych (przyjmowanych bez dowodu), oraz kilku aksjomatów, definiują kolejne pojęcia i udowadniają pozostałe twierdzenia. Do zagadnienia metody aksjomatycznej w matematyce powrócę jeszcze w następnym rozdziale, gdyż jest ono nierozerwalnie związane z wyróżnionymi przeze mnie we wprowadzeniu przymiotami języka sformalizowanego.

43 44 45 46

Nikomach z Gerezy, Wprowadzenie do arytmetyki, podaje za: Matila C. Ghyka, Złota Liczba, dz. cyt., s. 24 Tamże, s. 45 Roman Duda, Matematyka między duchem i materią, dz. cyt., s. 52 Tamże, s. 56 – 57

29

2.2.

Uogólnianie pojęć geometrii

2.2.1. e l e m e n T y e u k l i d e s a Przedstawię teraz najbardziej reprezentatywny przykład greckiej teorii, stworzonej metodą aksjomatyczną, która z powodzeniem stosowana jest po dziś dzień. Jest nią geometria euklidesowa. Model Euklidesa ma niebywałe znaczenie praktyczne — formułuje zasady niezastąpione przy konstruowaniu form przestrzennych w architekturze i technice. Następnie przy okazji dylematów związanych z piątym aksjomatem tej geometrii, wykaże jak podstawowe jest znaczenie przyjętych pewników i jak swoboda w ich doborze pozwala na rozwój idei poprzez zwiększanie stopnia ogólności. Euklides jest jednym z najbardziej znanych i cenionych za swoją ścisłość matematyków greckich. Żył i tworzył w IV wieku p.n.e.. Dzieło jego życia Elementy nadal stanowią podstawę dla redakcji szkolnych podręczników matematyki. Warto zaznaczyć, że Elementy Euklidesa zajmują drugie (po Biblii) miejsce pod względem ilości wydań i przez 2000 lat pozycja ta stanowiła podstawowy podręcznik geometrii47. „Euklides opiera geometrię na zaledwie pięciu o c z y w i s t yc h postulatach i wywodzi z nich całą teorię. Z kilku prostych przesłanek (…) dochodzi drogą dedukcji do ogromnej ilości ważnych wniosków. Oto lista pierwszych czterech postulatów Euklidesa: • od dowolnego punktu do dowolnego innego punktu można poprowadzić prostą; • og r a n icz on ą p r o st ą moż n a dowol n ie p r z e d ł u ż yć; • z dowol nego ś r o d k a dowol ny m p r om ie n ie m moż n a opi s a ć ok r ą g; • wsz yst k ie k ąt y p r o st e s ą r ów ne” 48. Piąty aksjomat brzmi: • dw ie p r o st e, k t ór e p r z e ci n ają t r z e cią w t a k i s p o s ób, ż e s u m a k ąt ów wew nę t r z nych p o je d nej st r on ie je st m n iejsz a o d dwó ch k ąt ów p r o st ych , p r z e t n ą się z t ej wła ś n ie st r ony, je śl i się je o d p ow ie d n io p r z e d ł u ż y 49. Należy pamiętać, że dla Greków pojęcie linii oznaczało to, co określamy dziś mianem odcinka. Nieskończoność pojmowali jako nieograniczoną możliwość kontynuacji czegoś skończonego. W definicjach Euklidesa linia miała swój początek i koniec. Takie pojmowanie linii prostej tożsame jest z dzisiejszym pojęciem odcinka.
47 Witold Sadowki, Femme Fatale, Prószyński i S.–ka, Warszawa 2000, s. 36 48 Witold Sadowki, Femme Fatale, dz. cyt., s. 38 – 39 49 http://pl.wikipedia.org/wiki/Elementy, 2009-02-12

30

2.2.2. m o dy f i k ac j e pi ąT e g o a k s j o m aT u Piąty pewnik Euklidesa budził wiele wątpliwości wśród całych pokoleń matematyków. Pierwsze ślady tych wątpliwości pochodzą z V wieku. Znajdują się w komentarzu Proklosa do pierwszej księgi Elementów. Zauważa on, iż sformułowanie tego pewnika zajmuje prawie tyle tekstu, co pozostałych czterech, a pewność daleka jest od oczywistości. Uporczywe, bezowocne starania, by wyprowadzić piąty pewnik z pozostałych, doprowadziły na początku XVIII wieku Włocha Giovanni’ego Girolamo’ego Saccheri’ego do zapoczątkowania geometrii, bazującej na czterech pierwszych aksjomatach. Została ona później nazwana geometrią absolutną i jest teorią szerszą, gdyż poza geometrią euklidesową, aksjomaty jej dotyczą również i innych modeli geometrii. Aksjomaty te jako pierwszy podał w 1898 roku David Hilbert. Powstały one w wyniku badań matematycznych, które wykazały, że piąty aksjomat Euklidesa nie zależy od poprzedzających i można go zastąpić innym50. Ponieważ pewnik ten równoważny jest stwierdzeniu: • p r z ez pu n k t n ie le ż ą cy n a d a nej p r o st ej moż n a p op r owa d z ić je d n ą i t yl ko je d n ą p r o st ą r ów noleg ł ą do d a nej, analizowano konsekwencje jego zaprzeczenia. Okazało się, że spójne geometrie można uzyskać w dwóch przypadkach: • p r z ez pu n k t n ie le ż ą cy n a p r o st ej moż n a p op r owa d z ić n ie sko ńcz e n ie w iele p r o st ych r ów noleg ł ych do d a nej, otrzymując geometrię hiperboliczną, którą opisali Gauss, Bolyai i Nikołaj Łobaczewski; • p r z ez pu n k t n ie le ż ą cy n a p r o st ej n ie d a się p op r owa d z ić ż a d nej p r o st ej r ów noleg łej, otrzymując tak zwaną geometrię eliptyczną, opracowaną w połowie XIX stulecia przez Bernharda Riemanna51. „Riemann nazwał uzyskane przez siebie geometrie: • eliptyczną (dla krzywizny dodatniej), • paraboliczną (dla krzywizny zero), • hiperboliczną (dla krzywizny ujemnej).52” Wspomniany prekursor geometrii absolutnej Saccheri w dziele Euclides ab omni naevo vindicatus, (1733) sformułował sporą część obu geometrii nieeuklidesowych. Wnioski, jakie wyprowadził z zaprzeczenia piątego aksjomatu Euklidesa, uznał metodą reductio ad absurdum, za niedorzeczności i wykorzystał jako dowód prawdziwości tegoż aksjomatu53. 2.2. 3. u o g ó l n i e n i a p o j ę c i a pr z e s T r z e n i Rozważając dylematy, związane z piątym postulatem Euklidesa angażującym dociekania licznych geometrów, pominąłem całe wieki rozwoju matematyki. Czuję się teraz zobowiązany uzupełnić lukę w opisie procesu uogólniania podstawowego pojęcia geometrii, jaką jest przestrzeń.
50 51 52 53 Tamże, wówczas Tamże, wówczas http://pl.wikipedia.org/wiki/Geometria_hiperboliczna, 2009-03-30 Wojciech Sady, Spór o racjonalność naukową, dz. cyt., s. 13

31

W tym celu powrócę do wieku XVII. W owym czasie René Descartes, zwany Kartezjuszem, dał początek geometrii analitycznej. Wprowadził on układ współrzędnych prostokątnych54, nazwany dzisiaj kartezjańskim układem współrzędnych. Konstrukcja taka pozwala utożsamiać punkty płaszczyzny z parami liczb, natomiast punkty przestrzeni z trójkami liczb. Liczby te nazywamy współrzędnymi punktu. Dzięki temu można cyfrowo opisywać własności (kształty, wielkości i rozkład) figur i brył. Układ współrzędnych stał się dla inżynierów i projektantów środowiskiem definiowania koncepcji. Posługuje się językiem ścisłym dostatecznie by był odczytywany nie tylko przez innych ludzi, ale również przez roboty realizujące projekty. Metodę współrzędnych w geometrii w sposób systematyczny opracował już wcześniej, żyjący w tym samym okresie Pierre de Fermat. Genialny, jak to często bywa, zarazem prosty pomysł wprowadzenia do geometrii metody współrzędnych spowodował rewolucję w matematyce. Przełom ten bazował na nowych możliwościach zaistniałych dzięki powiązaniu geometrii z algebrą i analizą. Po wprowadzeniu do geometrii metod algebraicznych, powstaje geometria analityczna. Kolejnym uogólnieniem jest geometria algebraiczna, czyli teoria badająca własności krzywych i powierzchni metodami algebraicznymi. Następny stopień uogólnienia stanowi, powstała w XVIII wieku geometria różniczkowa. Wyłożona po raz pierwszy przez Riemanna w 1854 roku, a opublikowana w 1868 roku 55. Najnowszym osiągnięciem uogólnień koncepcji przestrzeni są wynalezione przez Michała Hellera i Wiesława Sasina przestrzenie strukturalne zawierające w sobie, znane już wcześniej, przestrzenie różniczkowe56. Współrzędne punktu mogą być określone, nie tylko przez parę lub trójkę liczb, ale również przez każdy ciąg liczbowy o ustalonej z góry liczbie elementów. W ten sposób definiuje się przestrzenie skończenie wymiarowe57. Możliwa staje się analiza geometrycznych obiektów n–wymiarowych w sposób równie prosty, jak w znanych od stuleci przestrzeniach dwu– i trójwymiarowych. Dzięki metrykom58 określonym osiami współrzędnych możemy wykonywać przekształcenia wektorów59 z zastosowaniem działań arytmetycznych: mnożenia i dodawania. Dlatego przestrzenie takie nazwano wektorowymi. Jednak dla potrzeb analizy matematycznej, badającej własności funkcji, przestrzeń wektorowa, bez wprowadzenia dodatkowej struktury, jest niezbyt interesująca. Ideę analizy obiektów geometrycznych z wykorzystaniem układów współrzędnych rozwinął na początku XX wieku Hilbert. Zdefiniował on przestrzenie nazywane dziś jego imieniem. Były to przestrzenie wektorowe, w których można określić prostopadłość60.

Mały słownik matematyczny, dz. cyt., Warszawa 1974, s. 48 Tamże, s. 91 – 92 Michał Heller, Początek jest wszędzie, dz. cyt., s. 83 Krzysztof Ciesielski i Zdzisław Pogoda, Diamenty matematyki http://www.wiw.pl/matematyka/diamenty/diamenty_05_02.asp, 2009-03-03 58 Pr z e st r z e ń metry cz n a — zbiór z wprowadzonym odpowiednikiem pojęcia odległości dla par jego elementów. http://pl.wikipedia.org/wiki/Przestrzeń_metryczna, 2009-04-20 59 We k t o r — odcinek prostej łączący dwa punkty, w którym wyróżniony jest pewien kierunek, posiada oznaczony początek i koniec. podaje za: Słownik wyrazów obcych, dz. cyt., s. 315 60 Krzysztof Ciesielski i Zdzisław Pogoda, Diamenty matematyki, http://www.wiw.pl/matematyka/diamenty/diamenty_05_02.asp, 2009-03-03 54 55 56 57

32

Już w pierwszej fazie badań nad przestrzeniami Hilberta wprowadzono do nich normę. Zdefiniowanie normy pozwala na obliczanie odległości pomiędzy elementami przestrzeni. Na początku lat 20–tych XX wieku, niezależnie od siebie, kilku matematyków podało aksjomatyczne definicje przestrzeni wektorowej, unormowanej. Jednak i taka przestrzeń, mimo licznych możliwości jej zastosowania, jest zbyt szczegółowa dla wielu potrzeb analizy matematycznej61. Wśród badaczy przestrzeni Hilberta, był wielkiej sławy polski matematyk Stefan Banach. On to znalazł wreszcie uogólnienie spełniające w zadowalającym stopniu praktyczne wymogi analizy matematycznej. Przestrzeń Banacha jest przestrzenią wektorową, unormowaną, zupełną62. Zupełność wyróżnia klasę przestrzeni, w których każdy ciąg spełniający warunek Cauchy’ego63 jest zbieżny. W przestrzeniach tych możemy metodami geometrii algebraicznej przekształcać obiekty bardziej złożone, takie jak funkcje i ciągi liczbowe. Obiekty te badane metodami Banacha rozważane są jako punkty, elementy przestrzeni. Pomimo dużego stopnia abstrakcyjności tej teorii, znaczącą jej zaletą jest fakt, że w przestrzeniach Banacha spełnione są rozmaite własności ściśle związane z intuicją geometrii płaszczyzny i przestrzeni trójwymiarowej64. W ten sposób ufundowane są skuteczne metody dokonywania przekształceń w przestrzeniach n–wymiarowych, o liczbie wymiarów od jednego do nieskończoności włącznie. 2.2.4. pa s ja b a n ac H a W pracy Krzysztofa Ciesielskiego i Zdzisława Pogody Diamenty matematyki jeden z rozdziałów poświęcony jest Banachowi. Na podstawie opinii ludzi znających Banacha osobiście, przedstawiony jest on, jako myśliciel całkowicie pochłonięty problemami matematycznymi. Ważniejsze było dla niego badanie problemów, niż zapisywanie ich. Rozważał ich tak wiele, że nawet, gdyby tego pragnął, nie nadążałby z ich spisywaniem65. Ciekawy jest też opis uzyskania doktoratu przez Banacha. Za doskonałą pracę doktorską uznane zostały wyniki Banacha spisane przez osobę trzecią. On natomiast został zwabiony pewnego dnia do dziekanatu. Tam zdawał egzamin przed komisją sądząc, że pomaga w rozwiązaniu problemu matematycznego, a do świadczenia pomocy w tym względzie zawsze był skory. Podstęp zwierzchników uczelni wynikał z oporów Banacha do przedstawienia pracy doktorskiej. Niechęć swoją tłumaczył on stwierdzeniem, że może wymyślić jeszcze, coś lepszego. Oczywiście profesorem został w niedługim czasie. Warto jeszcze nadmienić, że doktorat uzyskał Banach nie posiadając stopnia magistra, gdyż studiów inżynierskich nie ukończył ze względu na ich zbyt praktyczny charakter. Asystentem na Politechnice Lwowskiej został dzięki wstawiennictwu Hugona Steinhausa.
61 Krzysztof Ciesielski i Zdzisław Pogoda, Diamenty matematyki http://www.wiw.pl/matematyka/diamenty/diamenty_05_03.asp, 2009-03-03 62 Tamże, wówczas 63 Wa r u n e k C au ch y ’e g o — odległość między wyrazami maleje do zera wraz ze wzrostem wskaźników. podaje za: Krzysztof Ciesielski i Zdzisław Pogoda, Diamenty matematyki, http://www.wiw.pl/matematyka/diamenty/diamenty_05_03.asp, 2009-03-03 64 Tamże, wówczas 65 Krzysztof Ciesielski i Zdzisław Pogoda, Diamenty matematyki http://www.wiw.pl/matematyka/diamenty/diamenty_05_02.asp, 2009-03-03

33

Przedstawiona w wymienionym źródle relacja z kariery naukowej Banacha przekazana została przez Andrzeja Turowicza — profesora matematyki, który przed wojną wykładał na wspomnianej uczelni66. Pasja Banacha — wielkie zaangażowanie emocjonalne w abstrakcyjne problemy — może być zasadnie porównywana z pasją, która jest udziałem zaangażowanych w swą twórczość artystów. 2.2. 5. p ro g r a m e r l a n g e ń s k i Innym geniuszem, którego przedstawić trzeba, opisując postęp matematyki związany z uogólnianiem jej pojęć, jest Feliks Klein. O geniuszu jego świadczyć może fakt, że został mianowany profesorem mając zaledwie 23 lata. Sposób myślenia Kleina o własnościach teorii matematycznych cechuje wielki stopień ogólności i szerokie horyzonty. Jego wizja matematyki była całościowa. Zasłynął on swoją doskonałą teorią metamatematyczną. Zwrócił on uwagę, że wiele obiektów matematycznych posiada różne definicje formułowane w odmiennych terminologiach67. Różnorodność definicji odnoszących się do jednego zjawiska, pojmował jako wynik opisywania go w odmiennych kategoriach. Zwrócenie uwagi na ten fakt umożliwiło postęp procesu uzgadniania map pojęciowych68 odrębnych działów matematyki. Charakterystyka własności pojęć matematycznych była drugim z głównych wątków wykładu Kleina w 1872 roku na uniwersytecie Erlangen.69 Przedstawiony przez niego wówczas program, zwany erlangeńskim, stał się podstawowym podejściem do matematyki. Pierwszym wątkiem tego wykładu, który przysporzył mu najwięcej rozgłosu, była definicja teorii matematycznej. Według Kleina praca badawcza matematyka składa się z trzech podstawowych części: • u s t a le n ia p ew nego zbior u X , cz yl i ba d a nego ś w iat a ; • w yb r a n ia g r u py G jego p r z ek sz t a łc e ń • d owo d z e n ia t w ie rd z e ń o n iez m ie n n i k a ch g r u py G d z ia łają c ej w zbior z e X Zbiór tych twierdzeń o niezmiennikach G działającej w X jest stworzoną przez Kleina definicją teorii matematycznej. Istotne jest, że pozostawiając ten sam zbiór, a zmieniając grupę przekształceń, uzyskujemy nowe teorie matematyczne.70 W podejściu Kleina, grupa jest jednym z podstawowych pojęć. Zostało ono wprowadzone w 1830 roku przez Evariste Galois. Początkowo odnosiło się tylko do grupy przekształceń. W drugiej połowie XIX wieku uogólnione pojęcie grupy, znalazło liczne zastosowania na przykład w krystalografii, mechanice kwantowej, a nawet w teorii sztuki (ornamentyka)71. W konsekwencji przyjęcia postulatów programu erlangeńskiego zadania geometrii polegać mają na badaniu własności układów punktów, które nie zmieniają się przy dowolnym przekształceniu obranej grupy. Własności te nazywają się niezmiennikami danej grupy przekształceń72.

66 Krzysztof Ciesielski i Zdzisław Pogoda, Diamenty matematyki http://www.wiw.pl/matematyka/diamenty/diamenty_05_01.asp, 2009-03-03 67 Witold Sadowki, Femme Fatale, dz. cyt. , s. 152 68 M a p a p o j ę ć i i c h u z g a d n i a n i e to określenia przeniesione do semiotyki z geometrii różniczkowej. Wprowadził je Bernard Korzeniewski w tekście Absolut — odniesienie urojone, 69 Witold Sadowki, Femme Fatale, dz. cyt. , s. 152 70 Tamże, s. 153 71 Mały słownik matematyczny, dz. cyt., s. 103 72 Tamże, s. 225

34

Geometria euklidesowa, według definicji Kleina, jest więc teorią wynikającą z przekształceń płaszczyzny grupą izometrii73, a jej niezmiennikami są odległości pomiędzy punktami. Jeśli na tym samym zbiorze (płaszczyzna jest rozpatrywana jako zbiór punktów) działającą będzie grupa homeomorfizmów74 to otrzymaną teorią będzie topologia. 2.2.6. to p o L o g i a Niezmiennikiem grupy homeomorfizmów jest spójność figury. Topologia jest więc nauką o spójności75. „Ogólność metod topologicznych polega na ogólności założeń dotyczących rozważanych przekształceń, jak i na ogólności rozważanych zbiorów, które mogą być dowolnymi przestrzeniami topologicznymi”76. Właśnie ta ogólność topologii jest jej wielką zaletą, czyniącą z niej narzędzie o wielorakim zastosowaniu. Termin topologia, pojawił się w literaturze przedmiotu w 1847 roku. Około 1920 roku uznano powstanie nowej dziedziny matematyki, która obecnie rozgałęziona jest na szereg nauk bardziej szczegółowych. Topos znaczy po grecku miejsce i podobne znaczenie ma łacińskie situs. Początkowo zamiast nazwy topologia używano geometria situs. Topologia była najprężniej rozwijającą się gałęzią matematyki w pierwszej połowie XX wieku77. W 1904 roku Henri Poincaré postawił hipotezę: K a żd a t rójw y m ia rowa z wa r t a i jed nospójna roz maitość topologicz na b ez b r z eg u je st home omor f icz n a z e sfe r ą t r ójw y m ia r ową 78. Zwarta i jednospójna rozmaitość topologiczna79 — zainteresowani pojęcie to przybliżyć mogą sobie na przykład artykułem do którego odsyła przypis. Dla mnie istotne jest, że słuszność tej hipotezy podpowiada intuicja, lub doświadczenie z modelowaniem gliny. Jednakże na dowód matematyczny ludzkość czekała ponad sto lat. Hipoteza dotyczy przestrzeni trójwymiarowych. Mimo, że są one najbliższe naszej percepcji, to okazały się najbardziej problematyczne dla topologów, bo rozwiązania dla wymiarów mniejszych lub większych niż 3 były podane już wcześniej. Hipoteza Poincarégo znalazła się na liście problemów milenijnych, ogłoszonych przez Clay Mathematics Institute w roku 2000. Dowód potwierdzający prawdziwość hipotezy zawarty jest w pracach rosyjskiego matematyka Grigorija Perelmana, opublikowanych w latach 2002 – 2003. Jego prace zostały zweryfikowane dopiero w 2006. Magazyn Science przyznał ostatecznemu rozstrzygnięciu hipotezy miano naukowego wydarzenia roku 2006 80.

73 I z om e t r i a — przekształcenie, w którym, odległości punktów nie ulegają zmianie (np. obrót, przesunięcie). podaje za: Słownik wyrazów obcych, dz. cyt., s. 319 74 Ho m e o m o r fiz m — przekształcenie wzajemnie jednoznaczne i wzajemnie ciągłe. podaje za: Słownik wyrazów obcych, dz. cyt., s. 284 75 Witold Sadowki, Femme Fatale, dz. cyt. , s. 153 76 Mały słownik matematyczny, dz. cyt., s. 287 – 288 77 http://pl.wikipedia.org/wiki/Topologia, 2009-04-03 78 http://pl.wikipedia.org/wiki/Hipoteza_Poincarégo, 2009-04-03 79 Agnieszka Labisko, Hipoteza Poincarégo http://www.polskieradio.pl/nauka/wszechswiat/artykul4213.html, 2009-05-08 80 Tamże, wówczas

35

„Szczególną gałęzią topologii rozmaitości jest teoria węzłów, która zajmuje się krzywymi zwykłymi zamkniętymi, zanurzonymi w przestrzeni trójwymiarowej. O ile w przestrzeniach dwuwymiarowych, a także cztero– i więcej wymiarowych każda taka krzywa daje się bez rozcinania przekształcić w okrąg, to w przestrzeni trójwymiarowej istnieje nieskończona liczba takich nierównoważnych krzywych, zwanych węzłami” 81. Problematyka węzłów dwuwymiarowych znana jest wszystkim, którzy próbowali rozwiązać kiedykolwiek łamigłówkę geometryczną typu narysuj kształt bez odrywania ołówka (oczywiście każdy odcinek można narysować tylko jeden raz). Pytanie, czy dana łamigłówka ma rozwiązanie, topolog sformułowałby na przykład słowami: czy dana figura dwu–wymiarowa jest homeomorficzna z dwuwymiarową linnią krzywą? Odpowiedź na to pytanie można odnaleźć bardzo prostym sposobem. Choć czasem znalezienie rozwiązania łamigłówki może być pracochłonne, to stwierdzenie czy ma ona rozwiązanie wymaga jedynie policzenia odpowiednich punktów. Należy zwrócić uwagę na punkty zbiegu odcinków i policzyć te, w których zbiega się nieparzysta liczba odcinków. Są to punkty początku i końca prowadzenia rysunku. Jeśli ich liczb jest różna od 2, to łamigłówka nie ma rozwiązania. Zasada ta wyjaśnia czemu można jednym ruchem narysować kopertę otwartą, a zamkniętej już nie. Matematycznie dowiódł jej Leonhard Euler, pionier teorii grafów, rozważając zagadnienie mostów królewieckich82. Powyższy przykład to abstrakcyjne zastosowanie uogólnień topologii, a co z jej zastosowaniami praktycznymi? 2.2.7. u r z ą dz e n i a s T e rując e Z problemami przekształceń przestrzeni wraz ze zmianą wymiaru, użytkownik komputera styka się bezpośrednio dotykając urządzenia sterującego. W przypadku urządzeń w formie prostokąta sposób odwzorowania nie wymaga żadnych wyjaśnień. Ciekawe jest natomiast, jak odwzorowywana jest powierzchnia kuli na prostokąt monitora. Wyparcie z rynku myszy mechanicznych przez optyczne, nie oznacza wcale, że rozwiązanie to przechodzi do historii. Należy pamiętać o zwolennikach śledzonej kuli (eng. trackball), potocznie zwanej kotem, do których i ja się zaliczam. Ten manipulator kulkowy jest rozwiązaniem odwrotnym. Spoczywa nieruchomo, może być nawet zamocowany na stałe. Sterowanie odbywa się bezpośrednio przez obracanie kulki. Początkowo sądziłem, że popularność tradycyjnej myszy jest wynikiem jedynie względów ekonomicznych. Przypominam sobie jednak negatywne oceny użytkowników, które moim zdaniem wynikają z ich niedostatecznych zdolności manualnych. Myszka jest najmniej ergonomicznym ze wszystkich znanych mi urządzeń sterujących. Przy dłuższych dystansach kursora wymaga zamaszystego ruchu, na który może nie starczać miejsca na biurku. Oczywiście, można ten problem łatwo rozwiązać, unosząc i opuszczając mysz, ale kosztem przerwania ciągłości ruchu i obciążenia całej ręki aż po bark. Notoryczne stosowanie tradycyjnej myszy prowadzi do schorzenia zwanego zespołem myszy komputerowej.

81 http://pl.wikipedia.org/wiki/Topologia, 2009-04-06 82 http://pl.wikipedia.org/wiki/Leonhard_Euler, 2009-04-18

36

Kot jest zdecydowanie bardziej wygodny i ergonomiczny. Ręka może spoczywać nieruchomo; cały proces sterowania odbywa się jedynie przy użyciu palców, nie obciąża więc nawet nadgarstka. Poczyniłem tak obszerną dygresje, w trosce o zdrowie użytkowników urządzeń sterujących. Wracając do tematu — jak odwzorowana jest kula na prostokąt? Nic prostszego — wystarczy sprowadzić obwód prostokąta do punktu. Jeśli punkt ten nie należy do płaszczyzny, obwód prostokąta monitora stanowi granicę nie do przekroczenia. Natomiast jeśli należy, to płaszczyzna monitora nie ma granicy i w takim przypadku kursor po zniknięciu z lewej strony pojawia się z prawej, po zniknięciu u góry pojawia się na dole i odwrotnie. Napisałem o punkcie, a przecież obwód monitora jest prostokątem. Czy topologowie potrafią zaczarować prostokąt w punkt. Oczywiście: przecież prostokąt jednowymiarowy jest tożsamy z punktem. Rozwój teorii wymiaru, również zawdzięczamy badaniom topologicznym.
Ryc. V Przykładowe modele trackballi

źródło: opracowanie własne na podstawie fotografii reklamowych z internetu

37

2.3.

Struktury geometryczne

2. 3.1. s k r z y w i e n i a pro s T e j Klein wraz z Eugenio Beltrami miał udział w sformułowaniu na początku XIX wieku modeli geometrii Bolyai–Łobaczewskiego, które przyczyniły się do rozpowszechnienia wśród matematyków geometrii nieeuklidesowych83. Model Kleina przedstawia płaszczyznę hiperboliczną jako wnętrze koła, którego cięciwy są liniami. Został on zaadaptowany przez Poincarégo do stworzenia modelu, zwanego dziś dyskiem Poincarégo. W modelu tym liniami są łuki koła prostopadłego do granicy koła oraz średnicy okręgu84.Zasady geometrii hiperbolicznej posłużyły Esherowi przy konstrukcji grafik. Drzeworyty z cyklu Granica koła powstały w latach 1958 – 6085.
Ryc VI Mauritius C. Escher, Granica koła 1

Dysk Poincarégo może być modelem wszechświata rozszerzającego się w nieskończoność. Wszechświata otwartego, w którym krzywizna ≥ 0. źródło: M. C. Escher, Grafiki, Edipres Polska S..A., Warszawa 2005, © Cordon Art

83 http://pl.wikipedia.org/wiki/Elementy, 2009-02-12 84 http://pl.wikipedia.org/wiki/Geometria_hiperboliczna#Modele, 2009-03-30 85 M. C. Escher, Grafiki, Edipres Polska S..A., Warszawa 2005

38

Udowodnienie, że geometria euklidesowa nie jest jedyną możliwą, miało twórcze konsekwencje nie tylko w matematyce. Powstało pytanie o krzywiznę rzeczywistej przestrzeń fizycznej. Podjęto się badań, które w badanych skalach nie wykazały zakrzywienia przestrzeni. Eksperyment został zaproponowany przez Carla Gaussa i polegał na pomiarze kątów jak największego trójkąta86. Rozważania na temat prawdziwej geometrii mają swą analogię w historii architektury. Choć przez tysiące lat dominantą konstrukcyjną pozostają linie proste, co jakiś czas odradza się trend opozycyjny. Dychotomię pomiędzy linią prostą i krzywą w pełni obrazować może odróżnienie sztuki baroku od renesans. W wieku XX, wraz z radykalnym przyspieszeniem obiegu informacji sztuka rozwija się wieloliniowo. Najbardziej znaną apoteozą linii krzywej jest architektura Antonio Gaudi’ego. Styl jego nawiązuje do form organicznych. Charakterystyczne cechy budynków to płynne, faliste linie i nieregularne rzuty. Innym orędownikiem płynności linii był Friedensreich Hundertwasser znany ze swych proekologicznych akcji (sadzenie drzew, toalety humusowe, dzień ziemi). Wygłoszony w Seckau w 1958 roku Manifest pleśni wyrażał sprzeciw wobec racjonalizmu w architekturze i postulował konieczność odrzucenia linii prostej i symetrii. Największym projektem architektonicznym Hundertwassera była wioska w Blumau, we wschodniej Styrii. W projektach artysty bardzo ważną rolę pełniła obecność roślinności 87. Dewey zauważa, że „linie krzywe sprawiają wrażenie przyjemne, bo odpowiadają naturalnej skłonności oka do poruszania się”88. Naturalna płynność linii wspomnianych dzieł architektury i innych dzieł sztuki wiąże się najczęściej z biologicznymi inspiracjami artystów. Nie oznacza to bynajmniej, że biologiczne inspiracje muszą prowadzić do eliminacji linii prostych. Ghyka w księdze o liczbie Φ objaśnia, że złoty podział jest analogią harmonicznego wzrostu. Można na przykład zauważyć ten związek porównując spiralę logarytmiczną z budową muszli. I tak stosujący linie proste Le Corbusier korzystał z pitagorejskich zasad złotego podziału w planach architektonicznych89. Jest to bardziej racjonalna, choć mniej oczywista inspiracja biologią w architekturze.
Ryc VII Le Corbusier Taras Cité radieuse, Marsylia

źródło: http://temps.blog.lemonde.fr/files/2006/12/rr-le-corbusier.jpg

86 87 88 89

Wojciech Sady, Spór o racjonalność naukową, dz. cyt., s. 13 Karolina Szymańczak, Lekarz architektury, http://histmag.org/?id=762, 2009-04-14 John Dewey, Sztuka jako doświadczenie, dz. cyt., s. 122 Matila C. Ghyka, Złota Liczba, dz. cyt., s. 349

39

2. 3.2. pa r k i Eta r z Pokrycie płaszczyzny ściśle przylegającymi figurami nazywamy p a r k ie t a r z e m 90. Słowo to właściwie kojarzy się z parkietem, którego wykonanie jest praktycznym rozwiązaniem omawianego problemu. Moduły parkietarzu zwie się też czasem kafelkami. To następna analogia z technikami dekoracji wnętrz. Historia architektury przekonuje, że idea parkietarzu posiada wielowiekową tradycję zwłaszcza w kulturze Islamu. Teoria grup przekształceń (wspomniana przy okazji programu erlangeńskiego), pozwala usystematyzować i matematycznie opisać metody konstruowania kafelków bardziej skomplikowanych niż powszechnie stosowane równoległoboki. Wykonanie parkietarzu w geometrii hiperbolicznej wymaga większej sprawności posługiwania się narzędziami geometrycznymi. Sam Escher wykonał wiele prac eksplorujących ideę parkietarzu również w geometrii euklidesowej. Jest to zadanie o wiele prostsze. Znalazł on wielu naśladowców nie tylko wśród plastyków, ale również i ludzi komponujących parkietarze dla zabawy91. Od czasu rozpoczęcia niniejszego opracowania przekonany jestem, że problematyka parkietarzu zasługuje poświęcenia jej więcej uwagi. Sądzę, że uważniejsze przyjrzenie się temu zagadnieniu, rzuci więcej światła na związek estetyki z matematyką. Ponad to pragnę zaprezentować metodę parkietarzu z praktycznych względów przydatności jej w działaniach plastycznych. Zważywszy na charakter rozważań, które doprowadziły do tematu parkietarzu zdawać by się mogło, że jest to zadanie wymagające wyższej matematyki. W rzeczywistości jest ono dziecinnie proste. Na podstawie książeczki Wacława Zawadowskiego Mozaiki matematyczne można przeprowadzić lekcję parkietarzu nawet w nauczaniu początkowym. Metodą, którą promuje autor jest przekształcanie par boków równoległoboku. Przekształcenia te polegają na odcinaniu fragmentu figury i przyklejaniu go do skojarzonego boku92. Pamiętając, że homeomorfizmy są przekształceniami zachowującymi spójność figury, można zauważyć, że proponowane przekształcenia do metod topologii nie należą. Nie oznacza to bynajmniej niemożności tworzenia parkietarzy przy użyciu homeomorfizmów. Rozwiązania proponowane przez autora mozaik można osiągnąć zachowując spójność figury. W tym celu należy wyginać parę boków, w ten sposób, że wygięciu jednego na zewnątrz towarzyszy przeciwne wygięcie drugiego (czyli takie same wygięcie do wewnątrz). Figura przestaje więc posiadać cechę równoległoboczności, ale odpowiednie odcinki, które stanowiły parę skojarzonych boków (niekoniecznie tych równoległych) pozostają przystające. Przypominam, że znajdujemy się na etapie rozważań topologicznych, tak więc odcinki to nie koniecznie fragmenty prostej, ale każdy możliwy ciągły zbiór punktów dowolnej linii. W praktyce topologiczna metoda parkietarzu jest trudniejsza zarówno z kartką papieru, nożyczkami i klejem, jak i prostym programem graficznym. Nawet przy wykonywaniu kafelków z elastycznego materiału takiego jak glina, łatwiej będzie uzyskać przystające odcinki, jako brzegi figur powstałych przez cięcie. Formowanie homeomorficzne byłoby zdecydowanie bardziej uciążliwe.
90 Zobacz stronę anglojęzyczną, gdzie zgromadzona jest wiedza na temat wszystkich znanych rodzajów parkietarzu: http://mathworld.wolfram.com/topics/Tiling.html 91 zobacz: www.tessellations.org — strona anglojęzyczna prezentuje przykłady i metody parkietarzu 92 Wacław Zawadowski, Mozaiki matematyczne, Wydawnictwa Szkolne i Pedagogiczne, Warszawa 1989

40

Konstruują w celach demonstracyjnych mój przykładowy parkietarz odszedłem od metody autora mozaik matematycznych. Przykład mój będzie pełniej i w możliwie najprostszy sposób ilustrował problematykę parkietarzu.
Ryc. VIII Parkietarz Muminkiem w cylindrze

źródło: opracowanie własne

[0] Punktem wyjścia jest kwadrat o długości boku 2a. [1] Wycinam z niego fragment [2] Przenoszę o wektor (1a,-2a) [3] i [4] Powtarzam operacje [1] i [2] symetrycznie względem środka boku kwadratu wyjściowego do którego przykleiłem wcześniej odcięty fragment. [5] Takim Muminkiem w cylindrze można pokrywać płaszczyznę w nieskończoność. Mój kafelek posiada oś symetrii. Nie jest to w żadnym razie konieczny warunek. Z wykorzystania przy transformacji tej osi, wynika charakterystyczna dla tego parkietarzu struktura. Kolumny są tworzone z co drugiego rzędu.

41

Gdy wykreślić siatkę rozkładu kafelków (linie równoległe do górnego brzegu cylindra i jego boków), to linie pionowe rozkładają się dwa razy gęściej niż poziome, tworząc siatkę złożoną z połówki kwadratu. Przekątne tego prostokąta (ryc. VIII 2 zaznaczony przerywaną linią) odpowiadają wektorom, o które przesuwałem fragmenty przy konstrukcji kafelka, a jednocześnie te same wektory posłużą do przesunięć kafelka podczas parkietarzu. Sposób u k ładania kafel ków zawsze w y nika z z a st o s owa nych do k r e a cji k a fel k a t r a n sfor m a cji.

Ryc IX

Parkietarz Muminkiem w cylindrze — wariacje

źródło: opracowanie własne

42

Można oczywiście podobny układ z przesunięciem uzyskać na siatce, której punkty przecięcia będą tworzyły kwadraty. Jednakże wtedy figurą wyjściową będzie prostokąt o proporcji 2 : 1. (ryc. IX 1); chyba, że dopuścimy kolejną z możliwych przy projektowaniu kafelka transformacji — odbicie. Wtedy punktem wyjścia będą dwa kwadraty, a linie pionowe siatki znów będą dwukrotnie bardziej zagęszczone. Opisany powyżej problem wskazuje, że zaprojektowany kafelek nie utraci swych właściwości podczas rozciągania go lub odbijania. Tak samo jest i w przypadku obracania i pochylania (ryc. IX 2). Przedstawiony przeze mnie parkietarz można potraktować, jako ułożony z dwóch rodzajów kafelków: główki i cylindra. Daje to wyobrażenie o kolejnej właściwości regularnych parkietarzy. Każdy kafelek można pociąć na dowolną ilość modułów uzyskując w ten sposób parkietarz pozornie bardziej skomplikowany. Zasada działa również w drugą stronę — z kilku pasujących do siebie kafelków można utworzyć jeden (ryc. IX 3). W przedstawionym przypadku powstały dwa moduły. Ponad to zróżnicowałem odcień jednego z nich aby wyróżnić kierunek ukośny. Zabawa może nie mieć końca. Zainteresowanych odsyłam do źródeł internetowych wskazanych w przypisach na początku tego podrozdziału. Portal mathworld.wolfram.com dotyczy matematyki, wiedza zaprezentowana na tych stronach jest ścisła. Adres www.tessellations.org demonstruje parkietarz w sposób plastyczny i praktyczny, a wręcz hobbystyczny. Sądzę również (wspomniałem o takiej możliwości), że wprowadzenie parkietarzu na lekcjach plastyki w szkole podstawowej ma wielorakie walory praktyczne. Zadanie to rozwija wyobraźnie i zdolność analitycznego myślenia. Przeprowadzenie go nie wymaga od uczniów znajomości matematyki. Istnieją jednakże i takie sposoby parkietarzu nad którymi głowią się najtęższe umysły. Skomplikowanym problem są parkietarze nieokresowe. Roger Penrose podobnie, jak Poincaré dokonał dużego wkładu zarówno w topologię, jak i filozofię nauki. Znany jest z budzącej ożywione dyskusje kwantowej teorii świadomości. W tym miejscu jednakże zajmę się problemem słynnego parkietarzu, którego jest twórcą. Pa rk iet a r z n ie ok r e sow y to taki, który pokrywa płaszczyznę przy pomocy zamkniętego zestawu kafelków, w taki sposób, że w żadnym miejscu nie będzie ona jednakowa (w przeciwieństwie do przedstawionych już parkietarzy okresowych). Udowodnienie, że takie nieokresowe pokrycie płaszczyzny jest możliwe było dużym wyzwaniem. W roku 1966 Robert Berger stworzył pierwszą taką strukturę przy użyciu 20 426 różnych kafelków! Teoretyczne prace Bergera i profesora logiki Hao Wanga dowodzą, że nie może istnieć algorytm tworzenia tego typu struktury93. Później Berger zredukował liczbę kafelków niezbędnych do nieokresowego pokrycia płaszczyzny do 104, zaś w roku 1971 Rafael Robinson zmniejszył ją do 6”94. Roger Penrose zdołał w 1974 roku skonstruować parkietarz nieokresowy przy użyciu dwóch płytek. W 1981 roku wynaleziono uniwersalny kształt kafelka, którym można pokryć płaszczyznę zarówno okresowo, jak i nieokresowo. Jak na razie nie wiadomo, czy może istnieć kształt pojedynczego kafelka wyłącznie do parkietarzu nieokresowego95.
93 Bogdan Miś, Matematyka w toalecie, Wiedza i Życie nr 9/2001, http://archiwum.wiz.pl/2001/01093200.asp, 2009-04-14 94 Tamże, wówczas 95 Tamże, wówczas

43

Czy takie piękne struktury to tylko łamigłówki przynoszące sławę wybitnie twórczym matematykom, czy też mogą mieć jakieś praktyczne zastosowanie? Oczywiście mogą. Firma Kimberly–Clark zastosowała na produkowanym papierze toaletowym parkietarz Penrosa. Wytłoczony na papierze wzór nieokresowy ma tę właściwość, że przy zwijaniu rolki w żadnym miejscu tłoczenia nie pokryją się, a więc potrzeba mniej materiału do produkcji rolki określonej średnicy. Ten ekonomiczny chwyt nie wyszedł firmie na dobre, gdyż użyła wzoru bez zezwolenia autora, a wzór ten był opatentowany. Firma zobligowana decyzją sądu musiała wypłacić Penrosowi rekompensatę96. Żyjący sto lat temu Poincaré i współcześnie Penrose przysłużyli się swym geniuszem rozwojowi geometrii. Oboje są również filozofami, a łączy ich nie tylko to, że mają nazwisko na literę P. Wspólne jest dla nich zainteresowanie procesami poznawczymi. Choć konwencjonalizm różni się od kwantowej teorii świadomości, z obu tych teorii można wnioskować ostrzeżenie. U Poincaré przed interpretacją czasoprzestrzeni w stylu einsteinowskim. Być może historyjka o zależności upływu czasu od prędkości poruszania okaże się największym mitem XX wieku97. Memetyczna nośność tego wyobrażenia, może być efektem ludzkiego marzenia o podróżach w czasie, o zatrzymaniu lub choćby spowolnieniu upływu czasu; marzenia analogicznego do ceny, za którą Faust sprzedał duszę diabłu. Ze względu na charyzmatyczną osobowość Albert Einstein stał się ikoną popkultury98. Jego twórczość naukowa podobnie, jak artystyczna twórczość Andy Warhola może być postrzegana, jako kpina z naiwności odbiorców. Penrose ostrzega z kolei przed interpretacją maszyny Turinga99, jako zdolnej do samoświadomości, czyli utożsamiania wszystkich procesów świadomości z operacjami obliczeniowymi. Absurdalność idei świadomej maszyny można udowodnić zastosowawszy wyłącznie semiotyczną analizę. Działanie mechaniczne jest antynomią działania świadomego. Jeśli teoria odpowiada naszym marzeniom, nie znaczy to, że marzenia uda się dzięki niej zrealizować. Znaczy to raczej, że nasze oczekiwania warunkują interpretację. Interpretacja zaczyna się tam, gdzie kończy się percepcja. Kuhn, podobnie jak późniejszy Wittgenstein, twierdzi nawet, że przyjęte paradygmaty kształtują nie interpretację danych zmysłowych, ale sam sposób widzenia100. 2. 3. 3. k rys Ta l o g r a f i a Zdarza się, iż dostrzeżenie w przyrodzie regularności znanych z teorii matematycznych, może w istotny sposób przyczynić się do rozwoju nauki. Dowodem na to jest krystalografia. Wykształciła się na styku chemii i fizyki, na skutek badań nad fascynującymi własnościami wielu ciał fizycznych zwanych kryształami. Nie jest to więc dziedzina matematyki, ale sposób w jaki stosuje narzędzia matematyczne jest doskonałym przykładem wykorzystania odpowiedniej struktury abstrakcyjnej do uporządkowania obserwacji rzeczywistych obiektów.
96 Tamże, wówczas 97 Zobacz: Janusz B. Kępka, Dziwny jest ten świat — Alberta Einsteina przekręty, http://www.aferyprawa.com/index2.php?p=teksty/pokaz&id=2307, 2009-05-08 98 „ Po p i s m u s ic fo r s h e e p … ” — L a ib ac h, Volk , M ute R e c ords Limite d, 2006 99 Zobacz podrozdział: Ograniczenia logiki dwuwartościowej 100 Wojciech Sady, Spór o racjonalność naukową, dz. cyt., s. 164

44

Istotną, a wręcz podstawową rolę w krystalografii odgrywa pojęcie symetrii. Znane dobrze z teorii sztuki, już od czasów Starożytnej Grecji. W czasach starożytnych pojęcie to było rozumiane szerzej niż dziś w zastosowaniu zarówno matematycznym, jak i potocznym. Oznaczało współmierność, proporcjonalność, równomierność rozkładu101. W tym sensie gwint śruby również ma symetrię. Pojęcie to, w tym szerszym znaczeniu, obejmuje nie tylko obiekty posiadające właściwości przestrzenne, ale i inne jak: twierdzenia matematyczne, utwory muzyczne i literackie, a nawet równowagę psychiczną. Powtarzalność i regularność poszczególnych części obiektu niesie ze sobą wartości estetyczne, wywołując przyjemne wrażenia. Dlatego też chętnie wykorzystywana jest przez artystów, a niektóre teorie estetyczne głównie odnosząc się do architektury głosiły, że jest niezbędnym warunkiem dobrego projektu. Upowszechnienie zastosowania pojęcia symetrii w odniesieniu do dzieł plastycznych zawęziło jego powszechne rozumienie do symetrii zwierciadlanej i obrotowej. W tym uściślonym znaczeniu symetria również często odnajdywana jest w przyrodzie. Zwierciadlana symetria jest cechą wszystkich zwierząt (jamochłony o symetrii obrotowej wywodzą się prawdopodobnie od zwierząt o symetrii dwubocznej102). Dążenie w kierunku bodźca pożądanego wyznacza wektor, równolegle do którego kształtują się kanały wymiany materii i informacji. Schemat ten okazuje się funkcjonalnym warunkiem zdolności do poruszania. Powtarza się więc od robaków do ludzi: z przodu pobieranie, z tyłu wydalanie, to najprostsze rozwiązanie. Pobieranie nie tyczy się tylko pokarmu, ale również informacji, dlatego wyspecjalizowane receptory wykształciły się na strzałce wektora. W procesie ewolucji początkowo jednakie segmenty środkowe specjalizują się; wykształcają się między innymi kończyny. Dlaczego tylko para? Po co więcej? U wspomnianych jamochłonów, których życie w fazie bezpłciowej jest statyczne, oraz w królestwie roślin, przeważa symetria obrotowa. Bardzo często występuje jej odmiana pentagonalna. Jest to interesujące ze względu na niemożność wykorzystani jej do konstrukcji sieci przestrzennej. Można przypuszczać, jak N. W. Biełow, że pięciokrotna oś symetrii u drobnych organizmów została naturalnie wyselekcjonowana, na skutek jej wartości obronnej przed skamienieniem — krystalizacją, której pierwszym etapem jest zawiązywanie sieci przestrzennych103. Nauka badając symetrię w naturze uogólniła pojęcie figury. Bada nie tyle właściwości figur geometrycznych, co figur materialnych. „Każda nowa własność odróżniająca figurę (bryłę) materialną od odpowiedniej figury geometrycznej charakteryzuje pewną własność fizyczną. Wprowadzenie do nauki o symetrii figur materialnych było wynikiem przede wszystkim potrzeb krystalografii. Największe zasługi w tym względzie ma A. W. Szubnikow”104. Postęp w krystalografii dokonał się przez opracowanie systematyki elementów symetrii w sposób ścisły i funkcjonalny.

101 102 103 104

Anatolij S. Sonin, O krystalografii, Państwowe Wydawnictwo Naukowe, Warszawa 1982, s. 34 http://www.biolog.pl/article24.html, 2009-04-15 Anatolij S. Sonin, O krystalografii, dz. cyt., s. 38 – 39 Tamże, s. 42 – 43

45

Anatolij S. Sonin przytacza wypowiedź wybitnego rosyjskiego krystalografa J. W. Wulfa: „Rozum poszukuje przede wszystkim prostoty i jednolitości. Tylko te dwie cechy działają nań uspokajająco i wywołują uczucie satysfakcji z poszukiwania prawdy. Jeśli nie udało nam się znaleźć najprostszej postaci wyrażenia prawdy, to znaczy, że jeszcze do samej prawdy nie udało nam się dotrzeć. Z drugiej strony jeśli prawdę można wyrazić różnymi sposobami, to tylko wtedy będziemy odczuwać zadowolenie, gdy ustalimy między tymi sposobami zależności i wybierzemy najprostszy”105. Wulf zasłużył się koncepcją systematyki elementów symetrii, w której podstawowym wyróżnikiem była płaszczyzna. Dowodząc, że pojęcia środka symetrii nie sposób wyprowadzić z pojęcia osi symetrii, a z niej płaszczyzny, uznał płaszczyznę symetrii za element bardziej podstawowy niż inne. Z przecięcia dwóch płaszczyzn symetrii powstaje oś symetrii, a z przecięcia trzech płaszczyzn środek symetrii. Teoria ta miała znaczenie metodologiczne i wywarła wpływ na jego uczniów. Nie przyjęła się jednak, ze względu na komplikację przy rozważaniu bardziej złożonych kryształów106. Dla wielu artystów krystalografia była ważną inspiracją twórczości plastycznej. Regularne rozkłady sieci krystalicznych to atrakcyjny plastycznie temat. Prace wspomnianego już Eschera, lub struktury José María Yturralde, to tylko niektóre z przykładów. 2. 3.4. t E n s o ry Nazwa pochodzi od łacińskiego słowa tensus, co znaczy napięty. Tensor jest pojęciem bardziej ogólnym niż wektor (pojęcie wektora znane powinno być czytelnikom z matematyki w szkole podstawowej, definicję wektora przypomniałem w przypisach do podrozdziału Uogólnienia pojęcia przestrzeni). Pojęcie to bardzo użyteczne było w fizyce klasycznej do określenia kierunku i zwrotu, w którym porusza się badany obiekt, lub w którym działa opisywana siła. Wektory są zawsze obiektami dwu–wymiarowymi, niezależnie od tego w ilu wymiarowej przestrzeni są zaczepione, stanowią przeto jedynie szczególny typ spośród wielu możliwych tensorów, które mogą być obiektami o dowolnej liczbie wymiarów. Do krystalografii fizycznej tensory wprowadził Woldemar Voigt107. Są one użytecznym narzędziem opisu anizotropowych108 własności kryształów. Jeszcze prostszym przypadkiem tensora, niż wektor, jest skalar. Do jego określenia wystarczy jedna liczba rzeczywista109. Wielkościami skalarnymi są masa, temperatura, energia, gęstość, długość, pole, objętość. Prawidło więc kojarzy się z sąsiednią etymologicznie skalą, bo właśnie służy do jej określania.
105 106 107 108 Tamże, s. 48 – 49 Tamże, s. 49 – 50 Tamże, s. 162 – 163 A n i z o t r o p i a — wykazywanie przez ciała krystaliczne różnych właściwości właściwości fizycznych w różnych kierunkach. podaje za: Słownik wyrazów obcych, dz. cyt., s. 35 109 Mały słownik matematyczny, dz. cyt. s. 264

46

Wielkości tensorowe reprezentuje się zwykle jako macierze kwadratowe110. Stopień macierzy określa rząd tensora. Wielkość skalarna to tensor rzędu zerowego — posiada tylko jedną składową; wektor jest tensorem rzędu pierwszego i posiada w przestrzeni trójwymiarowej trzy składowe. Rozważane są także tensory wyższych rzędów, a także takie o niecałkowitym (ułamkowym) rzędzie111. Te ostatnie, zwane spinorami, charakteryzują się bardziej złożonymi własnościami tansformacyjnymi. „Spinory pojawiają się w fizyce, w szczególności w mechanice kwantowej, np. funkcje falowe cząstek o ułamkowym spinie jak elektron lub inne fermiony, są opisywane właśnie za pomocą spinorów”112. W latach 60–tych Penrose stworzył teorię twistorów. Obiekty te służą do uzgodnienia przestrzeni Minkowskiego (trzy wymiary + czas, jako czwarty) z przestrzenią czterowymiarową z metryką (2,2)113 .
Ryc. X Odwzorowanie geodetyki zerowej twistora

źródło: http://universe-review.ca/I15-56-congruence.jpg

Takie zakręcone idee na pewno wzbudzić mogą inspiracje wśród artystów. Jeden z amerykańskich twórców muzyki, który określa swój styl mianem Quantum Illbient Breakz (Kwantowe Choropodkładowe Połamańce), lub Hip–Hop LI wieku nazwał się Twistor 114. Tego typu geometryczne obiekty, wyrażające przepływ energii pomiędzy wymiarami, mogą być użyteczne również w magicznych medytacjach. Wizualizacji sfer czterowymiarowych i tym podobnych, jako sposobu przekraczania granic swego umysłu uczy Michaił Lwowicz Pieriepielicyn. Opisuje, jak wyobrazić sobie dupleks–sferę115. „Topologia matematyczna rozwiązała problem o trójwymiarowym cięciu czterowymiarowej sfery i znalazła optymalny wyraz, który w naszym trójwymiarowym świecie opisuje ciało, mające kształt objętościowej kardioidy” 116.
110 M a c i e r z k w a d r a t o w a — Macierz, która ma tyle samo wierszy, co kolumn, czyli m = n; ich liczba określana przez stopień macierzy. podaje za: http://pl.wikipedia.org/wiki/Macierz#Podstawowe_pojęcia, 2009-04-20 111 http://pl.wikipedia.org/wiki/Tensor#Rząd_tensora, 2009-04-20 112 http://pl.wikipedia.org/wiki/Spinor#Zastosowania, 2009-04-20 113 http://en.wikipedia.org/wiki/Twistor_theory, 2009-04-20 114 http://www.myspace.com/twistor, 2009-04-20 115 Michaił Lwowicz Pieriepielicyn, Przestrzenne postrzeganie Świata, Orion, Warszawa 1997 116 Valerij Kratohvil, Jasnowidzenie. Od magów starożytności do programów kosmicznych NASA, http://almanach-litera.aine.pl/pl/kratohvil_walerij/jasnowidzenie.html, 2009-04-23 K a r d i o i d a — krzywa opisywana przez ustalony punkt okręgu toczącego się bez poślizgu po zewnętrzu innego nieruchomego okręgu o tej samej średnicy. podaje za: http://pl.wikipedia.org/wiki/Kardioida, 2009-04-23

47

Profesor Gendij Siergiejew, doktor nauk technicznych z Sankt–Petersburga w roku 1975 badał efekt oscylacyjny kondensatora, mającego kształt objętościowej kardioidy. „Wewnętrzna powierzchnia tego kondensatora była pokryta substancją ciekłokrystaliczną o nieliniowych cechach dielektrycznych117. Objętościowy czujnik podłączyliśmy do elektroencefalografu. Urządzenie rejestrujące wyraźnie odnotowało sygnały impulsowe o charakterze szeregu impulsów, bardzo podobnych do kardiogramu. W taki sposób został stworzony elektryczny model serca. (…) Więc, staje się zrozumiałym ten fakt, że nasze serce jest odbiornikiem sygnałów powstających w przestrzeni wielowymiarowej”118. Obecność człowieka w pobliżu czujnika objętościowego wywoływała przyspieszenie oscylacji impulsów. Valerij Kratohvil nazywa objętościową kardioidę rezonatorem holograficznego119 typu, który jest nastawiony na promieniowanie, powstające w świecie czterowymiarowym. W ten sposób stara się w swojej teorii jasnowidzenia skonstruować dowód naukowy odbioru emocji sercem. 2. 3. 5. g ł a d ko ś ć k r z y w e j W latach 60–tych we francuskich koncernach samochodowych rozpoczęto pracę nad użyteczną przy projektowaniu formą opisu geometrycznego. Efektem tych wysiłków jest narzędzie o wielkim potencjale. Narzędzie, z którym pracujący przy komputerze projektant, grafik, inżynier, styka się dzisiaj na codzień — K r z y w a B é z i e r a — jest współcześnie standardowym elementem, interfejsu użytkownika każdego programu oferującego możliwość edycji grafiki wektorowej. Każdy kto musiał opisać w dwu–, lub trójwymiarowym układzie współrzędnych obiekty nie składające się z samych prostych, docenił zapewne genialność wynalazku Béziera. Jest to doskonałe narzędzie pozwalające w bezpośredni i intuicyjny sposób kształtować dowolne krzywe. Wasyl Kandynsky podzielił formy powstałe z linii na dwa rodzaje: • p r o st e — linie powstałe w wyniku działania jednej siły; • powstałe w wyniku dwóch sił działających: • naprzemiennie — ła m a ne, • równocześnie — ł u k i 120. Rozważania jego dotyczyły płaszczyzny, czyli przestrzeni dwuwymiarowej. Proponuję uogólnieni tej klasyfikacji na przestrzeń o dowolnej liczbie wymiarów. Formy linearne w przestrzeni n–wymiarowej powstają w wyniku działania n sił: • równoważnie i równocześnie — p r o st e, • naprzemiennie — ła m a ne, • równocześnie — krzywe121.
117 D i e l e k t r y k — substancja lub materiał, w którym występuje niska koncentracja ładunków swobodnych w wyniku czego bardzo słabo przewodzony jest prąd elektryczny. podaje za: http://pl.wikipedia.org/wiki/Dielektryk 118 Gendij Siergiejew, Etiudy wielowymiarowego świata podaje za: Valerij Kratohvil, Jasnowidzenie, dz. cyt. 119 H o l o g r a f i a — dział optyki zajmujący się technikami uzyskiwania obrazów przestrzennych metodą rekonstrukcji fali, czyli odtworzeniem w pewnym obszarze przestrzeni zarówno jej kierunku ruchu, amplitudy, częstotliwości jak i fazy. podaje za: http://pl.wikipedia.org/wiki/Holografia, 2009-04-23 120 Wasyl Kandynsky, Punkt i linia, a płaszczyzna, Państwowy Instytut Wydawniczy, Warszawa 1986, s. 55 121 Prostą można traktować, jak w geometrii, jako szczególny przypadek krzywej o krzywiźnie zerowej, dlatego nie ma potrzeby dodawać, że siły kształtujące krzywą działają nierównoważnie.

48

Idea Krzywej Béziera (KB) dotyczy tylko ostatniego przypadku, który jest najtrudniejszy do cyfrowego opisania. Rozważając ją pozostaję jedynie w przestrzeni dwuwymiarowej. Przypomnę, że podstawowe dwa kierunki, poziom i pion oznaczone są w kartezjańskim układzie współrzędnych osiami x i y.
Ryc. XI Elipsy ■ — uchwyty, czyli punkty kontrolne

— węzły, czyli punkty zakotwiczenia

źródło: opracowanie własne

Nie ma potrzeby kształtować KB tak prostej figury, jak koło którą wykonuje się specjalnym narzędziem — elipsa. Jednakże, jest ona dobrym przykładem, by wstępnie przedstawić ideę działania KB. Na rycinie XI pokazuję, że do opisania koła potrzebne są cztery węzły ( ). Przeprowadziwszy proste przez pary węzłów ( ) możemy otrzymać tylko dwa wyniki: • proste będą prostopadłe, gdy połączymy leżące na tej samej średnicy; • proste będą równoległe, gdy sparujemy , które można połączyć cięciwą, krótszą od leżącej na wielkiej osi symetrii elipsy; Takie będą wyniki przeprowadzenia prostych przez pary węzłów każdej elipsy. Nie ma znaczenia, że proste prostopadłe w przykładzie na rycinie, będą odpowiadać poziomowi i pionowi. Jest to sytuacja domyślna, zorientowana na najprostszy rozkład względem osi x i y. Ten banalny z matematycznego punktu widzenia opis, unaocznia na przykładzie najprostszej dwuwymiarowej krzywej zamkniętej, jak powstaje ona w wyniku działania dwóch sił. Jednakże same nie są wystarczające do zdefiniowania kształtu, gdyż oznaczają jedynie miejsce zaczepienia KB, a nie określają jej krzywizny, za którą odpowiedzialne są uchwyty (■ ■). Każdy z węzłów posiada dwa uchwyty (ryc. XI: ■— —■ ) i to one właśnie określają krzywiznę. Powracając do metafory Kandynskiego, można zauważyć różnicę sił kształtujących koło i inną elipsę. W przypadku koła siła poziomu i pionu jest zrównoważona, a w przypadku innej elipsy nie. Większe oddalenie ■ ■ od wskazuje na większą siłę modyfikującą KB. Jeśli krzywizna dąży do 0 ■ ■ zbliżają się do krzywej. W przypadku zbędnego ■ ■ też będą leżeć na tej prostej. leżącego na prostej jego

49

Wzajemna zależność ■ ■ danego jest wyróżnikiem, jego przynależności do jednego z trzech typów . Typologię przedstawia rycina XII.
Ryc. XII Typologia węzłów Krzywej Béziera

Sy me t r ycz ne — spełniają dwa warunki: • uchwyty leża na jednej prostej po dwóch stronach węzła, • są równo oddalone od węzła; G ł a d k ie — spełniają jeden z warunków: • uchwyty leża na jednej prostej po dwóch stronach węzła, O st r e — nie muszą spełniać żadnego z powyższych warunków
źródło: opracowanie własne

Prezentowana forma serca opisana jest przy pomocy sześciu , po dwa każdego typu. Węzły ostre leżą na osi symetrii. Pragnę zwrócić uwagę na górny ostry, powstały na styku dwóch ćwierć–okręgów. Stanowi on szczególny przypadek, w którym ■ ■ leżą w tym samym miejscu. Wracając do zbędnych ; przy tworzeniu obiektów wektorowych warto zwracać na nie uwagę. Każdy to zapisana cyfrowo informacja; każdy zbędny to zbędna informacja. W informatyce natomiast zbędna informacja to strata czasoprzestrzeni. Klarowny jest wspomniany przypadek z ■ ■ leżącymi na modyfikowanej KB, która w tym wypadku przyjmuje postać linni prostej. Wiadomo co z nim zrobić — usunąć. Istnieją narzędzia do automatycznej redukcji ilości węzłów KB. Należy jednakże uważać na nie, jak na każdą sztuczną ignorancję, gdyż narzędzia takie mogą w niepożądany sposób zmniejszyć precyzję wykreślonego obiektu. Istnieją też , których gordyjski charakter nie jest tak oczywisty. Doświadczenie uczy, że w sytuacji gdy nie wiadomo jak ustawić ■ ■ by uzyskać pożądany efekt, najlepiej usunąć i ewentualnie dodać nowy, jeśli zachodzi potrzeba. jest zawsze gładka tak, jak funkcja jest gładka, gdy pochodne wszystkich KB pomiędzy 122 rzędów są ciągłe . O gładkości w plastyce więcej wywnioskujemy, skupiając się na doświadczeniu codziennym, miast na przytoczonej definicji. Ziemniak jest gładki przed obraniem, a po obraniu już nie. Kto nie widzi między nimi różnicy nie powinien dotykać KB. W postrzeganiu gładkości oko można wyćwiczyć obserwując, a lepiej jeszcze naśladując na przykład rysunkiem, formy biologiczne. Jeśli ludzkie ciało wydaje się tematem zbyt trudnym, to zapewne dlatego, że jest nam tak bliskie czyli znajome, że niewielkie nawet deformacje jawią się, jako nieestetyczne. Jeśli to kogoś zniechęca, prostsze są muszle i rośliny ponieważ niezachowanie w rysunku ich proporcji nie wywołuje nieprzyjemnego odczucia, gdyż zwykle pozostaje niezauważone.
122 http://pl.wikipedia.org/wiki/Regularność_funkcji, 2009-04-28

50

2. 3.6. m aT e m aT y k a wo b e c c H ao s u Prawdopodobnie Benoît Mandelbrot nie był pierwszym, który dostrzegł porządek tam gdzie większość widział tylko nieład. Jednakże jemu to pierwszemu udało się uogólnić matematyczny opis chaosu. Można powiedzieć, że poszerzył on znacznie granice świadomości porządku, poddając analizie matematycznej obiekty, które dotąd, były uznawane za nieuporządkowane. Od tej pory naukowcy skłonni są pojmować chaos, jako porządek bardziej skomplikowany i podejmować intelektualne wyprawy ku granicom złożoności. Mandelbrot urodził się w Warszawie w 1924 roku. W roku 1936 rodzina Mandelbrot wyprowadziła się do Paryża, gdy wybuchła wojna do Clermont–Ferrand. W 1944 wrócili do Paryża, gdzie w 1947 Benoît ukończył politechnikę. Wyjechał dokształcić się w USA. W Princeton studiował pod okiem von Neumanna. W 1955 wrócił do Francji i ożenił się. Zamieszkał z rodziną w Genewie, gdzie wykładał i uczestniczył w seminariach psychologicznych Jeana Piageta. Zaproszony przez Paul’a Lévy, został mistrzem konferencji analizy matematycznej na uniwersytecie w Lille123. Od roku 1958 pracował dla IBM. Wspomina, że chciał tam popracować tymczasowo, a wbrew jego planom, praca ta przerodziła się w dłuższą przygodę124. Mandelbrot musiał być niezmiernie zadowolony, że w laboratoriach IBM, miał dostęp do najnowocześniejszych komputerów i wykorzystał je z dużym pożytkiem dla ludzkości. W laboratoriach tych badał między innymi przeszkadzające w pracy modemów sporadyczne szumy na liniach telefonicznych, których przyczyny trudne były do zidentyfikowania. Mandelbrot zaczął szukać w chaotycznym rozkładzie szumów i sygnałów oznak samopodobieństwa. Zadał sobie pytanie: czy tak samo jak czas trwania dobrego odbioru przerywany jest zakłóceniami, czas trwania zakłóceń przerywany jest prawidłowym odbiorem? Rozumowanie to okazało się właściwą drogą — mniejsze fragmenty wiernie odpowiadały większym125. Cecha podobieństwa części do całości jest jednym z charakterystycznych wyróżników funkcji fraktalnej, i właśnie ta cecha pozwala uchwycić porządek form o złożonej organizacji126. Określenie fraktal wprowadził Manelbrot na oznaczenie geometrycznych tworów, których badaniu się poświęcił. Obiektami, które zaliczamy dziś do fraktali zajmowali się już wcześniej: Georg Cantor, Giuseppe Peano, Wacław Sierpiński i Paul Lévy. Kierunek poszukiwań wytyczony był badaniami niewiele starszych matematyków, z których pracy Mandelbrot skorzystał. Byli to Pierre Fatou i Gaston Julia, którzy analizowali iteracje pewnych funkcji zespolonych127, czyli takich w których występują liczby zespolone128, oraz specjalista w zakresie analizy funkcjonalnej, geometrii i teorii prawdopodobieństwa Paul Pierre Lévy129. Ścisła definicja fraktali wciąż jest na etapie konstrukcji i obecnie funkcjonuje jedynie lista atrybutów fraktala. Obiekt zostaje zakwalifikowany do fraktali, gdy posiada większość tych atrybutów130.
123 124 125 126 127 128 http://www.bookrags.com/biography/benoit-b-mandelbrot/, 2009-05-12 Tamże, wówczas Douglas Rushkoff, Cyberia. Życie w okopach hiperprzestrzeni, Wydawnictwo Okultura, Warszawa 2008, s. 37 Tamże, s. 36 http://pl.wikipedia.org/wiki/Benoît_Mandelbrot, 2009-05-12 Liczby zespolone — pary uporządkowane liczb rzeczywistych traktowane jako nowe liczby podaje za: Mały słownik matematyczny, dz. cyt. s. 148. 129 http://pl.wikipedia.org/wiki/Paul_Lévy, 2009-05-12 130 http://pl.wikipedia.org/wiki/Fraktal, 2009-05-13

51

Równania opisujące fraktale to funkcje rekurencyjne. Znaczy to, że wynik danego równania jest wprowadzany do tego równania. Tak więc stopnie iteracji wyznaczają etapy konstrukcji krzywej fraktalnej. W sztuce podobny zabieg określony został pod koniec lat 70–tych przez Nico Scheepmakera mianem efektu Droste. Nazwa wzięła się od marki holenderskiego producenta czekolady do picia, której opakowanie efekt ten wykorzystywało. Najłatwiej skojarzyć efekt ten z widokiem, jaki powstaje przy umieszczeniu dwóch luster naprzeciw siebie. Jest on również często wykorzystywany w twórczości multimedialnej, gdy filmowany jest monitor pokazujący obraz z tej filmującej go kamery131.
Ryc. XIII

Łacińskie fractus znaczy podzielony, ułamkowy.

Nazwa taka odnosi się do innego wyróżnika fraktali — wymiar oznaczony liczbą, nie należącą do zbioru liczb naturalnych132.

źródło: http://upload.wikimedia.org/wikipedia/ commons/b/b0/Fractal_Sentinel_SterlingW3165.jpg

Artystyczne zastosowanie fraktali jest bardzo szerokie. Najprostszym z nich jest tylko użycie wzoru fraktalnego, jako atrakcyjnego deseniu w tle plakatu. Na wykorzystaniu funkcji fraktalnych opiera się różnego rodzaju oprogramowanie graficzne. Fraktale służą do generowania naturalistycznych krajobrazów, faktur i tekstur, co staje się bardzo przydatne przy tworzeniu filmów komputerowych,133 w których przedstawiona fantastyczna wizja powinna być jak najbardziej sugestywna. Węgierski biolog Aristid Lindenmayer opracował reguły formalnej gramatyki służącej do tworzenia graficznych tworów o fraktalnej budowie. System zwany dziś L–systemem jest doskonałym narzędziem do tworzenia iluzorycznych, graficznych modeli roślin134. Korzystanie z dobrodziejstw matematyki chaosu stanowi jeden z wyróżników społeczeństwa trzeciej fali135. Fraktale znalazły liczne zastosowania w analizach pogody i gospodarki, a nawet historii136. Poszukiwania bardzo dziwnego atraktora krzywych indeksów giełdowych trwają. Jeśli okaże się, że dynamikę tych procesów poddać można skutecznie prognostycznym obliczeniom i odkrycie to zostałoby spopularyzowane, doprowadziłoby to na pewno do przejścia fazowego w jakości numisfery.
131 http://pl.wikipedia.org/wiki/Efekt_Droste, 2009-05-13 132 Dominik Szczerba, Fraktalne oblicze Natury, w Wiedza i Życie, nr 10/1996 http://archiwum.wiz.pl/1996/96101900.asp, 2009-05-13 133 Dominik Szczerba, Fraktalne oblicze Natury, dz. cyt. 134 http://en.wikipedia.org/wiki/Aristid_Lindenmayer i http://pl.wikipedia.org/wiki/L-system, 2009-05-13 135 Tr z e c i a f a l a — termin wprowadzony do socjologii przez Alvina Tofflera na określenie etapu rozwoju ludzkości, związanego z ekspansją technologii komunikacayjnych, rozwojem sektora usług, odejściem od produkcji masowej. podaje za: http://pl.wikipedia.org/wiki/Alvin_Toffler, 2009-06-04 136 Douglas Rushkoff, Cyberia, dz. cyt., s. 37

52

2.4.

Uogólnienia pojęcia liczby

2.4.1. T e o r i a m n o g o ś c i Analogiczny proces zwiększania stopnia ogólności podstawowych pojęć zachodził obok geometrii również i w arytmetyce. Kluczowym pojęciem w tym dziale matematyki są liczby. Pierwszą próbę sprecyzowania znaczenia pojęcia liczby stanowi teoria mnogości137. Za jej twórcę uważany jest Georga Ferdinand Ludwig Philipp Cantor. Teoria ta jako podstawowe pojęcie przyjmowała zbiory. Rozwinął ją włoch Giusepe Peano. Jego dzieło Formulario mathematico, nad którym pracował w latach 1892 – 1932, miało stanowić kompendium zawierające wszystkie znane twierdzenia wszelkich działów matematyki. Aksjomaty arytmetyki Peano traktują pojęcie liczby jako pierwotne, pozostaje więc ono niezdefiniowane138. Mankament ten postanowił usunąć Fredrich Gottlob Frege, który zdołał wyrazić działania na zbiorach za pomocą pojęć przeniesionych z logiki. Dlatego też uważany jest za twórcę logiki matematycznej. Jego ambicją, której wyrazem jest dzieło Fundamentalne prawa arytmetyki, było skonstruowanie doskonale logicznego systemu, ujmującego matematykę w ścisłe ramy sformalizowanego myślenia. System swój oparł Frege na definicji liczb jako nazw określonych rodzajów zbiorów. By nadać tej definicji ścisłości wprowadził pojęcie ekstensji139 własności. Ekstencja oznacza zbiór zawierający wszystkie zbiory mające daną własność. Przykładowo: liczba 4, pojęta jako ekstencja własności, oznacza zbiór wszystkich zbiorów czteroelementowych. Tuż przed wydaniem wspomnianego dzieła Frege’go, wartość aksjomatów jego systemu podważył Berand Russell. Matematyk ten wykazał sprzeczność do jakiej prowadzi ekstensja własności nie należeć do siebie samego. Sprzeczność ta zwana antynomią Russella w literaturze popularno–naukowej ilustrowana jest zdaniem: fryzjer w pewnym mieście strzyże wsz ys t k ich , którzy nie strzygą się sami. Kto strzyże tego fryzjera140? Uważając by nie popełnić błędu, który przytrafił się Frege’mu, Russell wraz z Alfredem North Whiteheadem kontynuował starania redukcji matematyki do logiki. Ich koncepcja przedstawiona w Principi mathematica opierała się na rozgałęzionej teorii typów — systemie logicznym, który obecnie stosowany jest częściej przez informatyków, niż matematyków.

137 Te o r i a m n o g o ś c i — dział matematyki zajmujący się badaniem ogólnych właściwości zbiorów, bez względu na istotę elementów, z których zbiory te się składają. podaje za: Mały słownik matematyczny, dz. cyt. s. 287 138 Peter Atkins Palec Galileusza, Dom Wydawniczy Rebis, Poznań 2006, s. 390 - 391 139 E k st e n sj a — <łacińskie extensio = rozszerzenie, rozciągnięcie> w logice: abstrakcyjna klasa przedmiotów o których daną nazwę (w danym jej znaczeniu) można prawdziwie orzec; zakres; denotacja nazwy. podaje za: Słownik wyrazów obcych, dz. cyt., s. 180 140 Peter Atkins Palec Galileusza, dz. cyt., s. 392 - 394

53

W teorii tej zbiór określonego typu może zawierać jedynie zbiory niższego typu. Ważny jest także sposób zdefiniowania rozpatrywanego indywiduum. Ponad to teoria wymagała dodania aksjomatu nieskończoności, czyli zdania postulującego jej istnienie. Mimo to autorzy Principi mathematica nie zdołali uniknąć losu swego poprzednika. Również i w tej teorii odnaleziono sprzeczność do dziś nie rozwiązaną, którą jest aksjomat wyboru ściśle związany z niemożnością przeprowadzenia operacji logicznych na zbiorach nieskończonych 141. 2.4.2. s i f r vo n n e u m a n n a Na zakończenie przestawionych powyżej dwudziestowiecznych zmagań z próbą uogólnienia definicji liczb, z wykorzystaniem pojęcia zbioru, zaprezentuję jeszcze rozwiązanie jednego z dwóch ojców maszyny liczącej — Johna von Neumanna. Nie tylko posiada ono wielkie znaczenie dla rozwoju matematyki, ale na domiar tego jest ciekawe, a nawet dowcipne. Neumann kontynuował ideę Frege’go by kolejne liczby były definiowane jako zbiory mniejszych zbiorów. W tym ujęciu sprawa staje się prosta po pokonaniu poważnej początkowej bariery jaką jest zdefiniowanie zera i jedynki. Problem ten może rzucać światło na pogląd matematyków starożytnej Grecji, którzy to zera i jedynki za liczby nie uznawali. Neumann zdefiniował zero jako zbiór pusty, a jedynkę jako zbiór zawierający zbiór pusty142. Symbolicznie można tę definicję przedstawić w następujący sposób: 0={Ø} 1={{Ø}} 2={{Ø},{{Ø}}} 3={{Ø},{{Ø}},{{Ø},{{Ø}}}} 4={{Ø},{{Ø}},{{Ø},{{Ø}}},{{Ø},{{Ø}},{{Ø},{{Ø}}}}} I tak dalej — każda następna liczba to zbiór zawierający wszystkie poprzednie.
Ryc. XIV Zbiór pusty, jako podstawa nieskończonego ciągu kolejnych zbiorów

źródło: Opracowanie własne

Hołdując cenionej w dzisiejszych czasach tendencji do obrazowania wszelkich idei przy pomocy geometrycznych diagramów, przedstawiam wizualizację powyższego zapisu arytmetycznego w formie plastycznej. Zero przedstawione jest jako najmniejszy, pojedynczy okrąg.

141 Tamże, s. 396 142 Tamże, s. 415

54

Definicja liczb Neumanna jest uderzająco prosta, a brzemienna w skutki. Całe, nieskończone uniwersum powstaje w niej ex nihilo. Koncepcja ta może stanowić logiczną podporę dla naukowców proponujących, popularny w ostatnim czasie, model kosmologiczny. Mam na myśli tych, opisujący w kategoriach matematyczno–fizycznych, proces przejścia niebytu w byt; inaczej mówiąc wyłonienie się kosmosu z pustki. Prezentacja idei wyprowadzania wszystkich liczb z zera, jest odpowiednią okazją, do objaśnienia etymologii słowa cyfra. Do języka łacińskiego przywędrowało ono wraz z notacją arabską, o której będzie jeszcze mowa, gdy zajmę się symbolami matematycznymi. Arabskie sif r znaczy ze ro. Z pochodnych temu słowu wyrazów, w języku polskim najbliższy brzmieniowo jest s z y f r 143. 2.4. 3. s u kc e s y n a r z ę dz i m aT e m aT yc z n yc H Traktowanie pojęcia zbioru jako podstawowego; posługiwanie się nim przy definiowaniu innych pojęć jest istotą teorii mnogości. Klasy równoważności stosunku równoważności, klasy abstrakcji, pojęcia (nie tylko tzw. abstrakcyjne, bo wszystkie pojęcia są wynikiem procesu definicji przez abstrakcję), to wszystko różne nazwy zbiorów zależne od przyjętej terminologii. Teoria mnogości okazała się niezwykle płodna w metodologii nauki. W problematyce struktury teorii empirycznych predykat teoriomnogościowy odegrał istotną rolę umożliwiając spełnienie postulatu monizmu metodologicznego. W 1971 roku Sneed pozycją The Logical Structure of Mathematical Physics, zapoczątkowuję strukturalną metodologię nauki. Ujęcie to korzysta z teorii mnogości w niesformalizowany, intuicyjny sposób. Bardziej sformalizowane jest podejście fizyka niemieckiego G. Ludwiga, który korzysta z teorii mnogości w precyzyjny sposób wzorowanych na matematycznych koncepcjach Bourbakistów. Koncepcja ta wymaga wykazania, jak skonstruowane są pojęcia badanej teorii przy pomocy operacji na zbiorach obiektów stanowiących jej podstawę. W teoriach empirycznych podstawowy zbiór obiektów związany jest z badaną dziedziną rzeczywistości. Pojęcia tworzą hierarchiczną strukturę; im wyższy jej poziom tym bardziej abstrakcyjne obiekty się bada144. Warto zwrócić uwagę, jak ścisły jest związek pomiędzy pojęciem zbioru, a abstrakcyjnym myśleniem. Zbiór jest jednocześnie narzędziem tego myślenia jak i doskonałym przedstawicielem abstrakcyjnego pojęcia. Utworzenie zbioru polega na wyróżnieniu własności przypisywanej wielu różnym obiektom. Własność wyróżniona stanowi wspólny mianownik dla wszystkich elementów zbioru. Grupując te elementy, stwarza on nową całość i wraz z nią nową jakość. Przy czym własność należy rozumieć szeroko, nie tylko jako cechę. Dlatego też tak abstrakcyjne pojęcie znajduje szerokie zastosowanie praktyczne. Teoria mnogości wyposażyła psychologów badających procesy poznawcze w ściśle zdefiniowane pojęcie zbioru i zasady operacji na zbiorach. Umożliwiło to zastosowanie narzędzi matematycznych do analizy procesów myślenia.

143 Słownik wyrazów obcych, dz. cyt., s. 737 144 Michał Tempczyk, Redukcjonizm jako centralne zagadnienienie formalnej filozofii nauki, w Studia Filozoficzne, nr 11 – 12, 1985, Państwowe Wydawnictwo Naukowe, s. 195

55

Analiza i inne operacje na symbolach pozwalają sięgać tam, gdzie nie sięgają ludzkie zmysły, czy nawet wyrafinowane przyrządy pomiarowe. Pozwalają badać pewne rzeczy na wyrost, gdy brak jest materiału empirycznego. Wtedy do akcji wkracza matematyka, dla której rozwoju wystarczający jest świat czystych idei. Spekulacje stają się nowym narzędziem. Przeprowadzane doświadczenia oderwane zostają od materialnego świata, stając się doświadczeniami racjonalnymi, a nie empirycznymi. Sukcesy wynikające z zastosowania narzędzi matematycznych rozbudzają optymizm poznawczy wśród uczonych. Wiara w możliwość doświadczalnego poznania rzeczywistości, jest niezbędną motywacją do podjęcia prac badawczych. Jednak trudność w procesie opisu zjawisk przyrodniczych na coraz bardziej podstawowym poziomie, zwracają uwagę na pewną ograniczoność abstrakcyjnych narzędzi badawczych. Z faktu tego wynika przekonanie, że niezależnie od jakości używanego do opisu języka, opis pozostaje tylko pewnym przybliżeniem rzeczywistości. Ściślej: każde z ustalonych praw można stosować do elementów zbioru zjawisk, których ono dotyczy. Problemem stanowiącym wyzwanie stają się odkrycia przypadków zjawisk, nie mieszczących się w zbiorze opisywanym trafnie przez posiadaną już teorię. Dlatego wciąż wielkim marzeniem, mobilizującym wysiłki badaczy i teoretyków, pozostaje stworzenie teorii o największym z możliwych stopniu ogólności.
Ryc. XV ATLAS

Detektor w akcelatorze zderzającym hadrony w ośrodku CERN pod Genewą, przekonuje jak wielkie jest to marzenie.

źródło: http://irfu.cea.fr/Images/astImg/2274_1.jpg

Część

III

3. Jęz yk matemat yki

57

…istnieją trzy rzeczy, co do których nie możemy mieć nadziei, że osiągniemy je kiedykolwiek w naszym rozumowaniu, a mianowicie: absolutna pewność, absolutna dokładność i absolutna uniwersalność. Charles Sanders Peirce

Tematem niniejszego rozdziału będą przymioty języka matematyki, z których wyróżniłem dwa najistotniejsze moim zdaniem: symbolizm i formalizm. Wywód ten zwróci się w kierunku problematyki kognitywistycznej, ponieważ uważam, że nie można rozpatrywać struktur języka, bez ich związku ze strukturami poznawczymi. Postaram się pokazać jak, wraz z rozwojem semiotyki i informatyki, coraz powszechniejsze staje się przekonanie, że to tylko język określa zakres poznawczych możliwości narzędzi nauki. 3.1. p o z n a n i E m at E m at yc z n E Profesor Heller uważa, że matematyka jest zdolna w pełni opisać obiektywną rzeczywistość. Podkreśla jej wyższość nad językiem opisowym, wskazując na możliwość ujęcia w języku symboli matematycznych treści niewyrażalnych przy pomocy słów145. Wyraża wdzięczność wobec Stwórcy za dar, którym jest matematyka, mogąca zastępować do pewnego stopnia zmysły w obszarach badawczych niedostępnym zmysłom146. Jego filozoficzne stanowisko cechuje się optymizmem poznawczym wyrosłym na gruncie idei Platona, iż świat materialny jest odbiciem idealnego. Badając owo odbicie nie wszyscy idealiści są tak pełni optymizmu. Profesor neurologii Hoimar von Ditfurth, którego literatura popularno–naukowa rozpowszechnia idealistyczny punkt widzenia, niejednokrotnie podkreśla ograniczoność ludzkiego spojrzenia na świat. Nazwał on człowieka istotą niegotową 147 . Wśród materialistów przejawy optymizmu poznawczego bazują na zgoła odmiennym gruncie. Kazimierz Ochocki analizuje związek nauk przyrodniczych z filozofią z punktu widzenia materializmu dialektycznego. Materializm kładzie nacisk na istnienie bytu obiektywnego. Oddziałuje on na zmysły i co za tym idzie jest poznawalny148. Tam, gdzie nie sięgają zmysły, oddziałują ze sobą również obiektywne układy fizyczne. Jednakże również i w takiej filozofii dominuje przekonanie o ograniczeniach języka, które czynią nawet najściślejszy opis przybliżonym odwzorowaniem obiektywnej rzeczywistości149.
145 146 147 148 149 Michał Heller, Początek jest wszędzie, dz. cyt., s. 119 Tamże, s. 174 Hoimar von Ditfurth, Duch nie spadł z nieba, Państwowy Instytut Wydawniczy, Warszawa 1989, s. 388 Kazimierz Ochocki, Spory o pojęcie materii, Wiedza Powszechna, Warszawa 1979, s. 133 Tamże, s. 150 - 151

58

Wymienieni naukowcy podzielają pogląd, że pomimo dysponowania tak skutecznym narzędziem, jakim jest myślenie abstrakcyjne (którego pięknym przejawem jest język matematyki), nie jesteśmy w stanie całkiem obiektywnie przedstawiać prawdy. 3.2. p o d s Taw y p o z n a n i a m aT e m aT y k i Podstawy matematyki ufundowane bywają w trojaki sposób: intuicjonistycznie (Brouwer), logistycznie (Frege, Russell), oraz formalistycznie (Hilbert, Neumann). „Formalistyczne, a więc nie tylko sformalizowane badania podstaw matematyki różnią od obu pozostałych przede wszystkim dwie cechy. Po pierwsze, mają one charakter immanentny, po to więc, aby podbudować matematykę jako taką, nie trzeba przenosić ani jej repertuaru, ani jej metodologii i tematyzacji na płaszczyznę innej dyscypliny. Badania matematyczno–kombinatoryczne zachowują w samej swej istocie naturę matematyczną. Po wtóre, w konsekwencji owej abstrakcji konstruktywno–kombinatorycznej, na którą kładzie nacisk Neumann w swoim królewieckim programie formalistycznego ufundowania podstaw matematyki z 1932 roku, widać wyraźnie do jakiego stopnia budowa pojęć matematycznych wywodzi się z semiotyki” 150. Procesy logiczne można ująć, jako procesy semiotyczne, nie można natomiast ująć procesów semiotycznych jako logiczne151. Wynika z tego, że semiotyka jest bardziej ogólna i uniwersalna, niż którakolwiek logika. Metamatematyka wiąże się z problemami głębszymi niż logiczne: ontologicznymi, kategorialnymi, modalnymi152. Badania podstaw matematyki wymagają operatywnego sposobu odróżniania tematyki znaku od tematyki przedmiotu153. System klas znaków i semiotycznych tematyk realności Bense’a jest narzędziem umożliwiającym przeprowadzenie tego zadania. 3. 3. z na k i m at E m at yc z n E Peirce rozpoczynając manuskrypt o podstawach matematyki, kładzie nacisk na rolę znaku w słowach: „Matematyka w istocie dotyczy znaków. Cała nasza wiedza, czyli całe nasze myślenie, dokonuje się w znakach i sama wiedza nasza jest znakiem”154. Żaden z matematyków nie może obejść się, bez narysowanych formuł przedstawiających geometryczne figury i napisanych figur reprezentujących arytmetyczne znaki155. Przedstawienie przy pomocy takich znaków graficznych dowodu twierdzenia, wymaga rygorystycznego przestrzegania określonych zasad. Jest to konieczny warunek, by treść tekstu była dla wszystkich matematyków odczytana w jednakowy sposób. „W systemach sformalizowanych definicja znaku polega na przepisach obowiązujących w odniesieniu do użycia znaków”156. Ścisłość tych przepisów odpowiedzialna jest za skuteczność języka matematyki w jej analitycznej eksploracji świata abstrakcji.
150 151 152 153 154 Max Bense, Świat przez pryzmat znaku, dz. cyt., s. 147 Tamże, s. 158 Tamże, s. 157 Max Bense, Świat przez pryzmat znaku, dz. cyt., s. 159 Charles S. Peirce, /rkps 7, 1903/, zbiory Houghton Library, podaje za: Max Bense, Świat przez pryzmat znaku, dz. cyt., s. 48 155 David Hilbert, Mathemathishe Probleme, Paryż, 1900, podaje za: Max Bense, Świat przez pryzmat znaku, dz. cyt., s. 151, 156 Magdalena Aebi, Die Stellung von Gonseths „Offener Philosophie” im Ganzen der Philosophia Perennis, w Dialectica, nr 54/55, tom 14, 2/3, 1960 podaje za: Max Bense, Świat przez pryzmat znaku, dz. cyt., s. 154,

59

Symbolika znaków matematycznych musi być przeto ściśle sformalizowana, aby treść pozostawała niezależna od miejsca i czasu. Różne charaktery pisma odręcznego, jak i znormalizowanego powodują nieznaczne różnice graficznej formy znaków, które również nie powinny mieć żadnego wpływu na sposób odczytania ich znaczenia. Dopiero spełnienie tych warunków czyni symboliczny język odpowiednim nośnikiem idei matematyki. Jedynie ściśle zdefiniowane znaki wraz z zasadami ich łączenia mogą być odpowiednim narzędziem unaocznienia teorii matematycznych. 3.4. f o r m a l i z m w Ta r a paTac H Formalizm polega na wyprowadzaniu wniosków w oparciu o aksjomaty przy użyciu rachunku logicznego zdań. W klasycznym rachunku zdań przyjmuje się, że każdemu zdaniu można przypisać tylko jedną z dwóch wartości logicznych — prawdę lub fałsz (symbolicznie oznaczane jako 1 i 0). Jest to więc rachunek dwuwartościowy. Istotą klasycznego rachunku zdań są przekształcenia, które zachowują przypisane im wartości logiczne. W myśl tej zasady, rezultatem przekształcenia zdania prawdziwego będzie również zdanie prawdziwe. Formalizm był priorytetem wybitnego niemieckiego matematyka Davida Hilberta, który zasłynął swoim wykładem na temat przyszłości matematyki w XX wieku, wygłoszonym w roku 1900 na Międzynarodowym Kongresie Matematyków. Na pierwszym miejscu postawił Hilbert problem udowodnienia hipotezy kontinuum. Na drugim miejscu listy znalazł się równie ważny postulat — sformalizowania języka matematyki tak, by była ona wolna od sprzeczności. Dążenie, aby jednoznaczne było co jest dowodem twierdzenia, a co nim nie jest, które zdanie jest prawdziwe, a które fałszywe, związane jest ściśle z formalistyczną koncepcją matematyki157. Na przeszkodzie temu dążeniu, już na początku lat 30–tych XX wieku, stanęło jedno z najbardziej znanych praw logiki matematycznej. Sformułował je światowej sławy austriacki matematyk Kurt Gödel. Głosi ono, że dowolny system formalny zawierający w sobie aksjomaty arytmetyki liczb naturalnych, jest albo zupełny, albo niesprzeczny i nigdy nie posiada obu tych cech jednocześnie158. Jest to najistotniejsze twierdzenie limitacyjne, czyli określające granice możliwości teorii aksjomatycznych. Dowodem tego twierdzenia jest skonstruowane przez Gödla zdanie prawdziwe, którego nie da się dowieść w arytmetyce liczb naturalnych. Prawo Gödla wprowadza więc rozróżnienie pomiędzy prawdziwością zdania, a możliwością jego udowodnienia. W praktyce Gödel stawia naukowców przed istotnym wyborem. Stosując narzędzia matematyczne mają oni dwie możliwości: sformułowania systemu zupełnego lub niesprzecznego. Z reguły większym autorytetem cieszą się systemy pozbawione sprzeczności. Naukowcom bowiem łatwiej zaakceptować istnienie w ramach teorii problemów otwartych. Problemy te wyznaczają kierunek dalszych uogólnień. Tolerowanie sprzeczności w sformalizowanym systemie zupełnym wyposaża jej przeciwników w skuteczną broń. Z punktu widzenia klasycznej logiki, udowodnienie istnienia zdania sprzecznego, wywiedzionego z aksjomatów danej teorii, równoznaczne jest ze sfalsyfikowaniem takiej teorii.
157 Witold Sadowki, Femme Fatale, dz. cyt., s. 84 - 86 158 http://pl.wikipedia.org/wiki/Twierdzenie_Gödla, 2009-02-05

60

Z drugiej jednak strony trudno wyobrazić sobie, jak wyglądałby świat, w którym zrezygnowano z badań w ramach systemów sprzecznych–zupełnych. Są one bowiem podstawą programowania komputerów, maszyn liczących, które stanowią nowe potężne narzędzie nauki i sztuki. System komputerowy jest obliczeniowym systemem sformalizowanym. Jest zupełny i jako, taki zawiera w sobie sprzeczności. Z problematyką tej sytuacji, a więc konsekwencją limitacyjnego prawa Gödla wielu z nas styka się na co dzień. Dlatego przytoczę przykład z życia wzięty, który zobrazuje omawianą teorię. Oto komunikat (najpopularniejszego, a jednocześnie chyba najmniej stabilnego) systemu operacyjnego — Microsoft Windows: „x moż e nie być wymagany przez y” jest równoznaczny z: „x moż e być wymagany przez y”. Przeciętny użytkownik systemu nie wie czym jest x, ani jakie y ma brać pod uwagę. Jednak w sytuacji, gdy system nie jest w stanie rozwiązać problemu odpowiedzialność za ewentualne jego uszkodzenie danych przenoszona jest na użytkownika. Przytoczony przykład z konieczności odnosi się do sytuacji użytkownika komputera, gdyż w rzeczywistości w tej sytuacji najczęściej stykamy się na co dzień z prawami logiki dwuwartościowej. Gdy klasyczna logika ma do czynienia z takim zdaniem, którego prawdziwości nie sposób udowodnić w zupełnym systemie opartym na aksjomatach liczb naturalnych, stosuje wybieg zwany indukcją pozaskończoną. W celu osiągnięcia formalnej spójności systemu niższego rzędu, trzeba zastosować system wyższego rzędu (czyli zawierający w sobie cały system niższego rzędu), aby dowieść prawdziwości takiego zdania. Jeśli jednak system wyższego rzędu pozbawiony będzie sprzeczności, to (zgodnie z prawem Gödla) będzie zawierał nieudowadnialne zdanie prawdziwe. System wyższego rzędu (uzupełniający ten niższego rzędu) pozostaje więc niezupełny, bez rozszerzenia go o kolejny, nadrzędny system. Skutkiem stosowania takiej metody, będzie niekończący się rozrost aparatu badawczego. 3. 5. o g r a n ic z e n i a l o g i k i dw u wa rT o ś c i ow e j Powrócę teraz do listy postulatów Hilberta, na której to wyrażona została potrzeba stwierdzenia, czy istnieje algorytmiczna procedura pozwalająca na dowodzenie dowolnych twierdzeń, wyrażonych w języku symbolicznym, za pomocą aksjomatów tego języka i reguł wnioskowania159. Problemem tym zajęli się: amerykański logik Alonzo Church, który opracował w tym celu rachunek λ (lambda), oraz brytyjski deszyfrant Alan Turing, który wymyślił logiczną maszynę liczącą, nazywaną dzisiaj, od jego nazwiska, maszyną Turinga, w skrócie anglojęzycznym TM. Obaj naukowcy przyczynili się nadzwyczajnie dla rozwoju techniki, o czym mowa będzie w następny podrozdziale. Oczywiście TM nie była pierwszą maszyną liczącą. Historia tego typu urządzeń sięga równie daleko, jak początki samej arytmetyki. W materiałach z konferencji dotyczącej informatyki w szkole (Lublin 1997) Maciej Sysło streszcza tę historię następująco: „(…) abakusy oraz później konstruowane liczydła są przeznaczone do wykonywania czterech podstawowych działań arytmetycznych, pierwsze arytmometry czy kalkulatory (np. zbudowane przez B. Pascala i G. W. Leibniza) można również stosować jedynie do podstawowych działań arytmetycznych
159 Peter Atkins Palec Galileusza, Dz. cyt., s. 403

61

— Pascal zbudował swoją Pascalinę, by pomagała jego ojcu, poborcy podatkowemu. Pierwsza konstrukcja Charlesa Babbage’a, maszyna różnicowa, była także zaprojektowana do wykonywania jedynie obliczeń według schematów różnicowych, a jej głównym przeznaczeniem było sporządzanie tablic matematycznych, wtedy, tj. na początku XIX wieku, tak bardzo potrzebnych w nawigacji i w obserwacjach astronomicznych”160. Wszystkie te wymienione eksponaty muzeum technik rachunkowych, były ograniczone swoim przystosowaniem do konkretnych, specjalistycznych zastosowań. TM ma tę zdecydowaną wyższość nad swymi poprzedniczkami, że przy wykorzystaniu algebry bulowskiej161 jest w stanie wykonać wszel k ie działania rachunkowe. Maszyna ta wykonując przekształcenia logiczne korzysta z ograniczonego systemu symboli, oraz programu zdefiniowanego algorytmami. Pracuje więc w systemie zupełnym, a wprowadzane dane odczytywane są zawsze chronologicznie — jedna jednostka informacji w jednym odstępie czasu. Opierając się na limitacyjnym twierdzeniu Gödla wiemy, że w systemie takim występować będą zdania sprzeczne. Co stanie się, gdy postawiony maszynie problem należy do tych nie posiadających rozwiązania? Obliczając rozwiązanie zdania nierostrzygalnego TM nie będzie mogła zakończyć pracy nigdy. Z repertuaru środków, którymi dysponuje, nie jest w stanie sformułować dowodu takiego zdania, ani dowodu jego zaprzeczenia162. W konsekwencji tego problemu stajemy znów w obliczu formalistycznych postulatów Hilberta. Dziesiąty z nich sprowadza się do pytania, czy istnieje algorytm, który dla dowolnego równania wielomianowego wielu zmiennych o współczynnikach będących liczbami całkowitymi znajduje rozwiązanie w zbiorze liczb całkowitych, w skończonej liczbie kroków 163? Czyż kolejna odpowiedź negatywna może nas zaskoczyć? Niemożliwość zdefiniowania algorytmu pozwalającego stwierdzić, czy takie równanie ma rozwiązanie, udowodnił w 1970 roku Jurij Matijasewicz164. Analizując przedstawione prawa logiki, wykazać można, że wbrew potocznemu przekonaniu, ko m pu t e r b ł ę d ów n ie p o p e ł n ia . Nie je s t d o t ego z d ol ny. Może natomiast nie być zdolny do rozwiązania problemu. Wyrażenie komputer zawiesił się, też nie jest adekwatne do sytuacji, w której to najczęściej maszyna właśnie najciężej pracuje, wykorzystując całą swoją moc obliczeniową. Zgodnie z twierdzeniem Matijasewicz trudno ocenić, a często jest to wprost niemożliwe, czy komputer skończy liczyć na przykład za tydzień, czy nie skończyłby póki by działał. Zakłócenia w zapisie danych, które możnaby nazwać błędami mogą być spowodowane mechanicznym uszkodzeniem struktur ich przechowywania (np.: dysków). Uszkodzenia te mogą być porostu wynikiem zużycia sprzętu, bądź też innych zewnętrznych przyczyn fizykalnych (np.: wilgocią, wysoką temperaturą). Nie są więc to błędy maszyny liczącej, tylko potknięcia spowodowane złymi warunkami.

160 161 162 163 164

Maciej M. Sysło, Algorytmy, s. 4, http://www.wsipnet.pl/dane/pliki/kluby/8//Algorytmy.pdf, 2009-02-28 Pojęcie wyjaśnione w rozdziale — Zastosowanie logik dwuwartościowej Witold Sadowki, Femme Fatale, dz. cyt., s. 101 Maciej M. Sysło, Algorytmy, dz. cyt., s. 5 Witold Sadowki, Femme Fatale, dz. cyt., s. 102

62

3.6. z a s T o s owa n i e l o g i k i dw u wa rT o ś c i ow e j Pomimo omówionych ograniczeń logika klasyczna jest narzędziem, wielce użytecznym. Dzięki rozwojowi koncepcji mechanicznego udowadniania twierdzeń dysponujemy dziś maszynami liczącymi, które znalazły zastosowanie niemal we wszystkich formach działalności. Logika dwuwartościowa jest podstawą zarówno hardware’u, jak i software’u. W budowie fizycznej układów magazynujących i przetwarzających informacje wykorzystywany jest kod binarny. Obecnie kodem tym nie posługują się nawet informatycy programujący w językach najniższego poziomu. Wartością logicznym 1 i 0 odpowiadają ładunki elektryczne + i -, których nie jesteśmy w stanie dostrzec gołym okiem. Jednak w czasach przed pojawieniem się układów elektronicznych, mechaniczne maszyny liczące programowane były taśmą, na której wartościami binarnymi była dziurka i brak dziurki. Obraz takiej taśmy unaocznia nam wyraźnie, że urządzenia elektroniczne, których protoplastami były mechaniczne maszyny liczące, są fizycznym urzeczywistnieniem idei Turinga. Ideą, która stworzyła podstawy takim konstrukcją elektronicznym, była algebra bulowska, sformułowana właśnie w celu mechanicznego dowodzenia twierdzeń. Jest to algebra dwuwartościowa, której opisem zajmował się już w połowie XIX wieku G. Bool. Wartości bulowskie można bezpośrednio traktować jako cyfry dwójkowe i dlatego znalazły one zastosowanie w konstrukcji automatów liczących i sieci przełączających. W urządzeniach elektronicznych wartości kodu binarnego reprezentowane są stanami przewodzenia i nie przewodzenia sygnałów przez jednostkę operacyjną165. Dla symbolicznej nadbudowy, która pozwala nam na użytkowanie maszyn liczących logika dwuwartościowa jest również punktem wyjścia. Algorytmy układane w myśl jej zasad są podstawą komunikatów formułowanych w językach komputerowych. Pozwalają nam programować komputery, tak by były ściśle zależne od ustalonych zasad postępowania. W programowaniu komputerów zastosowanie znalazł stworzony przez Churcha, przy okazji rozwoju teorii obliczeń, rachunek λ. Zadaniu programowania komputerów przyjrzę się jeszcze dokładniej, z humanistycznego punktu widzenia, w rozdziale poświęconym pracy w środowisku cyfrowym w czwartej części pracy. 3.7. l o g i k i a lT e r n aT y w n e Antidotum na zaistniałe w teorii mnogości paradoksy, (patrz rozdział: Uogólnienia pojęcia liczby), oraz ograniczenia logiki dwuwartościowej, stanowić może jedynie zmiana paradygmatu rachunku zdań. Poza logiką dwuwartościową istnieją też logiki wielowartościowe. Stanowią one rodzaj rachunku zdań, w którym przyjmuje się więcej niż dwie wartości logiczne. Najprostszą z nich będzie więc logika trójwartościowa. System taki wyłożył w latach 20–tych XX wieku polski logik i filozof Jan Łukasiewicz. Określił on możliwość jako trzecią, obok prawdy i fałszu, wartość logiczną166. Był to pierwszy nieklasyczny rachunek zdań. Ten wybitny polski filozof zasłużył sobie na nazwanie planetoidy 27114 swoim nazwiskiem167;
165 Mały słownik matematyczny, dz. cyt., Warszawa 1974, s. 12 166 http://pl.wikipedia.org/wiki/Logika_wielowartościowa, 2009-02-26 167 http://pl.wikipedia.org/wiki/27114_Lukasiewicz, 2009-04-02

63

nie tylko stworzeniem podstaw logiki wielowartościowej, ale także opracowaniem not a cji p ol sk iej, która pozwala na rezygnację ze znaków nawiasów168, co okazało się bardzo przydatne w informatyce. Istotna dla metamatematyki jest też logika modalna, w której wartościami są możliwość, konieczność i ich warianty169. Pozwala ona badanie pojęć modalnych. Odnosząc się do tych wartości, logika epistemiczna bada prawdziwość i możliwość pojęć z zakresu wiedzy i przekonań170. W potocznym doświadczeniu nie kfalifikujemy wszystkich zdań jedynie, jako prawdę lub fałsz. Powszechne są warianty konieczności (wierzę, wiem, jestem przekonany…) i możliwości (zakładam, sądzę, wątpię…). Szkoła intuicjonistów reprezentuje jedną z najpopularniejszych, a mających zarazem wielu zagorzałych przeciwników, alternatywę dla logiki klasycznej. Sam Kurt Gödel w 1932 zaproponował system logiki pośredniej — umiejscowionej pomiędzy klasyczną, a intuicjonistyczną. Nie mógł on zgodzić się z wykorzystaniem logiki o nieskończonej liczbie wartości, a taką jest logika intuicjonistyczna171. 3. 8. L o g i k a i n t u ic j o n i s t yc z n a Do filozofii matematyki koncepcję intuicjonizmu wprowadził Luitzen Egbertus Jan Brouwer172. Opiera się on na kantowskiej idei sądów apriorycznych. Odrzucił on aprioryczność pojęcia przestrzeni, co wynika prawdopodobnie z faktu, że głównym przedmiotem jego badań matematycznych była topologia. Podtrzymywał natomiast pogląd o aprioryczności pojęcia czasu. I na tej podstawie udowadnia, że pojęcie liczby jest również wynikiem wrodzonych struktur umysłu ludzkiego. Obiekty matematyczne zalicza Brouwer do konstrukcji myślowych związanych ściśle ze sposobem postrzegania przez nas czasu. Liczby naturalne są wynikiem wyodrębnienia elementów zbioru, spostrzeganych jako jednostki rozdzielne w czasie. Z założenia, żadnego apriorycznego pojęcia, nie można rozwijać przez definiowanie go przy pomocy innych pojęć. W tym ujęciu liczby naturalne są więc wynikiem intuicyjnego wyczucia i stąd nazwa kierunku — i n t u ic jo n i z m 173. Rezygnacja z definiowania pojęcia liczb może zostać uznana za schowanie głowy w piasek. Przynajmniej z punktu widzenia, który kantowską koncepcję idei apriorycznych uważa za drugą, obok determinizmu w myśl Leibniza, barierę dla rozwoju intelektualnego ludzkości174. Nie należy jednak podejrzewać intuicjonistów o nadmierne lenistwo, gdyż krytyka poglądów swych poprzedników jaką stworzyli, miała wybitnie twórczy charakter. Poza zanegowaniem możliwości opisania liczb przy pomocy pojęć bardziej podstawowych, intuicjoniści odrzucając istotne elementy metodologii logiki klasycznej.
168 http://pl.wikipedia.org/wiki/Jan_Łukasiewicz, 2009-04-02 169 http://pl.wikipedia.org/wiki/Logika_modalna, 2009-04-22 170 Rafał Palczewski, Reprezentacja logiczna wiedzy i przekonania. Podstawowe problemy logiki epistemicznej, s. 1 http://www.kognitywistyka.net/artykuly/rp-rlwippple.pdf, 2009-04-22 171 http://pl.wikipedia.org/wiki/Logika_wielowartościowa, 2009-02-26 172 Peter Atkins Palec Galileusza, Dz. cyt., s. 398 173 Tamże, s. 399 174 Pogląd taki wyraża Friedrich Nietzshe w Zmierzch bożyszcz, podaje za: Tadeusz Gadacz, Historia Filozofii XX wieku nurty, tom 1, Znak, Kraków 2009, s. 81

64

W logice intuicjonistycznej wartościami, które określa rachunek zdań nie jest prawda i fałsz, lecz u z a s a d n ie n ie, bądź jego brak. Negują więc oni metody takie jak: • Sposób dowodzenia przez redukcję do absurdu, który polega na udowodnieniu fałszywości zdania poprzez wyprowadzenie dwóch zdań sprzecznych na podstawie logicznych przekształceń pierwszego zdania. • Prawo wyłącznego środka, które stwierdza, że zdanie jest prawdziwe lub fałszywe i nie dopuszcza żadnej innej możliwości. Natomiast intuicjoniści akceptują istnienie zdań nierozstrzygalnych lub niemożliwych do udowodnienia.175. 3.9. L o g i k a ro z m y ta Inną ciekawą alternatywę dla logiki klasycznej stanowi logika rozmyta. Jako pierwszy przedstawił ją Lotfi Zadeha w 1965 roku. Jest ona formalizacją niepewności. Odnosi się do obiektów, wobec których pewne określenia stosują się tylko w pewnym stopniu. Pomiędzy stanem 0 (fałsz), a stanem 1 (prawda) rozciąga się szereg wartości pośrednich, określających stopień przynależności elementu do zbioru176. Metody logiki rozmytej wraz z algorytmami ewolucyjnymi i sieciami neuronowymi stanowią nowoczesne narzędzia do budowy systemów zdolnych do uogólniania wiedzy177. W powiązaniu z metodami statystycznymi i rachunkiem prawdopodobieństwa znajdują one szerokie zastosowanie wszędzie tam, gdzie analizowane są zjawiska o wysokim stopniu złożoności. Po pierwsze w budowie systemów sterujących w czasie rzeczywistym, które spełniać muszą wymaganie jak najszybszego rachunku z wykorzystaniem danych w formie parametrów przybliżonych. Po drugie w programowaniu systemów eksperckich służących między innymi formułowaniu prognoz ekonomicznych, meteorologicznych. Zjawiska takie są opisane przez obszerne, a niekompletne bazy danych, a ilość możliwych rozwiązań uniemożliwia analizę, według zasad logiki dwuwartościowej, w skończonym czasie. Ponad to omijane są dzięki temu ograniczenia logiki klasycznej — nieskutecznej w obliczu niejednoznaczności i sprzeczności. 3.10. p o l e m i k a z p o j ę c i e m l ic z b b rou w e r a W tym miejscu pragnę w obrazowy sposób przedstawić sposób pojmowania liczby w związku z naszym codziennym, sensorycznym doświadczeniem czasoprzestrzeni. Jeśli założymy, że polem tego naturalnego doświadczenia jest przestrzeń trójwymiarowa i dopiero w takiej przestrzeni możemy osiągnąć obiektywny ogląd liczebności zbioru, to pojęcie czasu staje się podstawowym warunkiem ufundowania pojęcia liczby. Przestrzeń trójwymiarowa jest w doświadczeniu naturalnym wynikiem złożenia kolejnych (a więc rozdzielnych w czasie), dwuwymiarowych rzutów na siatkówkę oka. Gdybyśmy przy oglądzie zbioru elementów trójwymiarowych dysponowali zaledwie jednym z rzutów, to de facto zostalibyśmy ograniczeni do przestrzeni dwuwymiarowej.
175 Peter Atkins Palec Galileusza, Dz. cyt., s. 400 176 http://pl.wikipedia.org/wiki/Logika_rozmyta, 2009-02-26 177 Tamże, wówczas

65 Ryc. XVI Drzewka posadzone w dwóch rzędach pokazane z różnych stron. Nie każdy z możliwych rzutów

dwuwymiarowych jest wystarczający do określenia liczebność zbioru. Liczebność zbioru postrzegamy na rzucie wystarczająco prostopadłym do płaszczyzny stycznej ze wszystkimi elementami. W przypadku np.: balonów w powietrzu płaszczyzna taka może nie zaistnieć i wtedy jeden rzut nie wystarczy.

Źródło: opracowanie własne

Zastanówmy się jeszcze, czy możliwa jest analiza zbioru w przestrzeni dwuwymiarowej, bez uwzględnienia czasowej rozłączności spostrzeżeń. Przykładowo: dysponując spostrzeżeniem kartki papieru z listą nieponumerowanych nazwisk w jednym tylko momencie, ograniczeni jesteśmy do spostrzeżenia globalnego. Lista stanowi całość bez wyróżnionych jednostkowych elementów, a więc nie jesteśmy w stanie określić liczebności zbioru. Proces policzenia wymaga czasu — odrębność kolejnych elementów z listy uświadamiana jest w odrębnych momentach. Istnieje dowód z dziedziny psychiatrii klinicznej na związek zdolności postrzegania przestrzeni ze zdolnościami rachunkowymi. Jak to zwykle bywa, z dowodami formułowanymi w tej nauce, opiera się on na obserwacji zaburzeń psychicznych wywołanych uszkodzeniami mózgu. Interesująca, ze względu na rozpatrywaną tematykę, jednostka chorobowa zwana jest zespołem Gestmana. Otóż ustalono prawidłowość wiążącą uszkodzenia płata ciemieniowego z zaburzeniami zdolności orientacji przestrzennej i rachowania178. Jeśli za przetwarzanie w języku naturalnym informacji o przestrzeni i o liczbach, odpowiadają te same struktury neuronalne wskazywać to może, że pojęcia liczb i przestrzeni ukształtowały się w wyniku różnych aspektów jednego procesu. Jeśli więc Brouwer odrzuca aprioryczność pojęcia przestrzeni, to dlaczego zachowuje ją w stosunku do pojęcia liczby? Jeśli jedynie wyczucie czasu traktować jako, dane a priori, to liczby tak jak i przestrzeń stanowią konsekwencje doświadczenia. Tak więc są de facto pojęciem a posteriori. Czy, jak wynika to z ustalonej przez Brouwera hierarchii pierwotności pojęć, odrębność spostrzeżeń w czasie może posiadać epistemologiczną wyższość nad odrębnością spostrzeżeń w przestrzeni? Na tym jednak nie kończą się moje wątpliwość, co do intuicjonistycznej teorii liczb. Pozostaje jeszcze istotna wątpliwość związana, z potwierdzoną w psychologicznych doświadczeniach, stałością spostrzeżeniową liczebności zbiorów. Dotyczy ona zbiorów od jednego do pięciu elementów, których liczebność jesteśmy w stanie określić momentalnie179. W sytuacji takiej nie następuje świadomy, związany z rozdzielnością w czasie proces liczenia.
178 Hoimar von Ditfurth, Duch nie spadł z nieba, Państwowy Instytut Wydawniczy, Warszawa 1989, s. 341 179 George A. Miller sformułował prawo 7+/-2, które stwierdza, że po krótkim czasie obserwacji człowiek jest w stanie zapamiętać i wymienić nazwy 5–9 przedmiotów. podaje za: John R. Pierce, Symbole, sygnały i szumy. Wprowadzenie do teorii informacji, Państwowe Wydawnictwo Naukowe, Warszawa 1967, s..315

66

Tak więc, albo proces ten zachodzi nieświadomie, albo przy pojęciu małych liczb wystarczy jedynie przestrzenna rozdzielność elementów. Być może tylko te najmniejsze liczby możemy traktować jako dane a priori, a kolejne wyższe liczby stanowią wynik indukcji. 3.11. l ic z by a c y f ry Rozważania powyższe odnosiły się do pojęcia liczby, jako określenia liczebności zbioru. Jednostki rozdzielne w czasie są natomiast w teorii Brouwera traktowane raczej jak oznaczenia następujących po sobie elementów. Przedstawione w ten sposób definiowanie pojęcia liczby przypominałoby raczej sytuację liczenia zbioru z zamkniętymi oczami. W gramatyce istnieje wyraźne rozróżnienie pomiędzy określeniami kolejności i liczebności. Liczebność określana jest przez liczebniki główne, kolejność natomiast przez liczebniki porządkowe. Jak stwierdziłem w uprzednim akapicie, wyabstrahowaniu najniższych liczebników głównych wystarczy rozłączność przestrzenna. Natomiast liczebniki porządkowe wymagać będą zawsze rozdzielności czasowej. Ciekawym więc staje się pytanie, który rodzaj liczebników jest pojęciem bardziej pierwotnym. Fakty historyczne, związane z badaniami sposobów zapisu znaków wskazują raczej na pierwotność liczebników głównych. Ilość kresek, lub kropek, stosowanych w alfabetach starożytnych na oznaczenie liczby, tożsama była z ilością elementów zbioru, który liczba ta oznacza. Jednak dotyczy to tylko liczebników najniższego rzędu. Jako przykład powszechnie znany podać można cyfry rzymskie (w istocie etruskie180), ale i w kulturze majów sytuacja przedstawiała się analogicznie. Stosowane obecnie cyfr arabskie, pochodzą natomiast, od indyjskich. Również i ta notacja w początkowym okresie (III wiek p.n.e.) stosowała kreski dla oznaczenia najniższych liczb181. Piątka odróżnia się już swoją formą, co świadczyć może o pojawieniu się na tym etapie liczenia nowego pojęcia, które dziś nazywamy zbiorem. Piątka otwiera tym samym drogę do określenia zbiorów liczniejszych, których elementy wymagają już porachowania. Jednocześnie zauważam wzrost stopnia semiotyczności znaków przedstawiających liczby. Podczas, gdy cztery pierwsze odnoszą się do swego znaczenia w najprostszy, ikoniczny sposób, funkcjonalność kolejnych cyfr wymagała już reprezentacji symbolicznej. Potwierdzałoby to przypuszczenie, że tylko te liczby, których percepcji wystarczy rozłączność przestrzenna można uznać za pojęcia aprioryczne. Indukcja kolejnych wymaga natomiast rozłącznośći czasowej i co za tym idzie pojęcia liczebników porządkowych. Mamy więc następującą chronologię: Jeden, dwa, trzy, cztery, pięć, → pierwsze, drugie, trzecie, czwarte, piąte → szóste → sześć, szóste → siódme → siedem, siódme → ósme → osiem, itd. Schemat powyższy wskazuje, że indukcja zaczyna działać tam, gdzie niemożliwe staje się wyabstrahowanie szczegółów spostrzeżenia globalnego.

180 http://pl.wikipedia.org/wiki/Rzymski_system_zapisywania_liczb, 2009-03-24 181 Kronika techniki, Wydawnictwo Kronika, Warszawa 1992, podaje za Marcin Pawlik, Matematyka arabska, 2005

67 Ryc. XVII Pierwsze cyfry notacji Rzymian i Majów. Piątkę uznać mogę za pierwszy symbol zbioru w historii

arytmetyki. Przedstawiony zapis rzymskiej czwórki jest pierwotny w stosunku do późniejszego IV (jednego przed piątym), który korzysta już z funkcji porządkującej liczebników.

źródło: opracowanie własne

Aprioryczność pojęcia przestrzeni odrzucił Brouwer. Wskazując na dowód z dziedziny neurologii (zespół Gestmana), a także zdolność do pojmowania najmniejszych liczb bez rozdzielności czasowej, odrzuciłem natomiast intuicjonistyczną aprioryczność pojęcia liczby. Przedstawioną koncepcję powstania pojęcia liczby wywnioskowałem z gramatycznego rozróżnienia liczebników głównych i porządkowych, a przede wszystkim wskazując na niższy stopień rozwoju semiotycznego pierwszych czterech cyfr w notacjach starożytnych. Z analizy tej wynika, iż na ukształtowanie się pojęcia liczby w pierwszym etapie wpłynęły spostrzeżenia rozdzielności przestrzennej, w następnym — czasowej. W tej sytuacji utrzymywanie aprioryczności pojęcia czasu prowadziłoby do sprzeczności. W konsekwencji nieunikniona staje się przeto negacja również tego założenia. Pomocą w poszukiwaniu pojęcia bardziej pierwotnego niż liczba, przestrzeń, czas może być fizyka relatywistyczna, która formułuje pojęcie czasoprzestrzeni jako uogólnienie czasu i przestrzeni. Jedność czasu i przestrzeni uprawomocnia, przedstawioną koncepcję powstania pojęcia liczb. Wątpliwe wydaje się jednak, że możnaby pojęcie, tak młode jak czasoprzestrzeń, uznać za dane a priori. . 3.12. r o z b u d owa s ys T e m u n o Tac j i Kontynuując rozważania o związkach świadomości pojęcia liczb z rozwojem systemu ich zapisu, przywołam raz jeszcze sformułowaną, przy okazji porównania cyfr rzymskich i majów, hipotezę uznania cyfry pięć za pierwsze przedstawienie idei zbioru. W systemie notacji, w którym następujące po piątce cyfry zbudowane są przez zsumowanie znaków poprzednich (Ryc. XVII), znak piątki stanowi nową, jakość nie tylko ze względu na bardziej abstrakcyjny sposób odniesienia do swego znaczenia. Nową jakością jest też jej jedność — pojawia się więc jako cyfra nie zbudowana z elementów poprzednich znaków, jak ma to miejsce w przypadku II, III, IIII. Dlatego nazwałem ją przedstawieniem zbioru. Charakterystyczna dla pojęcia zbioru cecha, którą jest jednoczenie pewnej ilości elementów, sprawia, że możemy go traktować również jako całość, abstrahując od elementów, które zbiór zawiera. Narzuca się stwierdzenie, że cecha ta jest pierwotnie przymiotem jedynki. Jednak, jedynka stanowi całość niepodzielną. Przez Greckich filozofów, podobnie jak zero, nie była nawet uznawana za liczbę. Proces zdefiniowania zamkniętej całości stanowi podstawę dla obiektywizacji spostrzeżeń. Przedstawienie piątki jako nowej złożonej jedności było więc istotnym wydarzeniem w historii pojęcia liczby.

68

Wraz ze wzrostem wielkości liczby sytuacja komplikuje się. Sposób budowania kolejnych cyfr w omawianych starożytnych notacjach, powraca do konstruowania nowych znaków graficznych jako sumy istniejących. Wprowadzane są kolejne znaki uproszczone, ustalone na zasadzie konwencji. Przykładowo: u Rzymian: X, L, M. Proces konstruowania cyfr tym sposobem, prowadzi potencjalnie do nieskończonego repertuary symboli, lub do poprzestania na wyrażeniu skończonej liczby. Jest to jego poważną wadą. Oczywiście w praktyce możliwe było jedynie to drugie rozwiązanie. Ograniczenie się do skończonego repertuaru znaków graficznych, stwarzało trudności przy przedstawianiu dużych liczb. Wymagało czasochłonnego zapisania dużej powierzchni, a jeszcze trudniejsze było ich odczytanie.
Ryc. XVIII Wyobraźmy sobie telefon mający do dyspozycji

9 klawiszy numerycznych oznaczonych. cyframi rzymskimi.

źródło: opracowanie własne

Rozwiązaniem problemu notacji liczb wysokich rzędów stała się notacja pozycyjna. Używany dzisiaj powszechnie dziesiątkowy system liczbowy, jest przykładem pozycyjnego systemu liczbowego182. Pierwszą arytmetykę posługującą się zapisem pozycyjnym przy pomocy 10 cyfr rozpowszechnił al-Chuwarizmi swoim dziełem Al-Dżam wa-at-tafrik bi-hisab al-Hina183. Dzięki niemu przy użyciu 10 znaków możemy wyrazić dowolnie dużą liczbę; proces zapisu pozostaje jednak wciąż ograniczony miejscem i czasem. „System Majów był systemem pozycyjnym dwudziestkowym, aczkolwiek nie w pełni. Istniał (co charakterystyczne dla systemów pozycyjnych) podział na jednostki odpowiednich rzędów”184. Pierwszy rzędem były oczywiście jednostki, drugim dwudziestki, trzecim 360–tki — odstępstwo to miało związek z kalendarzem Majów, który liczył sobie 18 miesięcy 20–dniowych (oraz 5 dni dodatkowych)185. Zwróćmy uwagę, że w systemie pozycyjnym do wyrażenia wszystkich liczb wystarczą zaledwie 2 znaki. Można to było wywnioskować, gdy opisywałem zastosowanie kodu binarnego w maszynach liczących. Stwierdziłem wtedy, że z kodem binarnym nie stykamy się bezpośrednio, ale z jego konsekwencjami jak najbardziej.
182 P o z y c y j n y s y s t e m l i c z b o w y — sposób zapisu liczb polegający na tym, że znaczenie cyfr zależy od pozycji, na której się one znajdują, podaje za: Mały słownik matematyczny, dz. cyt., s. 222 183 J. Danecki, Kultura i sztuka Islamu, Dom Wydawniczy Elipsa, Warszawa 2003, podaje za: Marcin Pawlik, Matematyka arabska, 2005 184 Krzysztof Leśniak, Majowie, http://www-users.mat.uni.torun.pl/~much/maya.html, 2009-03-16 185 Tamże, wówczas

69

Pamięć komputerów, jak i pamięci masowe zorganizowane są w formie bajtów. 1 bajt składa się z 8 bitów (cyfra dwójkowa), co pozwala na zakodowanie 28 = 256 stanów. Dlatego mamy 256 poziomów tonalnych dla jednego kanału przestrzeni RGB. Jest to wartość w zupełności wystarczająca, gdyż przeciętny człowiek może rozróżnić około 200 poziomów tonalnych. Margines 56 poziomów przydatny jest przy przekształceniach obrazów186. Natomiast wartości kolorów w kodzie html zapisywane są w systemie szesnastkowym, gdzie dodatkowym cyfrom przyporządkowano odpowiadające im litery. Rozwoj systemu notacji warunkowany jest względami pragmatycznymi. Lepszym sposobem zapisu liczb jest ten, który lepiej sprawdza się w działaniu — przy notowaniu i wykonywaniu obliczeń. Dotyczy to zarówno ludzi, jak i maszyn liczących. Czy jednak wszystkie obliczenia operują tylko liczbami i symbolami działań? Czytelnika zmęczonego tematyką liczb, zachęcam do dalszej lektury, ponieważ jak się okazuje na powyższe pytanie można udzielić odpowiedzi przeczącej. Nie mam też wcale na myśli algebry, gdzie liczby zastąpione są zmiennymi. 3.13. z m i e n n a l i n g w i s T yc z n a Obliczanie przy użyciu zmiennej lingwistycznej pełni bardzo użyteczną rolę w analizach epistemologicznych. Zmiennymi lingwistycznymi są nazwy nadane przedmiotom dzięki zdolności do abstrahowania. Nazwy, jako kategorie abstrakcyjne, w naszych codziennych, zwykłych procesach poznawczych występują w postaci zbiorów rozmytych, ponieważ przeprowadzane kategoryzacje nie są ścisłe, lecz zwykle tylko przybliżone187. Każdy z nas uczestniczył, lub przynajmniej był świadkiem sporu na temat koloru. Jest tak, że na przykład to, co jedni nazwą różowym inni już fioletowym. Takie nieporozumienie, można uzasadniać różnicami morfologicznymi siatkówki oka poszczególnych osobników naszego gatunku. Proporcje ilości między trzema rodzajami czopków mogą faktycznie wpływać na indywidualizację widzenia barwnego. Dowodem tego są zaburzenia rozpoznawania barwy ściśle związane z niedostatkami w wyposażeniu siatkówki w czopki. Jednak w trakcie omawianego sporu kolor tak, jak w każdym innym akcie komunikacji werbalnej, określony jest wyrazem, który w potocznym użyciu odnosi się do pojęcia bez ściśle wytyczonych granic. Nawet jeśli indywidualny zakres pojęcia koloru jest wynikiem różnicy morfologicznej, nie podważa to znaczenia jakie w procesie interpersonalnej komunikacji odgrywa indywidualizacja zakresu pojęcia, która może prowadzić do nieporozumień. Niezależnie od przyczyn formujących różnice w indywidualnym zakresie pojęcia danego koloru, przykład ten doskonale ilustruje zjawisko przekładania systemu wartości ciągłych, na system wartości dyskretnych188. Każdy plastyk doświadczył, że pomiędzy barwą różową, a fioletową istnieje szereg wartości pośrednich. Ilość wyróżnionych stopni zależy od wymogów praktycznych i indywidualnej wrażliwości. Wielość ta wymyka się określeniom językowym, a bardziej szczegółowo może zostać opisana wartościami liczbowymi. Opis taki wymagany przez drukarskie techniki reprodukcji barwnej wyróżnia ilość stopni adekwatną do ponadprzeciętnych zdolności percepcji barwnej (podobnie, jak ze stopniami tonalnymi — zobacz poprzedni podrozdział).
186 Bruce Fraser, Chris Murphy, Fred Bunting, Profesjonalne zarządzanie barwą, Helion, Gliwice 2006, s. 87 187 Piotr Sobol-Kołodziejczyk, Dwa pojęcia obliczania, http://wiedzaiedukacja.pl/archives/9843, 2009-03-24 188 Dy sk r e t n y — przyjmujący wartości z określonego przeliczalnego zbioru

70

Doświadczony drukarz wie, że pomiędzy opisanymi cyfrowo stopniami istnieją stopnie pośrednie. Tak więc percepcja barwy (tak jak i innych danych zmysłowych) posługuje się skalą ciągłą. Nałożona, w celach komunikacyjnych, dyskretna skala języka dzieli skalę percepcji na wyodrębnione obszary. Należy przy tym pamiętać, że ciągłość skali percepcji nie jest adekwatna do rzeczywistości fizycznej na bardziej podstawowym poziomie. To jedynie ograniczenia naszej percepcji zmysłowej nie pozwalają nam na tak wielką czułość, abyśmy mogli odbierać dyskretny charakter fizycznych oddziaływań. Pojawia się on dopiero w skalach tak małych, jak długość Plancka. Ciągłość skali percepcji i odpowiadającej jej osi semantycznej wskazuje na analogowy charakter procesów świadomości. Jeśli przyjąć, że nazwy stanowią punkty na osi lingwistycznej, to w stosunku do równoległej osi semantycznej, punkty oznaczone nazwami znajdują się w obszarze największej intensyfikacji nazywanej cechy.189 Intensyfikacja ta jest jedyną ilościową cechą nazwy. Zakres nazwy natomiast jest zależny od ustaleń jej użytkownika, a także od kontekstu sytuacyjnego. Widać przeto wyraźnie, że pojęcie oznaczone daną nazwą stanowi zbiór rozmyty. Jak już zaznaczyłem, rozpoczynając rozważania o obliczaniu przy użyciu zmiennej lingwistycznej, rozmytość ta dotyczy codziennych, powszechnych procesów poznawczych. Naukowcy formułując swe teorie starają się za wszelką cenę uniknąć nieporozumień, mogących być konsekwencją rozmytości pojęć. Dążąc do ścisłości języka, eliminują rozmytość pojęć poprzez definicje. Ścisłość definicji prowadzi do innego problemu — w przypadku pojęć, które trudno zdefiniować, pojawiają się pomiędzy teoriami naukowymi sprzeczności w oznaczaniu obiektów. Przykładowo: odpowiedź na pytanie czy wirus jest organizmem żywym, zależy od przyjętej definicji życia. Kognitywistyka w początkowym okresie swego rozwoju zakładała, że informacje przetwarzane zarówno przez naturalne, jak i sztuczne systemy poznawcze redukowane są do określonego zbioru formuł logicznych, wraz z relacjami między nim. Takie ujęcie problemu opierało procesy poznawcze na zasadzie obliczania deterministycznego190, czyli prowadzącego od tych samych danych, zawsze do tych samych wyników. Zadeha definiuje obliczanie niedeterministyczne, jako działanie, u podstaw którego leży procedura obliczeniowa operująca na zmiennych lingwistycznych.191 Tak więc, teoria logiki rozmytej ma duże znaczenie dla epistemologii obliczeniowej. Na zakończenie pragnę przytoczyć jeszcze jeden przykład związany z teorią zbiorów rozmytych, jako podstawą procesów poznawczych, wskazujący na adaptatywną wartość takich fundamentów. Również związany z definiowaniem pojęć dotyczących barwy, wskazujący na zależność, nie od indywiduum użytkownika pojęcia, lecz od kontekstu sytuacyjnego. Mianowicie: tworząc zbiór rzeczy do prania czarnego możemy załączyć do nich szarą bluzkę, która następnym razem trafi do zbioru rzeczy do prania białego (przy założeniu, że nie pierzemy oddzielnie rzeczy szarych). Szara bluzka znajduje się równie daleko od punktu największej intensyfikacji bieli, jak i czerni, włączenie jej do danego zbioru zależy więc od kontekstu sytuacyjnego.
189 Bernard Korzeniewski, Absolut, dz. cyt., .pdf s. 5 190 O b l i c z a n i e d e t e r m i n i s t y c z n e — działanie na zbiorze ściśle określonych danych wejściowych za pomocą określonego zbioru reguł przetwarzania danych (porównaj: automatyczne dowodzenie twierdzeń) zobacz: Marvin Minsky, Finite and infinite machines, Wiley and Sons, New York 1967 podaje za: Piotr Sobol-Kołodziejczyk, Dwa pojęcia obliczania, dz. cyt. 191 Lotfi Zadeha, Fuzzy logie = Computing with words, IEEE Transactions on Fuzzy Systems, nr 4(2), 1996, s..111-117 podaje za: Piotr Sobol-Kołodziejczyk, Dwa pojęcia obliczania, dz. cyt.

71

3.14. o g r a n ic z e n i a i s k u T e c z n o ś ć j ę z y k a s y m b o l ic z n e g o Ewolucyjne ukształtowanie struktur poznawczych pod wpływem zewnętrznych warunków środowiskowych nie wnosi istotnego sensu w próby odpowiedzi na pytanie o granice poznania. Interpretacja, jego zależna jest od filozoficznych poglądów. Może stanowić dowód zarówno przekonania o poznawalności świata jak i o ograniczoności ludzkich zdolności w tym zakresie. Niewątpliwe zdumiewająca jest zdolność ludzkości do eksploatacji natury w coraz większym stopniu — pogłębiania nauki, coraz wnikliwszymi badaniami i nowymi odkryciami. Jeszcze bardziej zdumiewa bogactwo rzeczywistości, której badacze stają wciąż przed nowymi pytaniami, zrodzonymi z odpowiedzi na pytania uprzednie. Liczne elementy struktury rzeczywistości można ująć przy pomocy skończonych, aksjomatycznych teorii, jednak całość pozostaje poza ich zasięgiem. Struktura wszechświata okazuje się bardziej złożona niż struktura teorii aksjomatycznej192. Podstawowe paradygmaty matematyczne, czyli analityczny i stochastyczny193, stosują się do ograniczonego zakresu zjawisk. Rodzi się pytanie o naturę wszechświata: czy byt jest deterministyczny, czy stochastyczny? „Ściślej, czy świat jest fundamentalnie deterministyczny, a opis stochastyczny jest jedynie wyrazem naszej niewiedzy? Czy na odwrót, świat jest fundamentalnie stochastyczny, a prawa deterministyczne są jedynie przybliżeniami praw stochastycznych”194? Teoria chaosu opisując stochastyczne zachowania w układach deterministycznych może być sposobem pogodzenia tych sprzeczności. Potrzeba jednak dalszego jej rozwoju, by uprawomocnić wiarygodność odpowiedzi chaotów. Próby pogodzenie determinizmu i stochastyki mają już bogatą historię. Jest to żywy problem filozofii, rozbudzany odkryciami genetyki i fizyki. Zadanie to wydaje się równie nieprawdopodobnie trudne, jak pogodzenie opisu ilościowego z jakościowym. Pomimo wszelkich perypetii, związanych z ograniczeniami języka matematyki, przekonanie, iż jest on najwłaściwszy dla naukowego opisu świata pozostaje powszechnie akceptowane. Czy to ze względu, że nie dysponujemy innym dostatecznie ścisłym językiem. Wszak próby sformułowania neutralnego teoretycznie języka obserwacyjnego nie powiodły się i wszystko wskazuje na to, iż jest to zadanie niewykonalne195. Żywotny pozostaje przeto problem rozważany od wieków. W całej historii filozofii matematyki istotnym pytaniem jest: co sprawia, że język matematyki jest odpowiedni do opisu rzeczywistości? Jak wiadomo w filozofii idealistycznej założenie pierwotności idei w stosunku do materii inklinuje traktowanie pojęć matematycznych jako przynależących do świata idei, czyli pierwotnych wobec świata materii. Źródłem tego rodzaju poglądów jest filozofia Platona. Dla platoników liczby są rzeczywistymi bytami, a związki między nimi stanowią opis faktów196. Skuteczność zastosowania opisów ilościowych w fizyce, sprawia że wśród wielu naukowców odradzają się idee pitagorejskie — symbole matematyczne postrzegane są jako klucz do fizycznego świata197.

192 Roman Duda, Matematyka między duchem i materią, dz. cyt., s. 74 193 St o c h a st y c z n y — przypadkowy; (proces) którym rządzi przypadek, podaje za: http://www.slownik-online.pl/kopalinski/5F64E90CE5E5166CC12565940074BBFC.php, 2009-04-16 194 Roman Duda, Matematyka między duchem i materią, dz. cyt., s. 75 195 Wojciech Sady, Spór o racjonalność naukową, dz. cyt., s. 164 196 Peter Atkins Palec Galileusza, Dz. cyt., s. 403 197 Matila C. Ghyka, Złota Liczba, dz. cyt., s. 311–113

Część

IV

4 Estet yka d ziałań intelek t ualnych

73

„Poznanie bowiem nie jest ani bierną kontemplacją, ani zyskaniem jedynego możliwego wglądu w coś, co dane. Jest to aktywny żywy związek wzajemny, przekształcanie i bycie przekształcanym, krótko mówiąc akt tworzenia.” Ludwik Fleck

Myśl chrześcijańska w średniowiecznej Europie początkowo nieufna w stosunku do pogańskiej filozofii Greków, z czasem zaadoptowała ją198. Platoński świat idei mógł na nowo zaistnieć niejako w umyśle stwórcy świata — Boga wszechmogącego. Na podstawach teologicznych bazował pogląd, że matematyka jest językiem stwórcy. Z tego punktu widzenia prawa przyrody stanowią zbiór atrybutów danych z góry przez Demiurga, które najzwięźlej ujmowane są językiem matematyki. Pogląd ten najdobitniej wyraził, uważany za ojca współczesnej nauki Galileusz, w słowach: „Matematyka jest alfabetem, za pomocą którego Bóg opisał wszechświat”199. Dostrzegł on więc podstawową rolę matematyki w naukowym opisie przyrody, a wykorzystanie metod ilościowych pozwoliło jego naśladowcom na liczne sukcesy. 4.1. o dp ow i e d n i a s T ru k T u r a Doskonałego przykładu dopasowania istniejących struktur do opisu zaobserwowanych zjawisk dostarczył żyjący na przełomie XVI i XVII wieku, matematyk i astronom niemiecki Johanes Kepler. Był on przekonany, że odkrył tajemnice budowy wszechświata. W czasach Keplera znane było sześć planet układu słonecznego. Każdej z planet przypisać można odpowiadającą jej orbicie sferę. „Kepler spostrzegł, że jeśli w sferę odpowiadającą Ziemi wpisać dwudziestościan foremny, to sfera wpisana w niego będzie sferą odpowiadającą Wenus. Gdy w tę z kolei sferę wpisać ośmiościan foremny, sfera w niego wpisana stanowić będzie sferę Merkurego. Jeżeli natomiast na sferze odpowiadającej Ziemi opiszemy dwunastościan foremny, sfera na nim opisana stanowić będzie sferę Marsa. Analogicznie: czworościan foremny opisany na sferze Ziemi, wyznaczy sferę Jowisza, wreszcie sześcian opisany na sferze Jowisza, będzie wpisany w sferę Saturna”200. W celu analizy budowy układu planetarnego, Kepler skorzystał ze znanych od setek lat pięciu najregularniejszych wielościanów, zwanych bryłami platońskimi. Z naukowego punktu widzenia, stworzona przez niego na podstawie obserwacji konstrukcja, nie ma żadnego praktycznego znaczenia. Znamienne jest więc, że pomimo tego funkcjonuje w literaturze, jako doskonały przykład dopasowania struktur matematycznych do rzeczywistych zjawisk.
198 Roman Duda, Matematyka między duchem i materią, dz. cyt., s..60 199 http://pl.wikiquote/wiki/Matematyka, 2009-02-26 200 Witold Sadowki, Femme Fatale, dz. cyt., s. 124

74

Sądzę, że jest to przypadek teorii, której wartość estetyczna okazała się trwalsza od wartości poznawczej. Obraz planet krążących po sferach wyznaczonych wielościanami foremnymi jest wizją piękną. Sama zaś idea promieniuje natchnieniem, którym jest przepełniona. Dla mnie stanowiła bodziec, który wywołał wizję: odległego miejsca kosmosu, innego układu planetarnego, gdzie inne są stosunki przestrzenne pomiędzy planetami, co sprawia, że w przestrzeni tego układu inne są wielościany foremne. Nie była to jeszcze wizja plastyczna, lecz tylko fantazja intelektualna. 4.2. k r e ac ja i u ż y T kowa n i e pro g r a m u Wraz z upowszechnieniem się wykorzystania maszyn liczących w rozlicznych dziedzinach działalności, pojawił się fenomen intelektualnego rzemiosła, którym jest zawód programisty. Zastanawiające jest więc na ile twórcze jest to zajęcie oraz jakie wartości estetyczne kultywuje? W Ameryce mianem twórczości określa się wszelkie formy autoekspresji, bez względu na stopień ich odkrywczości. Z lubością porównuje się pracę informatyka do pracy artysty, z tym że porównanie to bliższe jest pracy akademickiego artysty tworzącego ściśle według określonych kanonów201. Większość informatyków jest wytwórcami narzędzi, od których wymaga się bezwzględnej znajomości tworzywa, którym się posługują. Tworzywem tym jest sformalizowany język symboli. Inwencja techniczna stała się częścią kultury u zarania człowieczeństwa — narzędzia, czyli obiekty ukształtowane w celach praktycznych, należą do najstarszych archeologicznych świadectw świadomego przekształcania rzeczywistości przez naszych przodków. Wciąż jednym z celów rozwoju cywilizacji jest tworzenie rzeczy coraz bardziej użytecznych 202. Jednakże obecnie znacznie częściej słyszy się o technologii niż o technice. Techne wciąż zakorzenione w tym samym ludzkim dążeniu ku ułatwieniu, umilaniu i upiększeniu ludzkiego życia, zmieniły znacząco swój charakter. Ze zmagań z materią przeobraziły się i stały zmaganiami z myślą. Takie oddalenie od przyrody w szczególności cechuje programistę. Wycofawszy się w wewnętrzny intelektualny świat programu, który pisze, pełnię uwagi koncentruje on na abstrakcyjnym problemie203. Reguły logiki symbolicznej odnoszą się do czystej formy, której piękno można dostrzec zwróciwszy uwagę na regularność i powtarzalność elementów struktury programu. Reguły te stosowane do zdefiniowanych wcześniej w pamięci maszyny symboli204, zmuszają programistę do myślenia w tych właśnie bardzo abstrakcyjnych kategoriach. Komputer nie ma żadnej możliwości do interreakcji ze światem zewnętrznym, jeśli nie zostanie wpierw wyposażony w instrukcje. Programista musi więc język naszego doświadczenia tłumaczyć na kod maszynowy. Przeto pośredniczy on pomiędzy dwoma rodzajami myślenia 205. Rozbieżności tych dwóch sposobów kodowania jest wymagającym wyzwaniem. Różnica między myśleniem skojarzeniowym i formalnym została przedstawiona we wprowadzeniu do pracy przy okazji rozróżnienia metod sztuki i nauki, a uwypuklona
201 J. David Bolter, Człowiek Turinga. Kultura Zachodu w wieku komputera, Państwowy Instytut Wydawniczy, Warszawa 1990, s. 247 202 Tamże, s. 248 203 Tamże, s. 249 204 Tamże, s. 254 205 Tamże, s. 255

75

opisem obliczania niedeterministycznego wykorzystującego logikę rozmytą, tak odmienną od tej dwuwartościowej. Programista często zobowiązany jest też pamiętać o użytkownikach, dla których program jest przeznaczony. Jeśli są nimi ludzie, to ma on za zadanie kreację przestrzeni skutecznej komunikacji pomiędzy biologicznymi i mechanicznymi strukturami przetwarzania danych. Współczesny komputer osobisty różni się ogromnie od pierwszych komputerów przeznaczonych dla ezoterycznych kręgów naukowców; różni się najbardziej właśnie pod względem sposobu jego użytkowania. Wynikiem dążenia do usprawnienia komunikacji między człowiekiem, a maszyną są znane nam z praktyki wynalazki, takie jak na przykład: i nt e r fe js i ko n ic z ny i k u r s o r. Ukierunkowanie na człowieka jest powtórną translacją — komputer musi umożliwić wprowadzanie danych i być w stanie przedstawić wyniki swych obliczeń w czytelny dla użytkownika sposób. Tylko wtedy program staje się użytecznym narzędziem. „Owo tłumaczenie jest najżmudniejszą i najbardziej twórczą z prac programisty”206. Program stworzony dla ludzi i dla maszyn jest więc strukturą wielowarstwową. Pod powierzchnią tego, co widzi użytkownik, rozgrywają się procesy coraz bardziej podstawowego rzędu. (Jedną z pierwszych warstw ukrytych jest współpraca programu z systemem operacyjnym, tak zwanym środowiskiem, stanowiącym podstawowe oprogramowanie komputera osobistego.) Komendy tłumaczone są na języki niższego rzędu. Każdy kolejny jest mniej symboliczny, a bardziej cyfrowy — zmniejsza się ilość używanych znaków, wydłuża się zapis wyrażeń. Na samym dnie bulowska algebra służy zakodowaniu informacji w strukturach materialnych. Konkretny programista częstokroć pracuje tylko na jednym z tych poziomów. Użytkownik nie ma potrzeby znajomości języków programowania. Aby praktycznie korzystać z programu, musi on jedynie poznać powierzchnię przeznaczoną do interreakcji maszyny z człowiekiem. Tyle wystarczy, by mógł korzystać z dobrodziejstw komputera; choć praktycznie przydatna jest też świadomość charakteru metod jego pracy. Dobrodziejstwa, jakie niosą ze sobą programy komputerowe, pozwalają na powierzenie naszym maszynom zadań najżmudniejszych, najnudniejszych, najmniej twórczych, ogólnie rzecz ujmując — mechanicznych. Dzięki temu zyskujemy więcej czasu na relaks, lub działania twórcze. 4. 3. f u n kc j o n a l n o ś ć , a pi ę k n o Artysta może wyrazić się o danym narzędziu: pracuje się nim pięknie. Dla artysty piękne narzędzie to takie, przy pomocy którego łatwiej jest uzyskać zamierzony efekt — ułatwiające kontrolę procesu twórczego. Nie ma to bezpośredniego związku z pięknem uzyskanego rezultatu w formie aktu sztuki. Przeciwnie w matematyce, której tworzywem jest czysta idea, narzędzie i możliwości jego zastosowania stanowią jedność, będąc jednakowo operacjami na symbolach. Sposób dowodzenia jest nieodzownym i istotnym składnikiem dzieła matematyka. W tym sensie piękno narzędzi można (jak w przypadku sztuki) utożsamiać z jego praktycznymi zaletami. Jednak związek narzędzi i efektów ich zastosowania będzie szerszy i znacznie bardziej bezpośredni, gdyż użyte narzędzia stanowią część składową powstałej pracy.
206 Tamże, s. 255

76

Przydatność dla określonego celu nie stanowi kategorii estetycznej, gdyż najczęściej postrzegana jest myślą spekulatywną. Jakości estetyczne natomiast odbierane są przez postrzeganie, które w bezpośredni sposób wywołuje u odbiorcy konkretne uczucia207. To właśnie forma pozbawiona ograniczeń narzuconych przez wyspecjalizowany cel, a służąca przede wszystkim wzbogaceniu doświadczenia, jest formą estetyczną 208. Absolutnie nie wyklucza to występowania wartości estetycznych w formach funkcjonalnych. Możemy przez lata używać konkretnego noża w sposób zgodny z jego przeznaczeniem, by pewnego dnia wźąść go do ręki bez żadnej praktycznej potrzeby, lecz po to tylko, by podziwiać jego kształt, który nagle wzbudził w nas zachwyt, wzbogacając w żywotny i bezpośredni sposób nasze doświadczenie. 4.4. p i ę k n o i d e i Bezpośredniość oddziaływania, jako konieczny warunek doświadczenia estetycznego, nie ogranicza zbioru form estetycznych jedynie do przedmiotów obdarzonych jakościami zmysłowymi. Rozmaite idee posiadają bowiem również bezpośrednio odczuwane właściwości jakościowe. Argumentując ten pogląd, Dewey powołuje się na Jamesa, który wskazuje na bezpośredniość odczuwania relacji pomiędzy kolejnymi wyrażeniami ciągu pojęć. Ponad to James stwierdził, że nie ma relacji o zakresie tak szerokim, aby nie mogła być treścią bezpośredniego doświadczenia209. Rozważając sposób w jaki odczuwane są idee, można zauważyć (wyraźniej niż ma to miejsce w przypadku reakcji na obiekty oddziaływujące na nas za pomocą zmysłów), że bezpośredniość nie oznacza braku narzędzi pośredniczących. Bezpośredniość uczuć występuje równolegle z systemem reprezentacji, jeśli rozpatrywana idea jest w stanie pobudzić człowieka do korzystania z repertuaru swoich skojarzeń. Uczucia związane z indywidualnymi skojarzeniami wzbogacają więc działalność intelektualną o wartości estetyczne. Uczucia wywoływane przez idee są reakcją na skojarzenia, rozbudzane obserwacją związków pomiędzy pojęciami. Ponad to w sytuacji, w której mamy do czynienia z twórczym procesem formułowania nowej idei, uczucia te stanowić mogą istotne wskazówki na drodze do sformułowania satysfakcjonujących wniosków. Doświadczenie intelektualne jest rzeczywistym, całkowitym doświadczeniem, gdy dopełnia je jakość emocjonalna. Jakość ta stanowi istotny motyw podejmowania naukowych dociekań, oraz zobowiązuje do uczciwości w formułowaniu wniosków. Pisząc o człowieczym doświadczeniu rzeczywistości Dewey dowodzi, że: „nie sposób wyraźnie oddzielić doświadczenia estetycznego od doświadczenia intelektualnego, bowiem to drugie musi mieć piętno estetyczne, aby stać się całkowite”210. 4. 5. o d k ry wc y n ow yc H s e n s ów Rozpoczynając rozważania na temat warunkującej rozwój nauki tendencji do wzrostu stopnia ogólności, przytoczyłem wypowiedź Hellera, który podkreślał, że charakterystyczne dla twórczej teorii jest pojawienie się nowej informacji. Znaczy to, że uogólnienie jest takim
207 208 209 210 John Dewey, Sztuka jako doświadczenie, dz. cyt., s. 139 Tamże, s. 141 Tamże, s. 145 Tamże, s. 49

77

scaleniem posiadanych informacji, które wyłania nową jakość. Pojawia się ona w wyniku połączenia elementów wiedzy, które uprzednio nie korelowały ze sobą. W procesie tym, czasem nie wystarczy rozszerzenie (poprzez uogólnienie) istniejących pojęć, często niezbędne staje się wprowadzenie nowych. Powstanie nowego pojęcia związane jest ściśle z indywidualną działalnością intelektualną. Zauważmy, że częstokroć nowe pojęcia noszą imiona swych twórców (przestrzenie Hilberta, przestrzenie Banacha…). Unaocznia to fakt, że są one pierwotnie intelektualną własnością konkretnego człowieka, za nim zostaną włączone do dorobku ludzkości. Fakt ten podkreśla Jurij Łotman rozpoczynając swe rozważania na temat przecięcia semantycznego, jako eksplozji znaczeniowej211. Przecięciem semantycznym nazywa on połączenie idei dotąd odległych, w wyniku którego tworzone jest nowe pojęcie, lub nowe znaczenie przez połączenie w sensowny sposób istniejących pojęć. Proces ten wymaga poszerzania horyzontów myślowych, warunkowanych wiedzą zaczerpniętą z otoczenia. Przekroczenie tych granic umożliwia jednostce wykształcenie nowego sensu, który rozprzestrzeniając się na cały obszar danego języka, może stać się cząstką kultury ludzkości212. Indywidualny i twórczy charakter zjawiska kształtowania nowych pojęć wiąże się więc ściśle ze stanem natchnienia, które Łotman określa jako stan twórczego napięcia, w który połączone zostaje to, co było rozłączne i w konsekwencji wyrażone to, co nie było dotąd wyrażone. Przytacza on słowa Puszkina, który wyraził się następująco: „ N a t c h n i e n i e? to dyspozycja duszy do najbardziej żywego odbioru wrażeń, zatem do szybkiego łączenia pojęć. Natchnienie potrzebne jest zarówno w poezji, jak i w geometrii” 213. Wspomniane relacje pomiędzy poszczególnymi pojęciami, rozważanymi w procesie formowania się konkretnej koncepcji, są niezwykle istotnym elementem umożliwiającym całościowe ujęcie tematu. Dążenie do objęcia myślą danej koncepcji w sposób globalny pociąga za sobą tendencję do abstrahowania na coraz wyższym stopniu ogólności. W tendencji tej uwypukla się podobieństwo twórczej działalności intelektualnej do działalności artystycznej. „Kiedy w badaniach naukowych tkwi prawdziwy artyzm, badacz ani nie trzyma się sztywnych reguł, ani nie idzie na oślep, ale kierują nim znaczenia istniejące bezpośrednio, jako uczucia zabarwione jakością” 214. Dlatego też pewne ciągi pojęciowe, wiodące do wniosku, który stanowi ich spełnienie, charakteryzują się pięknem i elegancją. Twórcze konsekwencje przecięcia semantycznego w procesie formowania nowych idei, nie tylko zwracają uwagę na jakości estetyczne działań intelektualnych, ale są również argumentem na rzecz postulowanej we wprowadzeniu do pracy potrzeby badań interdyscyplinarnych. Ponad to pragmatycznie zdefiniowane natchnienie pozwala na demitologizację pojęcia
211 212 213 214 Jurij Łotman, Kultura i eksplozja, dz. cyt., s. 49 Tamże, s. 49 Tamże, s. 50 John Dewey, Sztuka jako doświadczenie, dz. cyt, s. 146

78

romantycznego, potocznie stosowanego w odniesieniu do artystów. Z praktyki wiem, że natchnienie to jedynie impuls do wykreowania idei dzieła, może ewentualnie pojawić się jeszcze w trakcie korygowania idei względem rozpoczętego dzieła. Jednakże większość czasu w procesie kreacji poświęcona jest wyrażeniu natchnionej idei przy pomocy dostępnych środków. Myślę, że dotyczy to zarówno działalności naukowej, jak i artystycznej. Zbyt intensywna częstotliwość rozbłysków natchnienia mogłaby jedynie przeszkadzać w ukształtowaniu komunikatywnego dzieła sztuki, lub ścisłej teorii. Odkrywcami nowych sensów są myśliciele i twórcy, których myśli odrywają się od definicji pojęć i penetrują przestrzeń pomiędzy. Tam, gdzie spada napięcie pola semantycznego, zaczyna się strefa tego, co nienazwane. Przekraczają oni dostępne dotychczas obszary języka. Z wypraw tych przynoszą ludzkości cenne dary: nowe znaczenia nazw już posiadanych, nowe ich złożenia, nowe sensy, lub nawet nowe pojęcia wymagające nowej nazwy. Dzięki temu wzbogacają język, którym dysponujemy, jednocześnie poszerzając granice wiedzy dostępnej użytkownikom języka. Należy docenić znaczenie nowych sensów dla rozwoju kultury i afirmować ich twórców korzystających z natchnienia. Upubliczniając swoje dzieła rezygnują oni z prywatnej wartości (wiedza o tym, o czym inni nie wiedzą może zwiększać poczucie własnej wartości), na rzecz dobra publicznego. Inaczej rzecz ujmując: poświęcają oni swoją oryginalność, o której Nietzsche pisał: „Wiedzieć coś, co jeszcze nie ma nazwy, jeszcze nie może być nazwane, choć wszyscy mają to przed oczyma. Ludzie już zazwyczaj tacy są, że dopiero rzecz nazwana staje się dla nich widoczna. Nazwy rzeczom nadawali też przeważnie or yg i n a łow ie 215”. Wyraziłem powyżej uznanie dla twórców wnoszących istotny wkład w rozwój kultury. Bardziej powszechny jest mniej wybitny proces twórczy, który rozwija podejmującą go jednostkę. Twórczość zawsze wiąże się z pewnym rodzajem nowości, nawet gdy odkrywamy coś co już było odkryte przez kogoś innego. „Mianowicie za każdym razem, gdy jesteśmy twórczy, tworzymy sobie nowe myśli, nowe pojęcia, nową własną wiedzę i niezależnie od tego, czy była ona już wcześniej przez kogoś pomyślana, zapisana, to dla nas jest nowa”216. 4.6. i Lu m i n ac ja Tak trudno jest sobie uświadomić coś, co jeszcze nie nazwane, a jeszcze trudniej odnaleźć odpowiednie symbole by intuicyjnie postrzeganą treść obdarzyć komunikatywnym sensem. Jak więc zachodzi w ludzkimi umyśle to fascynujące zjawisko. Strefa tego, co nienazwane w większości leży poza świadomością. Jednakże istnieje możliwość wglądu w tę sferę, a więc objęcia świadomością tego, co nie jest oznaczone w wyuczonym systemie zaadaptowanym na potrzeby komunikacji. Możliwość tę dają odmienne stany świadomości, a najpowszechniejszym z nich jest sen. Dlatego też Łotman określa sen mianem okna semiotycznego217. Natomiast Ponicaré w Nauce i metodzie, podkreśla znaczenie pracy podświadomej. Po zgromadzeniu dostępnego materiału i sformułowaniu problemu, zdarza się najczęściej, że pierwsze próby znalezienia właściwego rozwiązania okazują się daremne. Proces pracy nieświadomej odbywa się często podczas snu, lub gdy myśli naukowca zajęte są czymś innym.
215 Friedrich Nietzsche, Wiedza radosna, słowo/obraz terytoria, Gdańsk 2008, s. 174 – 175 216 Adam Leśniak, Nietzsche — samotnik i marzyciel, http://www.racjonalista.pl/kk.php/s,4938/k,3, 2009-04-09 217 Jurij Łotman, Kultura i eksplozja, dz. cyt., s. 195

79

W konsekwencji podświadomych operacji kształtuje się wizja rozwiązania, która pojawia się w świadomości w sposób nagły218. Psychologia poznawcza opisuje ten proces pojęciami inkubacji i iluminacji219. Należy zwrócić jeszcze uwagę na rolę tak pojmowanej iluminacji. Nie jest ona, jak w drabinie Platona 220, końcowym etapem kształtowania wiedzy, gdyż wymaga jeszcze weryfikacji. W przypadku natchnienia artysty, natchnienie obdarza go ideą, która również wymaga działania dopełniającego twórczy proces (przetłumaczenia jej na zmysłowy język aktu sztuki). Nie jest to jednakże też augustyński iluminizm. Inkubacja poprzedzająca iluminację sama jest poprzedzona świadomym zbieraniem i porządkowaniem danych. Wrażenie, że iluminacja jest początkiem, lub końcem wynika z jej istotnej własności, którą jest przełomowość. Jest ona p r og ie m , rozumianym w sensie Arnolda Mindella, jako uświadomienie treści nieświadomej. Ponicaré przypuszczał, że w procesie inkubacji elementy dostępnej naukowcowi wiedzy tworzą ze sobą w sposób przypadkowy wszelkie możliwe kombinacje221. Elementy te mogą więc zostać połączone w sposób, którego nie dopuszcza logiczna analiza, lub inne schematy rozumowania. Te zaskakujące nowe połączenia są podstawową inspiracją surrealizmu w sztuce. Nauka jednak na surrealizm sobie nie pozwala. Dlatego też powstałe w podświadomości różnorodne i często absurdalne połączenia muszą zostać poddane selekcji. Autor Nauki i metody twierdził, że czynnikiem przesądzającym o skuteczności tej selekcji, jest poczucie piękna i harmonii. Nie starał się on jednak w żaden sposób analizować czym jest owo poczucie. Rozważając ujęcie problemu przecięcia semantycznego proponowane przez Łotmana oraz własne doświadczenia, za odpowiedni wyznacznik skutecznej selekcji treści podświadomych uważam komunikacyjny potencjał formułowanego wyrażenia. Spośród bezliku złożeń dokonanych podświadomie, wybieramy te, które można wyrazić w sposób komunikatywny. Tylko takie wyrażenia mają ponadindywidualną wartość i umożliwiają eksterioryzację własnych idei do obszaru społecznego. Uważam, że dotyczy to w równym stopniu sztuki, jak i nauki, a także innych sposobów poznawania świata. Czy kryterium komunikatywności zwiększa prawdopodobieństwo prawdziwości teorii, w większym stopniu niż kryterium piękna? Trudno stwierdzić, lecz na pewno wysoki stopień komunikatywność idei, zwiększa zakras jej oddziaływani, a co za tym idzie praktyczne jej konsekwencje. Kończąc wstępną analizę semiotyczną teorii świadomości Bense wskazuje, że poglądy wyrażone w Wiedzy radosnej, antycypowały semiotyczną i cybernetyczną teorię świadomości222. Nietzsche przypuszczał, że samoświadomość rozwinęła się pod presją potrzeby komunikacji223, gdyż tylko ten obszar ludzkiej działalności bezwarunkowo wymaga ukształtowania systemu pojęć abstrakcyjnych. Założenie to prowadzi Nietzsche'go do wniosku o ścisłej zależności rozwoju języka i rozwoju świadomości.
218 Wojciech Sady, Spór o racjonalność naukową, dz. cyt., s. 33 219 zobacz: słownik psychologiczny, http://www.psychologia.apl.pl/index.php? option=com_glossary&func=display&letter=I&Itemid=99999999&catid=3&page=1, 2009-04-19 220 Ex cathedra… Andrzeja Nowaka, dz. cyt, 2009-04-19, „…intuicja Platona jest kresem poznania, a intuicja Augustyna jego początkiem.” 221 Wojciech Sady, Spór o racjonalność naukową, dz. cyt., s. 33 222 Max Bense, Świat przez pryzmat znaku, dz. cyt., s. 60 223 Friedrich Nietzsche, Wiedza radosna dz. cyt. s. 244,

80

Stwierdza on: „Człowiek wymyślający znaki to zarazem człowiek coraz wyraźniej świadomy siebie;”224 Czy człowiek taki staje się też bardziej świadomy otaczającej go rzeczywistości? Prawdopodobnie tak, gdyż wraz ze wzrostem ilości znaków i znaczeń zwiększa się ilość jego związków z otoczeniem i w efekcie skuteczność działania. Wielki mag XX wieku Aleister Crowley, pisząc o w i e d z y, zgadzał się z poglądem rozpowszechnionym wśród mistyków, że wiedza wyrażona w języku to iluzja. Krytykował jednakże ignorancję tych, którzy z tego względu z niej rezygnują, podkreślając wartość tej iluzji przy porozumieniu ludzi wspólnie działających. Pisał: „Możemy przeto postrzegać racjonalne rozumowanie jako swego rodzaju projekcję Prawdy w świecie dualizmów, podczas której ten, kto dostąpił Prawdy, nadaje jej postać symboliczną w języku intelektu po to tylko, aby otrzymać jej obraz w postaci Wiedzy”225. O z r oz u m ie n iu natomiast wyraził się następująco: „Jedynym poprawnym i odpowiednim sposobem osiągania Zrozumienia jest zatrzymanie samego procesu rozumowania, dzięki czemu osiąga się stan (…), który pozwala, aby do głosu doszła całkowicie nowa (…) cecha”226. Mistrz magiji miał na myśli stan wewnętrznej ciszy. Zrozumienie, takie jak satori w buddyzmie, osiągalne jest jedynie bez uwikłania w pojęcia. Słowa Crowley to afirmacja, ale przypominają ironiczne przysłowie: wniosek to punkt, w którym człowiek nie ma siły dalej myśleć. Jeśli w przysłowiu tym punkt rozumieć tak, jak punkt widzenia definiował Hilbert227, to faktycznie podważa ono jakąkolwiek ponadindywidualną wartość wniosków. Niemniej jednak indywidualny sposób myślenia prowadzący do nowych sensów, może zostać przyjęty entuzjastycznie przez innych, a nawet przez ogół, jeśli jest on użyteczny w praktycznym działaniu.

224 225 226 227

Tamże, s. 245, Aleister Crowley, Krótkie eseje o prawdzie, Wydawnictwo Okultura, Warszawa 2001, s. 97 Tamże, s. 102 „Każdy człowiek ma jakiś ograniczony horyzont swej wiedzy i zainteresowań. Kiedy zaczyna się on stopniowo kurczyć i w końcu redukuje się do punktu, to właśnie jest to punkt widzenia.”, podaje za: Andrzej Kajetan Wróblewski, Hilbert i Klein, Wiedza i Życie, nr 9/1996, http://archiwum.wiz.pl/1996/96093800.asp, 2009-04-19,

81

4.7. s T o s u n e k c z ę ś c i d o ca ł o ś c i W poprzednich dwóch podrozdziałach wskazałem na wartość natchnienia, czy iluminacji w kształtowaniu nowych sensów; przedstawiłem również zyski i straty jakie niesie ze sobą wtłoczenie prawd objawionych w sztywne ramy języka symbolicznego. W ten sposób wskazałem na procesy psychologiczne, jednakie dla różnych sposobów poznawania świata, ustanawiając znak równości pomiędzy natchnieniem artysty i naukowca. Niezależnie, czy sensem działań jest przekazanie obiektywnej wiedzy, czy subiektywnego przeżycia, jakości emocjonalne kierujące człowiekiem w tym działaniu odgrywają istotną rolę w wyznaczaniu kierunku poszukiwań odpowiednich środków wyrazu. Równoważność ta uprawomocnia zasadność poszukiwania piękna w konstrukcjach intelektualnych, jednak nie odpowiada na postawione w pierwszej części pracy pytania. We wprowadzeniu do pracy zasugerowałem definicję piękna, jako zbioru jakości pociągających ludzi, ze względu na wyzwalane przez nie uczucie przyjemności. Choć przedstawiłem ją w węższym sensie — jedynie w związku z percepcją wzrokową. Uczucie przyjemności może natomiast być wynikiem nie tylko bodźców wzrokowych, ale i innych, a nawet być wyzwalane niezależnie od percepcji, tylko wewnętrznymi procesami. Zadawszy sobie w pierwszej części pracy pytanie o zależność współwystępowania piękna i prawdy w teoriach naukowych wskazałem na różnicę w sposobie w jaki prawdę określa ontologia, a w jaki epistemologia. Przedstawiona hierarchia odkryć wskazywała na wzrost stosowności epistemologicznych metod określania prawdy, wraz ze wzrostem abstrakcyjności teorii, która z fazy odkrywania jednostkowych fenomenów, przechodzi w fazę strukturalną — określania związków między obiektami, w końcu zależności między tymi związkami. Weryfikacja prawdziwości teorii na niższym szczeblu jej rozwoju, odnosi się w bardziej bezpośredni sposób do obserwowanych zjawisk zewnętrznych; natomiast w skutek wzrostu znaczenia reprezentacji symbolicznej na wyższym szczeblu rozwoju teorii, zmniejsza się bezpośredniość odniesień terminów używanych w procesie weryfikacji. Kryterium komunikatywności, na które wskazałem analizując zjawisko iluminacji, nabiera znaczenia przy weryfikacji bardziej abstrakcyjnej teorii. Prawdziwość jej może być określana stopniem jej skuteczność w zastosowaniach praktycznych. Jednakże skuteczność ta zależy również od jej formy, co świadczy o tym, że wartości estetyczne odgrywają również istotną rolę w jej weryfikacji. Wniosek ten wskazuje na związek jakości estetycznych z komunikacyjnymi. Sądzę, że podczas gdy opis bytu obiektu realizuje wyłącznie dążenie do prawdy, w przypadku tworzenia struktur istotną motywacją staje się potrzeba piękna. To teleologiczne przesunięcie nie wskazuje wcale na bezpośrednią zależność prawdziwości i piękna teorii. Wskazuje natomiast, że pięknie skonstruowane teorie mają większą szansę na popularyzację. Są bardziej nośne, a przeto i bardziej praktyczne. Istotne znaczenie, ma więc p r z e d st aw ia n ie p r awdy w s p o s ób pię k ny. P ię k no m a z n a cz e n ie d la n au k i i objawia się w teoriach jako kryterium formy ściśle związane z procesami komunikacji. Odpowiednie proporcje, innowacyjność, brzytwa Ockhama i ekonomia środków, to narzędzia metody zarówno artystycznej, jak i naukowej, mające na celu k sz t a ł t owa n ie for my p r z y je m nej w o d bior z e — moż l iw ie ja k n ajp r o st sz ej.

82

Zgodnie z przytaczanym przez Rudolfa Arnheima podstawowym prawem percepcji wzrokowej228, które można rozszerzyć na całokształt percepcji, gdyż prawo to mniej dotyczy mechanizmu wzroku, a bardziej mózgu. Możliwe jak najprostsza struktura, pozwala odbiorcy lepiej zasymilować doświadczenie płynące z odebranych bodźców. Pomimo wykazanego powyżej związku jakości estetycznych z komunikacyjnym, nie zawsze najprostszą w odbiorze strukturą, jest ta którą najprościej formalnie opisać. Urok form biologicznych i florystycznych ornamentów wynika między innymi z płynności ich kształtów, a jak wskazywał podrozdział Gładkość krzywej, linnie takie są trudniejsze w opisie od odcinków prostych. Gładka linia, jako oznaka wdzięku, bądź finezji, odznacza formy, które odbieramy jako przyjemne ze względu na nasze biologiczne predyspozycje — percepcję wzrokową ukształtowaną poprzez kontakt z naturą. W działaniu intelektualnym gładkości tej odpowiadać może płynność i ogłada prowadzenia dowodzenia. Moje wstępne rozważania zwracały uwagę na znaczenie ornamentu w sztuce, aby zasugerować kontekst odbioru całej niniejszej pracy. Ozdoby tworzone są zarówno po to, by wielbić piękno z jakim ukształtowana może być forma, jak i chwalić intelekt twórcy, a także wrażliwość odbiorcy. Jednym słowem wyobraźnię człowieka. Od wieków znane jest pojęcie piękna jako regularności. Zarówno w działaniach artystycznych, jak i naukowych skłaniać będzie ono twórców do nadawania formie wytworu materialnego, bądź intelektualnego odpowiedniej struktury. Samo pojęcie struktury wywieść można z teorii estetycznych, albowiem te teorie wcześniej niż inne akcentowały problematykę stosunku części do całości podejmując starania mające na celu zdefiniowanie piękna. W teorii sztuki również najwcześniej ukształtowały się idee rozróżnienia formy od treści i znaczenia jako wyniku interpretacji. Idee te ukształtowały fundamenty dla formułowania naukowej teorii znaku o szerszym, a wręcz uniwersalnym zastosowaniu. W Grecji starożytnej harmonia opisywała piękno muzyki wartościami cyfrowymi, a nauka o proporcjach była istotną częścią matematyki. Znany natomiast realizm rzeźb greckich jest świadectwem, potrzeby prawdy ich twórców. Znamienne jest przeto, że inflacja wartości prawdy w sztuce XX wieku zbieżna jest czasowo ze zwróceniem uwagi naukowców na wartość jaką niesie ze sobą piękno. Rozwój fizyki odkrywającej rzeczywistość niedostępną zmysłom, zrodził wymóg przedstawiania skomplikowanej sieci relacji w możliwie jak najprostszy sposób, co skłania naukowców do częstszego stosowania zabiegów upiększających teorie. Jednocześnie też niesie ze sobą ryzyko naginania ich do przyjętych bezkrytycznie idealistycznych wzorców. Problem postawy badacza, jako istotnej determinanty wyników badań jest wyraźnie akcentowany przez ostatnie stulecie, przez wszystkich filozofów nauki skłaniających się ku konwencjonalizmowi. W przypadku niniejszej pracy zachodzi obawa, czy podkreślenie w końcowych wnioskach znaczenia struktury nie jest li tylko wynikiem strukturalistycznej metody. Skupiwszy się na danym aspekcie zagadnienia odkrywamy przede wszystkim znaczenie tego elementu.

228 Rudolf Arnheim, Sztuka i percepcja wzrokowa, Wydawnictwa Artystyczne i Filmowe, Warszawa 1987, s. 65

Wy prowad zenie

84

Zrozumieć świadomość można najpierw z punktu widzenia funkcji znakowej, dopiero potem chodzi o funkcję sądzenia. Max Bense

w yo b r a ź n i a , a r z e c z y w i s T o ś ć W odpowiedzi na pytanie o rodowód struktury, której udzieliłem na zakończenie pierwszej części pracy, orzekłem, że jest ona dziełem twórczej wyobraźni człowieka. O znaczeniu struktury dla metod kodowania wiedzy przekonywał Rudolf Carnap. Na wykładach Form and Content (Forma i treść) wygłoszonych w Londynie w 1932 roku dowodził, iż treść naszych doznań jest niekomunikowalna229. Czysta jakość jest doświadczeniem sensorycznym, należącym jedynie do doświadczającego podmiotu jednostkowego. Dopiero nazwanie i odróżnienie jakości danej oraz porównanie jej z innymi jakościami z tej samej kategorii, stwarza możliwość komunikacji transpersonalnej. Tym, co intersubiektywnie komunikowalne jest właśnie struktura, jako ogół relacji230 i to ona stanowi właściwe tworzywo zarówno teorii naukowych, jak i innych form komunikacji. Podważenie wniosków końcowych w ostatnim akapicie czwartej części wskazywałoby przeto, że jedynie wyobraźnia jest przedmiotem badania. W myśl konwencjonalistycznej filozofii nauki pogląd taki dotyczy nie tylko badań o wysokim stopniu abstrakcyjności (jak te zakresu matematyki, semiotyki, lingwistyki, czy teorii sztuki), ale rozszerza się również na wszelkie dziedziny humanistyki i przyrodoznawstwa. Pogląd taki prowadzi do skrajnego subiektywizmu; taki też był efekt intelektualny rozwoju konwencjonalizmu w XX wieku. Skrajności w filozofii nauki prowadziły do sporów i absurdów. Przykładowo: falsyfikacjonizm Karla Poppera nie wytrzymuje krytyki o charakterze logicznym. Ponad to można zarzucić mu jeszcze, zbytnie oderwanie od realiów. Metodologia Poppera mówi, jak naukowcy postępować powinni, nie jak postępują rzeczywiście231. Idealizm ten degraduje konwencjonalizm do statutu nieużytecznej filozofii. Teorii stylów myślowych Flecka wytykać można natomiast, między innymi niekonsekwencję, którą wyraził Larry Laudan pytaniem (w Nauka i relatywizm. Niektóre kluczowe kontrowersje w filozofii nauki, 1990): czy Fleck był relatywistą w odniesieniu do wszystkiego z wyjątkiem socjologii wiedzy232? Wittgenstein z kolei sam dyskredytuje wartość swoich rozważań, uznawszy filozofię za chorobę umysłową wywołaną złudzeniami lingwistycznymi, powstałymi na skutek wyrywania słów z ich naturalnych kontekstów233.
229 230 231 232 233 Wojciech Sady, Spór o racjonalność naukową, dz. cyt., s. 75-76 Tamże, s. 76 Tenże, Fleck. O społecznej naturze poznania, Prószyński i S-ka SA, Warszawa 2000, s. 35 Tamże, s. 90 Tamże, s. 81

85

W rozważaniach dotyczących estetyki działań intelektualnych ograniczyłem się do skorzystania jedynie z poglądów prekursora konwencjonalizmu, nie tylko dlatego iż kładzie on nacisk na wartość piękna. Moja aprobata poglądów Ponicaré wynika z umiarkowania jego wizji konwencjonalizmu, która nie neguje wszelkich pojęć a priori. Uważał on, że dla zdobywania wiedzy konieczne są pojęcia grupy i zasada indukcji matematycznej234. Osobiście warunków tych nie nazwałbym pojęciami, lecz procesami, gdyż nawet człowiek, który nie potrafi tych pojęć zdefiniować, potrafi wykorzystywać je jako schematy swego myślenia. Taki opis warunków zdobywania wiedzy wskazuje na związki teorii mnogości z psychologią poznawczą, które w badaniach swych eksploatował Piaget. O jego epistemologicznych wnioskach wspomnę w dalszej części tekstu, wpierw jednak pragnę zwrócić uwagę na konsekwencje poglądów konwencjonalistów dla praktyki pedagogicznej. e du k ac ja wo b e c ko n w e n c j o n a l i z m u Pomimo swych wad, teorie radykalnych konwencjonalistów wskazują na istotną cechę wiedzy naukowej, jaką jest jej umowność. O tym, jak szybko sfalsyfikowane może zostać to, co w procesie edukacji zaaplikowano nam jako wiedzę pewną, przekonałem się dobitnie. Właśnie w tygodniu, w którym ukończyłem pracę nad moim tekstem głośno było o odkryciu zaginionego ogniwa. Naukowcy stwierdzają, że wspólnym przodkiem późniejszych małp, małp człekokształtnych i ludzi był lemur Ida235. Następnego dnia na witrynie księgarni zaintrygowała mnie książka Gavina Menziesa 1434 – rok, w którym wspaniała chińska flota pożeglowała do Włoch i zapoczątkowała renesans. Jest to już druga książka tego badacza. Popularyzuje on swoją teorię o chińskich źródłach renesansu od roku 2002, jednakże wcześniej nie dane mi było się z nią zetknąć. Poglądy Menziesa wzbudzają kontrowersje, co jest nieuniknioną reakcją społeczną na rewolucyjne teorie. Wskazany jest oczywiście krytycyzm wobec nowych teorii, które zgromadziły na razie skromny materiał dowodowy. Jednakże powyższymi przykładami chciałem zaakcentować konieczność krytycyzmu wobec teorii naukowych, przyjętych za pewniki. Z drugiej strony funkcjonują również teorie, które pomimo wątłego materiału dowodowego i braku oficjalnego naukowego statutu znajdują licznych zwolenników. Jako przykład chciałbym podać zagadkę Atlantydy. Temat ten zafascynował mnie, gdy byłem dzieckiem. Szczególnie interesująca była dla mnie argumentacja za istnieniem zaginionej wyspy, opierająca się na wykazaniu podobieństw kultur starożytnych odległych lądów. Poznawszy teorię archetypów i podświadomości zbiorowej, wspomniana argumentacja na rzecz prawdziwości mitu o Atlantydzie straciła swoją zasadność. Wspomniane teorie, które zapoczątkował Carl Gustav Jung, mają już prawie stuletnią tradycję. Dostarczają modelu biernych uwarunkowań rozwoju zarówno jednostki, jak i całej kultury. W przypadku ludzi łatwo udowodnić istnienie zbiorowej podświadomości, gdyż jesteśmy zdolni do kodowania przekazów w mitach, symbolach i innych formach wyrazu, które to właśnie były przedmiotem badań reformatora psychoanalizy, podczas formułowania wspomnianej teorii.
234 Tamże, s. 29 235 http://boskiateista.wordpress.com/2009/05/20/oto-zaginione-ogniwo-ludzkiej-ewolucji-to-osmy-cud-swiata/, 2009-05-28

86

Jak natomiast udowodnić istnienie podświadomości zbiorowej na przykład tulipanów? Czy interpretacja obserwacji, skłaniająca niektórych badaczy do hipotezy, że istnieje nielokalny determinant morfogenetyczny, jest tylko mrzonką? Jeśli antropologia, podobnie jak fizyka akceptuje współcześnie zjawiska nielokalne, na przeszkodzie akceptacji takich zjawisk w biologii stoi brak empirycznych dowodów. Do koncepcji formułującej model dynamicznych uwarunkowań ewolucji gatunku powrócę na zakończenie wywodu. Świadomość konwencjonalnego charakteru teorii naukowych pozwala na stwierdzenie, iż autorytarny sposób prezentacji wiedzy w procesie edukacji jest procederem nieetycznym. Wobec tego, istotną wartość dla pedagogiki przedstawiają anarchistyczne tezy Paula Feyerabenda, wyłożone w Przeciw metodzie. W autokratycznej dominacji scjentystycznego światopoglądu widzi on czynnik hamujący rozwój cywilizacji, a przede wszystkim indywidualny rozwój osobniczy. Postuluje on poskromienie nauki, między innymi przez wprowadzenie zapisu o rozdzieleniu nauki od państwa, czy przyznaniu magom dotacji publicznych proporcjonalnych do tych udzielanym naukowcom. Feyerabend zwraca uwagę na konieczność obalenia mitów jedynej słusznej metody poznania i jej obiektywności, które kiedyś służyły uzasadnieniu dominacji religii, by później stać się narzędziami scjentystycznego terroru. 236. Pierwsza część niniejszej pracy skupiała się, między innymi na wskazaniu wspólnych atrybutów odmiennych sposobów poznawania świata, jakimi są nauka i sztuka. Określenie mózgu, jako organu uwagi skierowanej na życie, którego w swym wykładzie dotyczącym relacji między duszą, a ciałem użył Bergson, wydało mi się trafnym wskaźnikiem asymilacyjnego charakteru ludzkiego poznania. Nawiązanie do tej refleksji znajduje się na początku rozdziału o skuteczności i ograniczeniach języka. Struktury poznawcze, pierwotnie spełniające jedynie funkcje przystosowawcze, są do tych funkcji odpowiednio przystosowane. W stwierdzeniu tym tautologia zastosowana jest celowo, by zwrócić uwagę na sprzężenie zwrotne, jakiemu struktury poznawcze podlegają zarówno w filogenezie, jak i ontogenezie. Myślę więc, że sam fakt, że żyjemy, przekonuje do tego, iż znamy w pewnym wąskim — wystarczającym dla życia zakresie, obiektywnie istniejącą rzeczywistość. Zakładam też, pomimo wszelkich zastrzeżeń, że obiektywizm w nauce, choć relatywistyczny jest możliwy. Niektórzy z konwencjonalistów, jak na przykład Imre Lakatos, zgodni byli z leninowskim aksjomatem materializmu, postulującym byt niezależny od naszego umysłu, który przez ten umysł eksplorowany może być w nieskończoność. „Sam Peirce [w przeciwieństwie do kontynuatorów pragmatyzmu] pojmował (…) prawdę realistycznie, jako coś, co odkrywa się w nieskończonym, samokorygowalnym procesie badania naukowego, jako idealną granicę poznania”237. Lakatos należał do tych, którzy wierzą w postęp nauki rozumiany, jako przybliżanie się do prawdy obiektywnej i za kryterium tego zbliżenia uznaje stopień empirycznego potwierdzenia teorii. Choć zdaje on sobie sprawę z zawodności tego kryterium. Wskazywał on na niski poziom metafizyki indukcyjnej, „ale jednocześnie wyrażał nadzieję, że w przyszłości autentycznie epistemologiczna teoria połączy metodologiczne normy z pojęciem podobieństwa do prawdy”238.
236 Wojciech Sady, Spór o racjonalność naukową, dz. cyt., s. 226 – 228 237 Tenże, Fleck, dz. cyt. s. 102 238 Tamże, s. 201 – 202

87

o d ro dz e n i e e pi s T e m o l o g i i Dążenie do określenia metodologicznych norm procesu formułowania prawd o rzeczywistości jest istotną motywacją wielu wybitnych uczonych. Rozważania i badania ukierunkowane na osiągnięcie tego celu obejmują swym zakresem szeroki wachlarz dziedzin nauki: od logiki do semiotyki, od cybernetyki do neurokognitywistyki i od socjologii wiedzy do psychologii poznawczej… Epistemologia przestała być domeną tylko metafizyki. Przykładem postępu wiedzy w tym kierunku jest zaznaczone we wprowadzeniu, sformułowanie przez Bense’a semiotycznej teorii rzeczywistości teoriopoznawczej. Pozwala ona poprzez określenie tematyki realności znaków na analizę relacji danej teorii do fizycznej rzeczywistości239. Innym przetartym szlakiem dla ukształtowania naukowej epistemologii jest psychologizm Piageta. Jak Kant wskazał drogę ku rozstrzygnięciu sporu racjonalistów z empirystami, tak szwajcarski biolog zaprezentował sposób rozwiązania kontrowersji między pozytywistycznym empiryzmem, a aprioryzmem240. Wychodząc z założenia, że psychologia bada niższe bardziej, podstawowe zjawiska niż epistemologia, na podstawie swoich badań związanych z opracowaniem teorii rozwoju poznawczego, stworzył poprzez cząstkowo–eksplikacyjną redukcję241 epistemologię genetyczną. Jest to oryginalna, teoretyczna koncepcja świadomości, myślenia i działania, którą charakteryzuje między innymi powiązanie subiektywnego (racjonalnego) kontekstu ludzkich zachowań z ich kontekstem obiektywnym (funkcjonalnym)242. Piaget zwraca uwagę na podstawowe znaczenie zależności poznania empirycznego od umysłowych struktur logiczno–matematycznych podmiotu poznającego, których źródłem są wrodzone struktury odruchowe i doświadczenie w operacjach myślowych 243. Krytykuje on empiryzm logiczny Koła Wiedeńskiego za nominalistyczną interpretację składni języka, której konsekwencją jest zerwanie więzi łączących język z jego użytkownikami. Szansę osiągnięcia jedności nauki przywraca, według Piageta, ponowne włączenie operacji umysłowych do procesu poznania244. Z drugiej strony wysiłki licznej grupy informatyków dążą w tym samym kierunku z przeciwnej strony. Opracowano skuteczne metody tworzenia algorytmów syntaktycznych 245, które znajdują szerokie zastosowanie w procesach przetwarzania informacji. Kolejnym etapem badań stanowiącym wielkie wyznanie dla informatyków ze znajomością językoznawstwa są algorytmy semantyczne.
239 Max Bense, Świat przez pryzmat znaku, dz. cyt., rozdział: Klasa znaków i tematyka realności, s. 74-100 240 Krystyna Zamiara, Epistemologia genetyczna Piageta a społeczny rozwój nauki, Państwowe Wydawnictwo Naukowe, Warszawa – Poznań 1979, s. 109 241 Tamże, s. 25 R e d u k c j a c z ą s t k o w o – e k s p l i k a c y j n a — polega na wyodrębnieniu podsystemu z systemu redukowanego (w tym wypadku epistemologii) i wykazaniu, że zawiera się on w zbiorze konsekwencji logicznych systemu redukującego (w tym wypadku psychologii poznawczej). 242 Tamże, s. 26 243 Tamże, s. 108 244 Jean Piaget, Psychologia i Epistemologia, Warszawa 1977, podaje za: Krystyna Zamiara, Epistemologia genetyczna Piageta, dz. cyt., s. 107 245 Syntaktyczne metody dowodzenia twierdzeń wykorzystują tylko strukturę wyrażeń logicznych, w przeciwieństwie do wnioskowania semantycznego wykorzystującego znaczenie poszczególnych wyrażeń. podaje za: http://dydaktyka-zis.aei.polsl.pl/G-MSIwB/laboratorium/Skrypt%20Metody%20sztucznej%20 inteligencji%20%20laboratorium/KSimek_-_Syntaktyczny_system_wnioskowania.pdf, 2009-06-01

88

W bieżącym roku 2009 swoją premierę miała wyszukiwarka semantyczna WolframAlpha. „Jej twórca obdarzył ją pewną szczątkową zdolnością dedukcji. Jego kolejnym celem jest rozszerzenie obszaru działania na nowe typy wiedzy i dodanie umiejętności odpowiadania na rozmyte (niefaktograficzne) pytania”246. „Celem [tego projektu] jest doprowadzenie do sytuacji, w której usługa będzie prawidłowo rozpoznawać pytania zadawane w języku naturalnym i formułować proste odpowiedzi na bazie uprzednio zindeksowanej zawartości. (…) Usługa różni się od konkurencji tym, że nie przechowuje gotowych odpowiedzi na konkretne pytania. Wyniki tworzone są wtedy, gdy są potrzebne.”247. Wyszukiwarka bez problemów operuje wiedzą ścisłą, a odpowiedzi obliczane są w czasie rzeczywistym248. Przykładowo wpisać możemy wzór dowolnego związku chemicznego, a przedstawiony wynik zawierać będzie wykres konstrukcji cząsteczki interesującego nas związku, oraz obliczoną masę atomową. Jeśli z kolei wpiszemy literami sekwencje muzyczną, otrzymamy zapis nutowy i midi. Z utęsknieniem czekam na wersję spolszczoną. Innym projektem z silnikiem wyszukiwarki semantycznej jest skierowany do naukowców serwis ResearchGATE249. Ambitne programy informatyczne stawiają sobie za cel usprawnienie komunikacji pomiędzy człowiekiem i maszyną; „do tego by mogły one [wyszukiwarki semantyczne] funkcjonować, potrzebna jest reorganizacja informacji oraz zupełnie inne podejście do ich katalogowania”250. Doceniając wysiłki konstruktorów sztucznej inteligencji, pamiętać należy o zastrzeżeniach wobec tłumaczenia języka naturalnego na sztuczny, wyrażanych w poglądach wspomnianych w niniejszym opracowaniu naukowców i filozofów (Zadeha, Penrose, Korzeniewski). Poglądy takie nie kwestionują wcale wartości metod matematycznych, a przeciwnie — wzbogacają je, dynamizując procesy formułowania nowych, użytecznych modeli i kultywując humanistyczne wartości. l u dz k i s T o s u n e k d o r z e c z y Ludzki stosunek do rzeczy, którego wyrazem jest zaszczepianie subtelności i ścisłości matematyki wszystkim nauką, wskazywałby na humanizm matematyki. To właśnie wskazanie miałem za cel, przytaczając zdanie Nietzsche’go w nagłówku do drugiej części pracy. Choć matematyka zaliczana jest przez tradycyjną systematykę do nauk formalnych, nie można przeoczyć przecież faktu, że stworzyli ją ludzie. Omawiane badania podstaw matematyki, mające za cel ugruntowanie jej formalizmu, doprowadziły w konsekwencji do teorii akcentujących udział czynnika ludzkiego w formułowaniu każdej logiki i aksjomatyki. Skutkiem takich wniosków stało się ponowne (bo przywracające grecki porządek) zobowiązanie matematyków do znajomości filozofii.
246 Wojciech Wowra, Wolfram Alpha zmieni sposób poszukiwania wiedzy w Sieci? http://webhosting.pl/Wolfram.Alpha.zmieni.sposob.poszukiwania.wiedzy.w.Sieci, 2009-06-02 247 Tamże, wówczas 248 To d a y ' s Wo l f r a m | A l p h a i s t h e f i r s t s t e p in an ambitious, long-term project to make a l l sy st e matic k n o w le d g e imme d iate ly c omputa ble by a nyone podaje za: http://www.wolframalpha.com/, 2009-06-02 249 Na podstawie wywiadu serwisu CORDIS News z Alexandrem von Freyhold-Hünecken http://cordis.europa.eu/fetch?CALLER=PL_NEWS_INTERVIEW&ACTION=D&DOC=12&CAT=NEWS&QUERY=012 17f7f099f:f113:4d11d225&RCN=30144, 2009-06-02 250 http://antyweb.pl/czy-semantyczne-wyszukiwarki-pogrzebia-seo/, 2009-06-02

89

Poprzedni podrozdział wskazuje, w jak wielkim stopniu informatycy potrzebują językoznawców, by w sposób praktyczny stosować modele matematyczne. Potrzeba uzgadniania języka formalnego z naturalnym, rosnąca wraz z wpływem środowiska cyfrowego na działalność ludzką, sprawiła iż obszar badań nad językiem stał się płaszczyzną porozumienia nauk ścisłych z humanistycznymi. Ten front badawczy jest owocny w twórcze osiągnięcia, będące wynikiem tego porozumienia; nie jest jednakże wolny od zażartych sporów. Konwencjonalizm rozpropagowawszy relatywizm, podważył obiektywizm prowadząc do sytuacji, w której przyrodnik może być jawnym solipsystą251, czego najbardziej radykalnym przykładem jest kwantowa szarlataneria252. Zależność wyników eksperymentu fizycznego od orientacji badacza, rozszerzana jest na zależność samych faktów od obserwatora. Taka interpretacja popularyzowana jest często być może tylko ze względów marketingowych. Moja, wyrażona w poprzednim podrozdziale wiara w obiektywizm relatywny, nie jest wolna od pytania o absolut, który byłby realizacją ludzkiej potrzeby niewzruszonego fundamentu ontycznego. Czy absolut to faktycznie odniesienie urojone, jak głosi Bernard Korzeniewski.253? Wykład jego bezsprzeczne udowadnia, że jako pojęcie absolut odniesienia nie znajdzie. Czy w związku z tym, należy zanegować istnienie jakiejkolwiek hipostazy? Moim zdaniem nie i za taką uznaję świadomość. Nie sądzę by świadomość, jako substancja sieci pojęciowej zamknięta była w czaszce. Ujęcie pojęcia świadomości, jako wyniku potrzeby komunikacji (którego słuszności dowodzi funkcjonalność cybernetycznych i semiotycznych metod jej badania) prowadzi Nietzsche’go do wniosku, że to, co w nas świadome jest jednocześnie najmniej zindywidualizowane. Pisze on, że to perspektywa stada i geniusz gatunku, rządzi świadomością 254. Pogląd taki neguje powszechne łączenie samoświadomości z indywidualnością. Zastanawiając się czym jest ta globalna świadomość powrócę do zasygnalizowanego pytania o nielokalny determinant morfogenetyczny. Od lat dwudziestych XX wieku zaczęła się upowszechniać teoria głosząca, że na proces rozwoju kształtu organizmów mają wpływ pola morfogenetyczne255. Są to hipotetyczne pola energii nie znanej fizyce, mogą być traktowane jako uogólnienie podświadomości zbiorowej stosowane na równi do wszystkich form żywych, a nawet kryształów. Ideę tę popularyzuje między innymi Rupert Sheldrake256. O ludzkiej matrycy pisał też Carlos Castaneda. Jego nauczyciel szamańskich praktyk tłumaczył istnienie wiązki energii charakterystycznej dla każdego z gatunków257. Zwraca uwagę, że kontakt z matrycą wielu mistyków skłonił do wysnucia błędnego wniosku, że jest ona Bogiem wszechmogącym, który stworzył ludzi na swój obraz i podobieństwo258. Skoro fizyka w XX wieku poszerzyła obszar swoich badań tak, że nie obejdzie się już bez terminów teoretycznych, nieredukowalnych do obserwacyjnych; może to samo fazowe przejście czeka w niedalekiej przyszłości również biologię?
251 S o l i p s y z m — pogląd filozoficzny głoszący, że istnieje tylko jednostkowy podmiot poznający, cała rzeczywistość jest natomiast jedynie zbiorem jego subiektywnych wrażeń podaje za: http://pl.wikipedia.org/wiki/Solipsyzm, 2009-06-05 252 Zobacz artykuły: Vi c t o r J . S t e n g e , osiągalne w tłumaczeniu Małgorzaty Koraszewskiej, na portalu racjonalista.pl 253 Bernard Korzeniewski, Absolut, dz. cyt. 254 Friedrich Nietzsche, Wiedza radosna dz. cyt. s. 246, 255 Foley Ewa, http://blog.foley.com.pl/?p=177, 2009-05-29 256 http://pl.wikipedia.org/wiki/Pole_morfogenetyczne, 2009-05-29 257 Carlos Castaneda, Wewnętrzny ogień, Dom Wydawniczy Rebis, Poznań 1997, s. 269 258 Tamże, s. 272

90

• Mam nadzieję, że udało mi się wyprowadzić z równowagi struktury poznawcze, niektórych czytelników, co zaowocuje bardziej pragmatycznym ich zrównoważeniem, a w efekcie przyczyni się do rozwoju świadomości zbiorowej oraz nauki.

Pragnę podziękować prof. dr hab. Marii Mendel za poskromienie mojej wybujałej wyobraźni i zawężenie problematyki rozważań dzięki czemu praca niniejsza mogła zostać napisana w skończonym czasie.

92

Bibliog raf ia
• • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • Atkins Peter, Palec Galileusza, Dom Wydawniczy Rebis, Poznań 2006. Bense Max, Świat przez pryzmat znaku, Państwowy Instytut Wydawniczy, Warszawa 1980. Bergson Henri, Myśl i ruch. Dusza i ciało, Państwowe Wydawnictwo Naukowe, Warszawa 1963. Bolter J. David, Człowiek Turinga. Kultura Zachodu w wieku komputera, Państwowy Instytut Wydawniczy, Warszawa 1990. Castaneda Carlos, Wewnętrzny ogień, Dom Wydawniczy Rebis, Poznań 1997. Crowley Aleister, Krótkie eseje o prawdzie, Wydawnictwo Okultura, Warszawa 2001. Dewey John, Sztuka jako doświadczenie, Wydawnictwo Polskiej Akademii Nauk, Gdańsk 1975. Ditfurth Hoimar von, Duch nie spadł z nieba, Państwowy Instytut Wydawniczy, Warszawa 1989. Douglas Rushkoff, Cyberia. Życie w okopach hiperprzestrzeni, Wydawnictwo Okultura, Warszawa 2008. Escher M. C., Grafiki, Edipres Polska S..A., Warszawa 2005. Fraser B., Murphy C., Bunting F., Profesjonalne zarządzanie barwą, Helion, Gliwice 2006. Friedrich Nietzsche, Wiedza radosna, słowo/obraz terytoria, Gdańsk 2008. Gadacz Tadeusz, Historia Filozofii XX wieku nurty, tom 1, Znak, Kraków 2009. Ghyka Matila C., Złota Liczba. Rytuały i rytmy pitagorejskie w rozwoju cywilizacji zachodniej, Towarzystwo Autorów i Wydawców Prac Naukowych Universitas, Kraków 2001, wyd. I. Heller Michał, Początek jest wszędzie, Prószyński i S.–ka, Warszawa 2002. Hoimar von Ditfurth, Duch nie spadł z nieba, Państwowy Instytut Wydawniczy, Warszawa 1989. James William, Pragmatyzm, Książka i wiedza, Warszawa 1957. Kandynsky Wasyl, Punkt i linia, a płaszczyzna, Państwowy Instytut Wydawniczy, Warszawa 1986. Kant Imanuel, Antropologia w ujęciu pragmatycznym, Wydawnictwo IFiS PAN, Warszawa 2005. Pierce John R., Symbole, sygnały i szumy. Wprowadzenie do teorii informacji, Państwowe Wydawnictwo Naukowe, Warszawa 1967. Pieriepielicyn Michaił Lwowicz, Przestrzenne postrzeganie Świata, Orion, Warszawa 1997. Roman Duda, Matematyka między duchem i materią w Ku interdyscyplinarności, Wydawnictwo Uniwersytetu Wrocławskiego 2008. Rudolf Arnheim, Sztuka i percepcja wzrokowa, Wydawnictwa Artystyczne i Filmowe, Warszawa 1987. Sadowki Witold, Femme Fatale, Prószyński i S.–ka, Warszawa 2000. Sady Wojciech, Fleck. O społecznej naturze poznania, Prószyński i S-ka SA, Warszawa 2000, Słownik wyrazów obcych, pod red. Doc. dr Jana Tokarskiego, Państwowe Wydawnictwo Naukowe, Warszawa. Sonin Anatolij S., O krystalografii, Państwowe Wydawnictwo Naukowe, Warszawa 1982. Tatarkiewicz Władysław Historia Filozofii, Tom I, Państwowe Wydawnictwo Naukowe, Warszawa 1970. Tempczyk Michał, Redukcjonizm jako centralne zagadnienienie formalnej filozofii nauki, w Studia Filozoficzne, nr 11 – 12, 1985, Państwowe Wydawnictwo Naukowe. Zamiara Krystyna, Epistemologia genetyczna Piageta a społeczny rozwój nauki, Państwowe Wydawnictwo Naukowe, Warszawa – Poznań 1979. Zawadowski Wacław, Mozaiki matematyczne, Wydawnictwa Szkolne i Pedagogiczne, Warszawa 1989.

93

Źródła inter netowe
• • Błędzka Michalina, Weber Adrianna, Sendłak Maciej, Metodologia nauk. http://rowerowy.szczecin.pl/f/pliki/3ci/skrypty/ Modelowanie.doc, 2009-04-10 Ciesielski Krzysztof i Pogoda Zdzisław, Diamenty matematyki, http://www.wiw.pl/matematyka/diamenty/diamenty_05_01.asp, 2009-03-03 http://www.wiw.pl/matematyka/diamenty/diamenty_05_02.asp, 2009-03-03 http://www.wiw.pl/matematyka/diamenty/diamenty_05_02.asp, 2009-03-03 http://www.wiw.pl/matematyka/diamenty/diamenty_05_03.asp, 2009-03-03. • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • Foley Ewa, http://blog.foley.com.pl/?p=177, 2009-05-29 http://almanach-litera.aine.pl/pl/kratohvil_walerij/jasnowidzenie.html, 2009-04-23.
http://antyweb.pl/czy-semantyczne-wyszukiwarki-pogrzebia-seo/, 2009-06-02

http://archiwum.wiz.pl/2001/01093200.asp, 2009-04-14. http://boskiateista.wordpress.com/2009/05/20/oto-zaginione-ogniwo-ludzkiej-ewolucji-to-osmy-cud-swiata/, 2009-05-28. http://cordis.europa.eu/fetch?CALLER=PL_NEWS_INTERVIEW&ACTION =D&DOC=12&CAT=NEWS&QUERY=01217f7f099f:f113:4d11d225&RCN=30144, 2009-06-02 http://en.wikipedia.org/wiki/Aristid_Lindenmayer i http://en.wikipedia.org/wiki/Twistor_theory, 2009-04-20 http://histmag.org/?id=762, 2009-04-14 Szymańczak Karolina, Lekarz architektur y. http://mathworld.wolfram.com/topics/Tiling.html http://pl.wikipedia.org/wiki/27114_Lukasiewicz, 2009-04-02 http://pl.wikipedia.org/wiki/Assemblage, 2009-03-28 http://pl.wikipedia.org/wiki/Benoît_Mandelbrot, 2009-05-12 http://pl.wikipedia.org/wiki/Efekt_Droste, 2009-05-13 http://pl.wikipedia.org/wiki/Elementy, 2009-02-12 http://pl.wikipedia.org/wiki/Fraktal, 2009-05-13 http://pl.wikipedia.org/wiki/Geometria_hiperboliczna 2009-03-30 http://pl.wikipedia.org/wiki/Hipoteza_Poincarégo, 2009-04-03 http://pl.wikipedia.org/wiki/Holografia, 2009-04-23 http://pl.wikipedia.org/wiki/Iteracja, 2009-03-28 http://pl.wikipedia.org/wiki/Jan_Łukasiewicz, 2009-04-02 http://pl.wikipedia.org/wiki/Kardioida, 2009-04-23 http://pl.wikipedia.org/wiki/Kolaż, 2009-03-28 http://pl.wikipedia.org/wiki/Leonhard_Euler, 2009-04-18 http://pl.wikipedia.org/wiki/Logika_modalna, 2009-04-22 http://pl.wikipedia.org/wiki/Logika_rozmyta, 2009-02-26 http://pl.wikipedia.org/wiki/Logika_wielowartościowa, 2009-02-26 http://pl.wikipedia.org/wiki/Logika_wielowartościowa, 2009-02-26 http://pl.wikipedia.org/wiki/L-system, 2009-05-13 http://pl.wikipedia.org/wiki/Macierz#Podstawowe_pojęcia, 2009-04-20

94

• • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • •

http://pl.wikipedia.org/wiki/Metamatematyka, 2009-03-10 http://pl.wikipedia.org/wiki/Paul_Lévy, 2009-05-12 http://pl.wikipedia.org/wiki/Pole_morfogenetyczne, 2009-05-29 http://pl.wikipedia.org/wiki/Przestrzeń_metryczna, 2009-04-20 http://pl.wikipedia.org/wiki/Regularność_funkcji, 2009-04-28 http://pl.wikipedia.org/wiki/Rzymski_system_zapisywania_liczb, 2009-03-24 http://pl.wikipedia.org/wiki/Solipsyzm, 2009-06-05 http://pl.wikipedia.org/wiki/Spinor#Zastosowania, 2009-04-20 http://pl.wikipedia.org/wiki/Tensor#Rząd_tensora, 2009-04-20 http://pl.wikipedia.org/wiki/Topologia, 2009-04-06 http://pl.wikipedia.org/wiki/Twierdzenie_Gödla, 2009-02-05 http://pl.wikiquote/wiki/Matematyka, 2009-02-26 http://rowerowy.szczecin.pl/f/pliki/3ci/skrypty/ Modelowanie.doc, 2009-04-10 http://solaris.lem.pl/content/view/136/96/1/1/, 2009-04-11 http://www.biolog.pl/article24.html, 2009-04-15 http://www.bookrags.com/biography/benoit-b-mandelbrot/, 2009-05-12 http://www.myspace.com/twistor, 2009-04-20 http://www.psychologia.apl.pl/index. http://www.sciaga.pl/tekst/40118-41-rola_kaplanow_i_religii_w_starozytnych_cywilizacjach, 2009-03-28 http://www.slownik-online.pl/kopalinski/5F64E90CE5E5166CC12565940074BBFC.php, 2009-04-16 http://www.slownik-online.pl/kopalinski/A9394F5B847389F4C12565DB005A59AC.php, 2009-04-22 http://www.tessellations.org Kępka Janusz B., Dziwny jest ten świat — Alberta Einsteina przekręty, http://www.aferyprawa.com/index2.php?p=teksty/pokaz&id=2307, 2009-05-08. Korzeniewski Bernard, Absolut — odniesienie urojone, Kraków 1994, Racjonalista.pl 2004. Labisko Agnieszka, Hipoteza Poincarégo, http://www.polskieradio.pl/nauka/wszechswiat/artykul4213.html, 2009-05-08. Leśniak Adam, Nietzsche — samotnik i marzyciel, http://www.racjonalista.pl/kk.php/s,4938/k,3, 2009-04-09. Leśniak Krzysztof, Majowie, http://www-users.mat.uni.torun.pl/~much/maya.html, 2009-03-16 Łotman Jurij, Kultura i eksplozja, Państwowy Instytut Wydawniczy, Warszawa 1999. Mały słownik matematyczny, Państwowe Wydawnictwo „Wiedza powszechna”, Warszawa 1974. Miś Bogdan, Matematyka w toalecie, Wiedza i Życie nr 9/2001. http://archiwum.wiz.pl/2001/01093200.asp, 2009-04-14 Néret Gilles, Gustav Klimt, Edipresse, Warszawa 2005. Nowak Andrzej, Ex cathedra: akademicka strona filozoficzna i privatissimum, http://apertum.110mb.com/faq.html#znak, 2009-04-22. Ochocki Kazimierz, Spory o pojęcie materii, Wiedza Powszechna, Warszawa 1979. Palczewski Rafał, Reprezentacja logiczna wiedzy i przekonania. Podstawowe problemy logiki epistemicznej, http://www.kognitywistyka.net/artykuly/rp-rlwippple.pdf, 2009-04-22

php?option=com_glossary&func=display&letter=I&Itemid=99999999&catid=3&page=1, 2009-04-19

95

• •

Pawlik Marcin, Matematyka arabska, 2005 http://akson.sgh.waw.pl/~mp26100/papers/matisl.pdf, 2009-02-11 Sady Wojciech, Spór o racjonalność naukową — Od Poincarégo do Laudana, http://sady.umcs.lublin.pl/sady.racjnauk0.htm, 2009-04-09, http://www.scribd.com/doc/8220980/Wojciech-Sady-Spor-o-Racjonalno-Naukow, 2009-03-27.

Simek K., Syntaktyczny system wnioskowania http://dydaktyka-zis.aei.polsl.pl/G-MSIwB/laboratorium/Skrypt%20Metody%20sztucznej%20 inteligencji%20%20laboratorium/KSimek_-_Syntaktyczny_system_wnioskowania.pdf, 2009-06-01.

• • • • • •

Sobol-Kołodziejczyk Piotr, Dwa pojęcia obliczania, http://wiedzaiedukacja.pl/archives/9843, 2009-03-24 Sysło Maciej M., Algorytmy, http://www.wsipnet.pl/dane/pliki/kluby/8//Algorytmy.pdf, 2009-02-28 Szczerba Dominik, Fraktalne oblicze Natury, w Wiedza i Życie, nr 10/1996. http://archiwum.wiz.pl/1996/96101900.asp, 2009-05-13 Wowra Wojciech, Wolfram Alpha zmieni sposób poszukiwania wiedzy w Sieci? http://webhosting.pl/Wolfram.Alpha.zmieni.sposob.poszukiwania.wiedzy.w.Sieci, 2009-06-02. Wróblewski Andrzej Kajetan, Hilbert i Klein, Wiedza i Życie, nr 9/1996, http://archiwum.wiz.pl/1996/96093800.asp, 2009-04-19. http://www.wolframalpha.com/, 2009-06-02.

Sign up to vote on this title
UsefulNot useful