You are on page 1of 36

MOGU LI MAŠINE IMATI MENTALNA STANJA

DEVIĆ RUŽICA
SADRŽAJ

 Uvodno izlaganje ........................................................................ 3

 Mentalna stanja, svest i intencionalnost .................................. 7

 Funkcionalizam, kompjutacionizam i Turingova mašina ..... 16

 Misaoni eksperiment kineska soba........................................... 30

 Zaključno razmatranje ............................................................. 36

 Literatura ................................................................................... 39
UVODNO IZLAGANJE

Munjevit napredak kompjuterske nauke i tehnologije u poslednjih trideset godina postavio je u centar
interesovanja pitanje veštačke inteligencije. Sa pojavom sve složenijih i sofisticiranijih kompjuterskih
sistema, kao što su kompjuteri koji igraju šah, rešavaju matematičke probleme, sa pojavom robota sposobnih
za obavljanje kućnih poslova, kao i sa pojavom prvih androida, odnosno humanoidnih robota, čini se da je
samo pitanje vremena kada ćemo prihvatiti ideju o inteligentnim mašinama. Još uvek smo tek na početku
priče o inteligentnim mašinama. Bez obzira na činjenicu da razvoj kompjuterskih sistema posle drugog
svetskog rata ide konstantnom uzlaznom linijom, sam napredak veštačke inteligencije i nije tako konstantan,
neki bi možda rekli i da je stagnirajući. Možda se sa pravom možemo pitati zašto se danas, na početku 21.
veka još nisu pojavili prvi veštački inteligentni sistemi (gde pod inteligencijom podrazumevamo svestranost
radnji i mi{ljenja), i da li nas to onda može voditi zaključku da svesna veštačka inteligencija nije moguća.
Ipak, moraju se primetiti dosadašnji uspesi na polju veštačke inteligencije, pa tako i pomenuti trijumf Deep
Blu-a, kompjutera koji je 1997. godine pobedio svetskog šampiona u šahu, Garry Kasparova. U svakom
slučaju to možemo nazvati prvim velikim trijumfom mašine nad čovekom. Bitna činjenica je i to što rad na
veštačkoj inteligenciji zahteva dosta novčanih ulaganja, pa sve dok se interes onih koji raspolažu takvim
sredstvima ne usmeri u potpunosti ka toj ideji, velike rezultate ne možemo još očekivati. Razlog je verovatno
i taj što je ideja o veštačkoj inteligenciji još uvek predmet sukoba i suprostavljenosti među filozofima i
naučnicima, što znači da je još uvek nedovoljno istražena oblast, te izreći sud da će se u sledećih 50 godina
pojaviti prve svesne, inteligentne mašine, znači izreći lično, subjektivno mišljenje, koje možete potkrepiti
izvesnim argumentima, ali opet argumentima koji su podložni različitim tumačenjima.

Mnogi protivnici ideje o veštačkoj inteligenciji ne osporavaju činjenicu da su mašine sposobne za mnoge
poslove i da u nekim stvarima mogu oponašati čoveka, ali smatraju da ta činjenica nije dovoljna da bi se
tvrdilo da će jednog dana biti moguće inteligentne, svesne mašine. Jedan od osnovnih razloga za takvu
tvrdnju jeste činjenica da su mašine programirane, odnosno činjenica da su njihove funkcije unapred
određene od strane čoveka i da one kao takve ne mogu delovati izvan tog okvira. To da je mašina
programirana znači da je u nju ugrađen skup pravila i instrukcija pomoću kojih je mašina u mogućnosti da
obavi određeni zadatak koji joj je postavljen, i ništa izvan toga. Moglo bi se reći da je inteligencija mašina
unapred strogo definisana, sa jasnom funkcijom i svrhom, te da tako nema mesta za raznovrsnost u
interesima i nepredvidljivost u delovanju, koji su bitni elementi ljudske inteligencije. Tu bi onda bilo reči o
inteligenciji koja se svodi na čisto izvršavanje određenih operacija za koje je ta inteligencija unapred i
programirana da izvrši. Smatra se da između tako shvaćene, odnosno programirane inteligencije, i ljudske
inteligencije, nema mnogo sličnosti i da onda zapravo i ne možemo govoriti o inteligenciji kod mašina bez
obzira na to što mašina može biti sposobna za obavljanje određenih operacija koje bi mogli nazvati
inteligentnim. Odnosno, takvoj inteligenciji bi nedostajala svesnost, kako svest o spoljašnjem svetu tako i
svest o samoj sebi i unutrašnjim procesima, ili samosvest, a upravo se to smatra bitnim momentom ljudske
inteligencije. Svest bi tako bila onaj element ljudske inteligencije koji čini da inteligenciju ne shvatamo kao
puki mehanizam, ili da je ne svodimo na čisto izvršavanje određenih logičkih operacija. Smatra se da je svest
biološke prirode i da ne može biti veštački stvorena, dok je inteligencija u smislu prostog izvršavanja
logičko-matematičkih operacija veštački ostvarljiva. To bi vodilo zaključku da posedovanje inteligencije u
tom tehničkom smislu ne mora biti dovoljno za pojavu svesti.

To da li ćemo mašinama sposobnim za izvršavanje određenih logičko-matematičkih operacija pripisati


inteligenciju i svesnost ili ne, zavisi i od toga kako uopšte shvatamo inteligenciju i šta podrazumevamo pod
svešću. Pojam inteligencije i pojam svesti su još uvek nedefinisani i neodređeni pojmovi. Ne zna se tačno šta
je svest i kako nastaje svest, ili gde nastaje u mozgu. Ne zna se ni tačna povezanost svesti sa inteligencijom,
pa tako postoje podeljena mišljenja u vezi toga da li je moguća inteligencija bez svesti i obrnuto i da li je
inteligencija dovoljan i nužan uslov za pojavu svesti. Čini se da su ovi pojmovi još uvek prožeti velom tajne i
da tek treba da razbijemo mitove koje je istorija mišljenja vezala za njih.

Dugo su kroz istoriju filozofije pojmovi ljudskog uma i svesti bili neprikosnoveni pojmovi, kao nešto sveto i
čisto ljudsko, suštinski element ljudske veličine. Ovi pojmovi se nisu stavljali pod pitanje. Smatra se da iza
protivnika ideje o svesnim i inteligentim mašinama stoji strah od oduzimanja jedine stvari koja se smatra
čisto ljudskom, i takav stav da je samo čoveku dozvoljeno da poseduje um i svest bi se mogao okarakterisati
kao šovinistički i diskriminativan. Mora se priznati da ima nečeg zastrašujućeg u ideji da je mašinama
moguće podariti svesnu inteligenciju, kao što su zastrašujuće i ideje o kloniranju čoveka ili o postojanju
vanzemaljske inteligencije. Takve ideje zapravo najavljuju kraj vladavine čoveka kao jedino trenutnog
poznatog visoko svesnog i inteligentnog bića. Nije ni za očekivati da se čovek tek tako odrekne jedne takve
titule. Tek je u novije vreme započeto sa razbijanjem ovakvih mitova kao i pokušaj da se istraži šta zapravo
stoji iza pojmova svesti i uma.. Ustvari je početak istraživanja samog mozga, njegove građe i funkcije, doveo
i do istraživanja svesti i do prvih pokušaja naučnog utemeljenja pojmova svesti i uma. Tako se došlo do prvih
revolucionarnih teorija koje su tvrdile da svest nije neki nezavisan, nesvodljiv entitet, neka supstanca koja
samu sebe pokreće i određuje, već da postoje određeni moždani procesi koji prouzrokuju ili koji proizvode
svest. Svest nastaje u mozgu, postoje određeni nervni korelati svesti, i svest je u uskoj povezanosti ili u
odnosu zavisnosti sa samim mozgom. Iako se tačno ne zna koji je deo mozga striktno u funkciji svesti kao
što se ne zna tačan odnos koji postoji između svesti i mozga, sa pojavom teorija koje tvrde da je svest
moždani proces, učinjen je veliki napredak u mišljenju. U budućnosti, sa daljim napretkom u istraživanju
mozga, njegovih delova i funkcija, onog trenutka kada budemo mogli u potpunosti pročitati mozak, možda
ćemo moći reći u kakvom su odnosu mozak i svest. Mada moramo uzeti u obzir i mogućnost da svest, bez
obzira na na{e unapređeno znanje o mozgu jednog dana, ostane jedan u potpunosti neobjašnjen fenomen.

Slučaj da je svest moždani proces imao bi konkretnog uticaja na ideju o veštačkoj inteligenciji. Ukoliko je
moguće da u potpunosti simuliramo ljudski mozak, odnosno da načinimo veštački mozak koji bi u potpunosti
podražavao ulogu i funkcije ljudskog mozga, svest bi se pojavila sama od sebe. Tako bismo ustvari dobili
veštačku svesnu inteligenciju. Sledilo bi da je samo pitanje vremena kada ćemo pročitati ljudski mozak, kao
što je i pitanje vremena kada će biti izvodljivo napraviti kopiju ljudskog mozga. Takav scenario sam po sebi
ne garantuje mogućnost pojave svesne veštačke inteligencije ali u svakom slučaju bi mogao da doprinese
razotkrivanju fenomena svesti pa tako i da unapredi dalji razvoj veštačke inteligencije.

Trenutno stanje na polju veštačke inteligencije nam možda još uvek ne daje mnogo sadržaja ili konkretnih
akcija koji bi nas ubedili u mogućnost veštačke inteligencije.

Ali kao što je rečeno, za to se mogu navesti mnogi objektivni razlozi, od kojih je najobjektivniji možda
nedovoljno ulaganje u takva istraživanja, iz razloga što se još nije uvideo pravi interes koji bi proizašao iz
postojanja veštačke inteligencije. Ulaganja svakako postoje i u ovom trenutku nisu zanemarljiva, ali svakako
da moramo o~ekivati i zahtevati jo{ ve}u, kako finansijsku tako i svaku drugu, usmerenost na razvoj
ve{ta~ke inteligencije. Slična situacija je i sa istraživanjem svemira koje zahteva mnogo novčanih ulaganja a
koje može unaprediti i promeniti čovečanstvo, ali u koje se nedovoljno ulaže od strane velikih i moćnih
zemalja. Isto tako i veštačka inteligencija jeste jedna oblast istraživanja koja može dosta uticati na dalji
razvoj čovečanstva, u pozitivnom smislu, ali interes izgleda ide na drugu stranu.

Ipak, razvoj kompjuterske tehnologije nije za potcenjivanje u ovom trenutku. Kompjuterski hardware-i su po
svojim karakteristikama sve bliži ljudskom mozgu. Brzina sa kojom kompjuteri obrađuju informacije, kao i
memorija koju poseduju, se drastično povećavaju. Smatra se, na osnovu brzine dosadašnjeg razvoja i
napretka moći i kapaciteta kompjutera, da će kompjuteri za kućnu upotrebu odgovarati moći i kapacitetu
ljudskog mozga do 2030., a da će se do 2020. godine pojaviti prvi humanoidni roboti sa operativnijim
funkcijama.

Iz činjenice da je u prvih pedeset godina razvoj veštačke inteligencije išao sporo i ne tako obećavajuće, ne
povlači za sobom stav da će tako biti i u sledećih pedeset godina. U prilog tome ide činjenica da se poslednjih
decenija naglo ubrzava razvoj i napredak kompjuterske tehnologije. Iz godine u godinu pojavljuju se sve
moćniji kompjuteri za kućnu upotrebu. Nivo kućnih kompjutera je 1999. godine bio na nivou mozga insekta.
Ipak evolucija inteligencije ma{ina napreduje mnogo brže nego što je to bio slučaj sa evolucijom našeg
nervnog sistema. Smatra se da napredak u kapacitetu kompjutera kroz jednu deceniju odgovara napretku
našeg nervnog sistema kroz hiljadu godina. Mašine svakako napreduju brže nego što je čovek napredovao.

U okviru problematike veštačke inteligencije možemo razlikovati «radikalno gledište vestačke inteligencije»
i «slabo gledište veštačke inteligencije», prema distinkciji koju je postavio J. Searle.

«...nalazim da je korisno napraviti razliku između onoga što ću zvati «radikalno» gledi{te VI
od «slabog» gledišta VI ili «opreznog» gledišta VI. Prema «slabom» gledištu VI, glavna
vrednost kompjutera u istraživanju uma jeste to što nam se postavlja kao vrlo korisno oruđe.
Na primer, omogućava nam da formulišemo i testiramo hipoteze na mnogo tačniji i precizniji
način. Ali, prema «radikalnom» gledištu VI, kompjuter nije samo oruđe u istraživanju uma;
naprotiv, odgovarajuće programiran kompjuter stvarno bi posedovao svest, u smislu da ako
kompjuterima damo odgovarajuće programe, možemo sa sigurnošću reći da će oni posedovati
razumevanje i druga kognitivna stanja. Prema «radikalnom» gledištu VI, zato što programirani
kompjuteri mogu imati kognitivna stanja, programi nisu samo oruđa koja nam omogućavaju
da testiramo psihološka objašnjenja; naprotiv, programi sami po sebi jesu objašnjenja.»
(Searle, 1980, str.2)

Prema glavnoj tezi radikalnog gledišta o veštačkoj inteligenciji, mozak je izjednačen sa kompjuterskim
hardware-om dok je svest isto što i odgovarajući kompjuterski software. Onog trenutka kada budemo
napravili odgovarajući kompjuterski program, imaćemo i mašine za koje ćemo moći tvrditi da poseduju
mentalna stanja, kognitivne sposobnosti, odnosno mašine koje poseduju svest. Prema slabijoj varijanti ove
teorije, ne ide se tako daleko sa tvrdnjama da mašine mogu biti svesne i da mogu posedovati mentalni sklop
identičan ljudskom, ali se ističe da će mašine dostići određeni nivo funkcionisanja koji bi se mogao nazvati
inteligentim u smislu obavljanja vrlo složenih logičko-matematičkih operacija.

Prvobitni zastupnici ideje da će jednog dana biti moguće napraviti robota koji bi po svim karakteristikama
bio sličan čoveku, povodili su se za idejom da je i sam čovek jedna vrsta mašine i da funkcioniše po
određenim mehaničkim principima. I danas je popularno mišljenje koje posmatra čoveka kao jedan
mehanički sklop, i ljudski mozak kao mašinu, čini se da je tako jednostavnije objasniti ljudsko
funkcionisanje. Razvoj ljudske inteligencije jeste jedan proces sam po sebi, i možda možemo posmatrati
razvoj veštačke inteligencije kao prirodni nastavak razvoja inteligencije uopšte, kao nastavak evolucije. Ako
možemo u nekom kontekstu reći da je ljudska inteligencija nadvladala svog kreatora, možda dolazi vreme i
za mašine da se pohvale tom odlikom.

«A šta je sa inteligencijom koju mi stvaramo? I ona sama bi mogla postati veća od svog
kreatora. To nije slučaj danas. Dok su kompjuteri superiorniji u određenom tipu tehničkog
mišljenja, naše mišljenje je danas značajno superiornije od onog koje poseduju naše mašine.
Ipak, inteligencija naših mašina vrlo brzo napreduje. Izgleda da će se za samo nekoliko godina
ili decenija kompjuteri moći uspešno takmičiti sa ljudskom inteligencijom u mnogim sferama.
... Nasuprot onome što bi neko mogao intuitivno zaključiti, ovo gledište dosledno ističe
mogućnost da inteligencija konačno nadvlada svog kreatora.» (Kurzweil,1990, str.8)

MENTALNA STANJA, SVEST I INTENCIONALNOST

Prema tome kako shvatamo mentalna stanja i njihovu povezanost sa fizičkim procesima u mozgu, možemo
razlikovati dva osnovna pravca, materijalizam i dualizam. Po materijalizmu mentalna stanja su u potpunosti
svodljiva na moždana stanja, odnosno ovo gledište priznaje kao primarne i jedine samo fizičke procese u
mozgu. Mentalna stanja su ustvari fizička stanja. Dualizam tvrdi nesvodljivost mentalnih stanja i ističe
njihovu ontološku nezavisnost i posebnost u odnosu prema fizičkim procesima. Mentalna stanja posmatra
kao jedan poseban skup stanja, kao jedan zatvoren sistem. Obe škole imaju svojih problema, materijalizam
da objasni na koji način su mentalna stanja svodljiva na fizička stanja, posebno subjektivna kvalitativna
stanja, dok dualizam sa svojom tvrdnjom da postoje po svom ontološkom statusu dva različita stanja, se nosi
sa nemogućnošću da objasni kakva onda relacija postoji između mentalnog i fizičkog. Obe verzije
predstavljaju radikalna i gruba gledišta o odnosu mentalnog i fizičkog. Unutar i jedne i druge teorije su se
razvila mnogo finija gledišta koja malo ublažavaju jaz između mentalnog i fizičkog. U okviru ovog rada će
se zastupati funkcionalizam kao gledište koje se može podvesti pod materijalističku struju, koje mentalna
stanja definiše prema funkcionalnoj ili kauzalnoj ulozi koju ta stanja imaju u datom sistemu, pri tom ostajući
neutralno u određenju odnosa između mentalnog i fizičkog, što bi se moglo okarakterisati kao jedno povoljno
stanovište u kontekstu sukoba koji vlada izme|u materijalista i dualista.

Konfuzija koja vlada na filozofskoj sceni u pogledu određenja odnosa između mentalnih fenomena i fizičkih
procesa, samo je nastavak tradicionalnog sukoba u filozofiji oko odnosa duha i tela. U savremenoj filozofskoj
terminologiji pitanje odnosa duha i materije je ostalo u centru pažnje u obliku pitanja odnosa svesti i mozga
ili fizičkih procesa u mozgu. Neki savremeni filozofi poput H. Putnama i J. Searle-a smatraju da ovo pitanje,
kako u tradicionalnoj filozofiji tako i u savremenoj, počiva na skroz pogrešnim pretpostavkama. Nije bitno
od čega smo sačinjeni, i pitanje o našem mentalnom životu nema veze sa pitanjem o našoj supstanciji (H.
Putnam). Kao što je pogrešno petpostaviti da ukoliko ne prihvatimo dualizam kao odgovor na pitanje o
odnosu duha i tela, moramo prihvatiti materijalizam (J. Searle).

Mentalna stanja možemo razlikovati prema njihovom fenomenalnom ili intencionalnom aspektu. Tako,
možemo razlikovati i fenomenalnu i intencionalnu svest. Fenomenalni aspekt mentalnih stanja se uglavnom
tumači kao subjektivni aspekt mentalnosti. Biti u nekom stanju koje bi se okarakterisalo kao fenomenalno
znači upravo to – «biti u nekom stanju», da «nekako izgleda biti u tom i tom stanju» i ta karakteristika je
čisto subjektivna. Još jedna jasnija odrednica fenomenalnih stanja koju je formulisao Nagel, jeste da «nekako
izgleda biti ja» ili po tačnijoj Nagel-ovoj formulaciji – «nekako izgleda biti slepi miš». (Nagel, Kako izgleda
biti slepi miš u: Stanković, 2004., str.107)

To kako izgleda biti ja je poznato samo meni. Naravno, na osnovu slične mentalne i fizičke konstitucije,
možemo zamisliti možda kako izgleda biti neko drugi, odnosno, fenomenalna iskustva dva čoveka ne moraju
biti mnogo različita, ali jesu različita, dok sigurno ne možemo zamisliti kako izgleda biti slepi miš.
Fenomenalna stanja poput bola ili viđenja boja, su subjektivnog karaktera i samo ja mogu znati da sam u
stanju bola i samo ja mogu prepoznati svoj bol i meni «nekako izgleda» biti u stanju bola. Fenomenalna svest
jeste iskustvo, koje je uvek za svaku individuu samo njegovo iskustvo. Upravo iz toga da «nekako izgleda»
biti u stanju bola, mirisati ružu, videti crveno, osećati se depresivno, proizilazi kvalitativan karakter iskustva.
Upravo ta osobina mentalnih stanja nas onemogućava da objasnimo mentalna stanja služeći se fizičkim
zakonima i principima ili da jezik o mentalnim stanjima prevedemo na jezik o fizičkim fenomenima. Iz tog
razloga, fenomenalni aspekt mentalnih stanja zadaje dosta muke onim teoretičarima koji smatraju da su
mentalna stanja svodljiva na fizička stanja. Kao što se iz tog razloga smatra da mašine nikad neće moći imati
fenomenalnu svest ili subjektivno iskustvo, da mašini nikad neće nekako izgledati biti mašina, pa samim tim
nikad neće postati svesne.

To što se fenomenalna mentalna stanja razlikuju od indivdue do individue, što je iskustvo subjektivnog
karaktera, onemogućava da se ovi mentalni fenomeni objektivno sagledaju, odnosno da se sagledaju van
perspektive prvog lica koje jedino i može imati uvida u karakter tih stanja. Osećanje i doživljavanje nečega je
tako jedna karakeristika koja se teško može objasniti van kategorije prvog lica. J. Searle smatra da možemo
imati objektivnu nauku o bolu i da činjenica da je osećanje bola subjektivnog karaktera, odnosno da takvo
stanje može postojati samo ako je doživljeno od strane svesnog subjekta, ne smeta pri naučnom objašnjenju
ovog stanja. Za nauku je bitna epistemološka distinkcija subjektivno-objektivno, ona koja se tiče znanja, dok
je u slučaju bola reč o ontološkoj distinkciji (tiče se egzistencije), tako da ontološka subjektivnost osećanja
bola ne mora da isključuje epistemološku objektivnost nauke o bolu. (Searle, 1999)

Ističe se da ukoliko znamo sve o stanju bola, a to znanje recimo uključuje potpun naučni opis tog stanja, od
toga šta uzrokuje to stanje, šta se konkretno dešava u mozgu prilikom osećanja bola, kakve reakcije izaziva i
slično, da nam i dalje izmiče jedna vrsta znanja o tom stanju a to je kako izgleda doživljavati bol. Ukoliko
imamo slučaj osobe koja nikad nije doživela stanje bola a pri tom tačno zna da opiše to stanje, smatra se da
onog trenutka kada data osoba prvi put bude stvarno osetila bol, moći će da kaže da je bez obzira na svo
prethodno znanje koje je imala o bolu, ipak naučila nešto novo a to je da upravo nekako izgleda osećati bol.
Odatle bi sledilo da ipak postoji određeno svojstvo fenomenalnih mentalnih stanja koje izmiče naučnom
opisu.

Drugo bitno svojstvo mentalnih stanja jeste intencionalnost. To da su neka mentalna stanja intencionalna
znači da se odnose na nešto, da imaju neki sadržaj, da su o nečemu. Svaka misao je o misao o ...
Intencionalnost je bitna osobina mentalnih stanja i nisu sva mentalna stanja intencionalna. Stanja poput
mišljenja, verovanja, želja, namera i slično imaju predmet na koji se odnose, za njih ima smisla pitati o čemu
su ili na šta se odnose, dok za osećanje bola nema smisla pitati o čemu je taj bol ili na šta se odnosi. Tako, bol
je jedno od mentalnih stanja koje nema intencionalni sadržaj. Intencionalna svest je svest koja je uvek o
nečemu, koja uvek ima predmet na koji se odnosi, što bi značilo da ne postoji prazna svest ili svest bez
sadržaja. To je bitna osobina svesti zato što omogućava da svest bude upućena na objekte i stanja u svetu i
tako ustvari čini vezu između svesti i sveta. Predmet svesti ne mora naravno uvek biti nešto što realno
postoji, legitimno je da to bude i neka izmišljena stvar.

Pojam intencionalnosti je prvi u odnos prema mentalnosti postavio F. Brentano još 1874. godine. Naravno,
Brentano je taj pojam upotrebljavao u jednom drugačijem smislu od onoga kako se on danas shvata. Za njega
je intencionalnost bila oznaka za mentalno i sva mentalna stanja i samo mentalna stanja su posedovala
intencionalnost. Tako, intencionalnost je za Brentana nužan i dovoljan uslov za pojavu mentalnog. Danas,
postoje suprostavljena gledišta po tom pitanju.

I u slučaju intencionalnih mentalnih stanja postoje podeljena mišljenja vezana za pitanje o svodljivosti tih
stanja na fizičke procese u mozgu. Ipak, problematika se čini malo lakša jer ne moramo da se nosimo sa
stanjima osećanja i doživljavanja koje karakteriše specifično kvalitativan karakter. Filozof D. Dennett je
postavio teoriju o intencionalnim sistemima koja tvrdi da svaki sistem čije ponašanje možemo predvideti i
objasniti oslanjajući se na skup verovanja i želja datog sistema, možemo nazvati intencionalnim sistemom, ili
racionalnim sistemom, bez obzira na samu fizičku konstituciju tog sistema. To bi značilo da i mašinama
možemo pripisati intencionalnost ako zadovoljavaju gore navedene uslove. Ipak, Dennett smatra da iz
činjenice da nekom možemo pripisati intencionalnost ne sledi da taj sistem poseduje i svesnu inteligenciju.
Što bi značilo da intencionalnost možda jeste nužan ali ne i dovoljan uslov za pojavu svesti. Ovom
Dennettovom teorijom ćemo se detaljnije pozabaviti kasnije u radu.

Dva svojstva mentalnih stanja, intencionalnost i fenomenalnost, čini da pomislimo kao da postoje dve svesti i
onda nameće pitanje o njihovom odnosu i povezanosti kao i pitanje da li je moguća jedna svest bez druge. O
tom pitanju se vode mnoge rasprave i mišljenja se suprostavljaju. Od toga da je jedna svest moguća bez
druge do toga da je ova distinkcija zapravo lažna i da svim fenomenalnim mentalnim stanjima možemo
pripisati i intencionalnost i obrnuto.

Filozof J. Searle zastupa teoriju koju postavlja naspram materijalističke i dualističke opcije, a koju naziva
biološki naturalizam a koja problem svesti postavlja isključivo kao biološki problem. Ovom teorijom se
zapravo pokušavaju prevladati sve postavljene razlike, kako između svesti i mozga tako i između
fenomenalne i intencionalne svesti. Searle smatra da u ovom trenutku, na osnovu znanja koje posedujemo o
svetu, možemo sa sigurnošću tvrditi da je svest biološki fenomen i da je ona kao takva uzrokovana procesima
u mozgu i istovremeno realizovana u strukturi mozga. Searle takođe nudi definiciju svesti koja svest
posmatra kao jedan nepodeljen fenomen:

«Svest se sastoji od unutrašnjih, kvalitativnih, subjektivnih stanja i procesa samosvesti i svesnosti


stvari oko sebe. Svest, tako definisana, počinje kada se budimo ujutro iz besanog sna – i
nastavlja se sve dok ponovo ne zaspimo, ne umremo, ne upadnemo u komu ili dok na neki
drugi način ne postanemo «nesvesni». To uključuje niz različith oblika svesnosti koje
smatramo karakteristikama našeg budnog života. To uključuje sve, od osećanja bola, do
posmatranja stvari oko sebe, stanja anksioznosti i depresije, rešavanja ukrštenica, igranja
šaha... (Searle, 1999, str.3)
Svest za Searle-a jeste moždani proces i svest nije odeljena od mozga, svest je samo stanje mozga, baš kao
što je tečnost stanje vode a da pri tom tečnost nije neka posebna supstanca.

Možemo imati objektivnu nauku o svesti i neurobiologija je nauka koja nam može dati konačno objašnjenje
svesti, i osnovna pitanja na koja nam ova nauka može dati odgovor jesu: Koji su neurobiološki korelati
svesti? Kako moždani procesi uzrokuju svesna stanja? Da li je svest lokalizovana u određenim delovima
mozga i ako jeste, u kojim? ... Searle smatra da se svest razlikuje od drugih bioloških fenomena po
specifičnim svojstvima koje poseduje a to su kvalitativnost, subjektivnost i jedinstvenost. Naime, Searle
ističe da su to opšta svojstva svesti, pa tako možemo reći da i mišljenje, koje je određeno kao intencionalno
mentalno stanje, ima određeni kvalitativan karakter. Tako, po Searle-u, možemo reći da nekako izgleda
misliti da je 2 + 2 = 4. Isto tako, Searle smatra da i mnoga mentalna stanja označena kao fenomenalna
poseduju intencionalnost, ali da ne poseduju sva mentalna stanja intencionalnost. Intencionalnost Searle ne
smatra kao nužnu za svest, pa tako kaže da intencionalnost može postojati bez svesti, kao na primer neka
verovanja koja čovek može posedovati čak i dok spava kada je nesvestan ili primer anksioznosti, kada nismo
svesni onoga što uzrokuje našu anksioznost. Searle tako ne pravi razliku između fenomenalnih i
intencionalnih mentalnih stanja, već svest posmatra kao jedinstven fenomen. (Searle, 1999)

Upravo iz razloga što je svest biološki fenomen, Searle zastupa stanovište po kojem mašine ne mogu biti
svesne, i po kojem veštačka svest nije moguća. Kritikuje teorije koje svest posmatraju kao kompjuterski
program, a mozak kao digitalni kompjuter. Svest je rezultat određenih elektro-hemijskih procesa koji se
dešavaju između neurona u našem mozgu. Imati svest je mnogo više od određenih formalnih procesa koji se
odigravaju u kompjuteru, od obrađivanja informacija i baratanja simbolima. Nikakav program ne može
simulirati svest jer program je formalan i sintaksički, znači bez ikakvog sadržaja, a svest je semantička, sa
određenim mentalnim sadržajima. Odnosno, veštačka svest, koja je samo simulacija biološke svesti, nije
svest. Da bismo govorili o veštačkoj inteligenciji, potrebno je napraviti mozak identičan ljudskom, kako po
materijalu tako i po funkcijama i uzročnim vezama koje se dešavaju između neurona, i tek u jednom takvom
sistemu bi se možda mogla pojaviti svest.

Filozof Ned Block kritikuje Searle-ovu definiciju svesti upravo iz razloga što takva definicija podrazumeva
mnogo različitih stvari, mnogo različitih svesti. Block smatra da postoje različite svesti, i izdvaja
fenomenalnu svest, koja je iskustvo i pristupnu («access»)-svest koju objašnjava kao odgovornu za kontrolu
govora, rezonovanja i akcije. Block smatra da fenomenalna svest može postojati bez pristupne («access»)-
svesti i obrnuto. Svojstva fenomenalne svesti se mogu odvojiti od kognitivih, intencionalnih ili funkcionalnih
svojstava. Block smatra da možemo zamisliti životinju koja ima takvo oštećenje mozga da su joj uništeni
centri za rezonovanje i racionalnu kontrolu akcije, a da joj je pri tom fenomenalna svest ostala neoštećena. To
je zamislivo ako uzmemo mogućnost da su centri u mozgu za jednu i drugu svest odvojeni pa bi tako bilo
moguće oštetiti jedan centar a da pri tom drugi ostane funkcionalan. Primer postojanja pristupne ( «access»)-
svesti bez fenomenalne svesti bi bili slučajevi zombija ili robota koji ne bi posedovali nikakva fenomenalna
svojstva u smislu bolova, osećanja, ali bi posedovali neki oblik rezonovanja, svesnog govora ili svesnog
mišljenja, što je za Blocka možda dovoljno da ih nazovemo svesnim. (Block, 2002)

Izgleda da postoji nedovoljno slaganja u mišljenjima kako filozofa tako i naučnika kad je reč o tome da li je
svest nepodeljen fenomen ili možemo govoriti o različitim, međusobno nezavisnim svestima.

Filozof D. Chalmers smatra da jedan od glavnih razloga zašto je svest još uvek tako neistražen problem jeste
taj što se većina filozofa u svojim istraživanjima bavi «lakim problemom» svesti. Odgovore na pitanja lakih
problema svesti će u dogledno vreme dati neuronauka i kognitivna psihologija, a ta pitanja su sledeća: Kako
subjekat može verbalizovati svoja unutrašnja stanja? Kako mozak može integrisati informacije iz mnogih
različitih izvora i pomoću tih informacija kontrolisati ponašanje? ... Ono što ova pitanja čini lakim
problemima svesti jeste to što se ona više tiču objektivnih mehanizama kognitivnog sistema i samog načina
na koji mozak funkcioniše. Nasuprot tome, Chalmers postavlja «teški problem» svesti, koji se tiče pitanja
kako uopšte svest nastaje, odnosno kako fizički procesi u mozgu dovode do pojave svesti ili svesnog,
subjektivnog iskustva. Teški problem svesti se tiče upravo problema koji proizilazi iz toga što postoje
određene činjenice o svesnom iskustvu koje ne mogu biti izvedene iz fizičkih činjenica o funkcionisanju
mozga. Tako, Chalmers smatra da nam nauka može mnogo toga reći o svesti ali ne sve, pa čak i onda kada
nam nauka bude dala sve odgovore na pitanja o načinu na koji mozak funkcioniše, i dalje ćemo se pitati zašto
takav način funkcionisanja mozga dovodi do pojave svesnog iskustva. Ovaj problem se naziva «explanatorni
jaz». Ipak, bez obzira na teškoće koje se postavljaju kada hoćemo da objasnimo svest, Chalmers smatra da je
vrlo verovatno da bi se svest pojavila u jednom sintetičkom ili veštačkom sistemu. Ukoliko bi smo imali
sistem u kojem bi silikonski čipovi zamenjivali neurone i pri tom imali istu organizaciju i funkcije kao
neuroni u mozgu, bilo bi logično za očekivati da će se u takvom veštačkom sistemu sa funkcionalnom
organizacijom identičnom kao u ljudskom mozgu, pojaviti svest. (Chalmers, 1995)

Čini se kao da nije moguće dati neku potpunu teoriju o svesti, kao da uvek izostavljamo neki deo svesti ili
nešto o svesti, da sam fenomen svesti ostaje nedorečen. U sklopu teorija koje pokušavaju da objasne odnos
između mentalnog i fizičkog, zanimljivo je pomenuti i teoriju anomičkog monizma koju zastupa D.
Dejvidson. Naime, ova teorija je zanimljiva upravo stoga što, iako u sklopu materijalističkog stanovišta koje
smatra da su svi događaji fizički, ne čini jednu takvu grubu grešku koja je karakteristična za materijalizam,
pa ne smatra da su mentalni fenomeni objašnjivi samo i jedino pomoću objašnjenja fizičkih procesa. Ovom
teorijom se zapravo tvrdi da ne postoje strogi psihofizički zakoni, da je mentalno nomološki nesvodljivo, da
ne postoje strogi zakoni na osnovu kojih bi mogli da opišemo ili predvidimo mentalne fenomene, iako se
ističe da su mentalni fenomeni uzrokovani i determinisani fizičkim fenomenima. Time se zapravo tvrdi mali
stepen autonomnosti mentalnih fenomena. Dejvidson ističe da razlog zbog kojeg ne možemo tvrditi stroge
psihofizičke zakone između mentalnog i fizičkog jeste taj što :

“…mentalistički i fizikalistički pojmovni okvir imaju sasvim različite pretpostavke. Obeležje


je fizičke stvarnosti da fizička promena može samo da se objasni zakonima koji je povezuju sa
drugim, fizikalistički opisanim, promenama i uslovima. Obeležje je mentalnog da pripisivanje
mentalnih fenomena mora da se odigrava na pozadini razloga, verovanja i namera pojedinca.
Između ove dve oblasti ne mogu da postoje čvrste veze ako svaka treba da ostane verna svom
pravom izvoru svedočanstva. ... Mislim da moramo da zaključimo da je nomološki jaz između
mentalnog i fizičkog suštinske prirode dokle god čoveka poimamo kao racionalno stvorenje.”
(Dejvidson, Mentalni događaji u: Stanković, B., 2002, str.72)

Ova teorija ipak tvrdi identičnost mentalnog i fizičkog, naime, smatra se da to što ne znamo strogi zakon koji
pokreće uzročnu vezu između jednog mentalnog i jednog fizičkog događaja, ne znači da ne možemo znati
samu uzročnu vezu koja se pri tom javlja. Tako, teorija anomičkog monizma ističe dva glavna svojstva
mentalnih fenomena a to su uzročna zavisnost i nomološka nezavisnost, odnosno svojstvo po kojem su
mentalni događaji uzrokovani fizičkim događajima i svojstvo po kojima su mentalni fenomeni nezavisni od
zakona, odnosno da ne postoji strog zakon po kojem se dešava ta uzročna veza. Na taj način ova teorija se
oslobodila problema sa kojim se suočavaju sve materijalističke teorije u pokušaju da daju jedno poptuno
objašnjenje mentalnih stanja.

Kada govorimo o tome da li mašine mogu imati mentalna stanja, čini se da je lakše i izvodljivije mašinama
pripisati intencionalna mentalna stanja nego fenomenalna. Nekako izgleda lakše da zamislimo robota koji bi
mogao da učestvuje u konverzaciji, koji bi mogao imati neko mišljenje, kojem bi možda mogli da
pripisujemo neke namere, koji bi imao neke ciljeve i usmerenost na njihovo ostvarenje, nego robota koji bi
osećao bol, ili bilo šta osećao, pod uslovom da ostajemo pri stanovištu da osećanje bola karkateriše neko
kvalitativno svojstvo. Pod uslovom da je dovoljno da neki organizam poseduje intencionalnost da bi ga
nazvali svesnim, naš robot bi mogao biti svestan, bez obzira što ništa ne bio osećao, odnosno što ne bi imao
neke lične, subjektivne doživljaje. Čak i ako nam možda nije dozvoljeno da mašini koja poseduje neki oblik
intencionalnosti pripišemo svesnost, u strogom smisli te reči, morali bi smo joj pripisati racionalnost.
Filozof Daniel Dennett zastupa upravo ovakvo jedno gledište. Kada govori o intencionalnosti, Dennett ističe
da nekom možemo pripisati intencionalnost jedino u kontekstu naše namere da objasnimo i predvidimo
njegovo ponašanje.

«Želim da ispitam pojam sistema čije ponašanje možemo – makar ponekad – objasniti i
predvideti oslanjajući se na pripisivanje verovanja i želja sistemu. Zvaću takav sistem
intencionalnim sistemom, a takva objašnjenja i predviđanja intencionalnim objašnjenjima i
predviđanjima...» (Dennett, 1981. str.3)

Dennett uzima primer kompjutera koji igra šah kao primer mogućeg intencionalnog sistema. Kada igramo
šah protiv kompjutera, moramo imati neku strategiju ili određeni stav prema našem protivniku a u cilju
pokušaja da predvidimo njegov sledeći potez. U slučaju kompjutera koji igra šah, Dennett navodi tri različita
načina na osnovu kojih bi mogli da znamo ili da predvidimo moguće ponašanje kompjutera. Jedno se odnosi
na njegov dizajn, uključujući i kompjuterski program. Ukoliko tačno znamo kako je kompjuter dizajniran,
ukoliko znamo program po kojem radi, možemo da predvidimo njegove unapred programirane odgovore na
određene poteze. Predviđanje ponašanja u ovom slučaju se vrši na osnovu znanja o funkcionalnoj
konstrukciji sistema, na osnovu načina na koji je dati sistem napravljen da funkcioniše. Pri tom ne uzimamo
u obzir fizičku konstituciju sistema, odnosno ne zanima nas od čega je sistem napravljen. Takođe,
pretpostavljamo da dati sistem funkcioniše kako treba, odnosno da svi njegovi funkcionalni delovi obavljaju
svoje unapred odre|ene funkcije. Oslanjajući se na naše znanje o funkcionalnoj organizaciji nekog sistema,
mi tako možemo objasniti ili predvideti određeno ponašanje tog sistema.

Drugi način na koji bismo mogli da objasnimo ponašanje nekog sistema jeste upravo njegova fizička
konstitucija, njegovo fizičko stanje. Na primer, na osnovu znanja fizičkog stanja određenog sistema, mogli
bismo predvideti kada će dati sistem doživeti kvar ili šta bi moglo uzrokovati kvar tog sistema. U slučaju
kompjutera koji igra šah, znanje o njegovoj fizičkoj konstituciji nam ne može mnogo pomoći kad je reč o
pokušaju da predvidimo njegov sledeći potez, ali kako Dennett navodi, nije bez značaja.

Predviđanje ponašanja jednog sistema na osnovu njegove fizičke građe i funkcionalne organizacije, je po
Dennettu moguće kada je reč o jednostavnijim sistemima, ali kad govorimo o malo složenijim sistemima,
znanja o fizičkoj i funkcionalnoj konstituciji tih sistema nam ne može biti mnogo od pomoći. Upravo u
slučaju kompjutera koji igraju šah, a koji su postali vrlo složeni sistemi, moramo pribeći nekom drugom
načinu u pokušaju da predvidimo njihovo ponašanje. Oslanjanje na njihov dizajn i poznavanje programa po
kojem rade, više nije dovoljno ni za same njihove dizajnere kad je reč o predviđanju njihovog ponašanja.
Zato Dennett govori o potrebi da tako složene sisteme kao što je slučaj sa kompjuterima koji igraju šah,
tretiramo kao inteligentne i racionalne sisteme. U šahovskom meču sa kompjuterom, u želji da pobedimo pa
tako i da predvidimo sledeći potez protivnika, moramo se podvrgnuti prepostavci da će naš protivnik izabrati
najracionalniji mogući potez u tom trenutku i da onda na osnovu te prepostavke izvršimo potrebno
predviđanje. Najracionalniji potez u slučaju igranja šaha jeste onaj koji odgovara pravilima šaha i cilju igre a
to je da se pobedi protivnik. Racionalnost u ovom slučaju ne znači ništa više nego ponašanje u skladu sa
datim ciljem a zarad ostvarenja tog cilja. To podrazumeva da ja znam koji su ciljevi kompjutera u tom
trenutku. Upravo ovaj način predviđanja i objašnjenja ponašanja sistema na osnovu prepostavke o
racionalnosti tog sistema jeste ono što Dennett naziva intencionalnim predviđanjem i intencionalnim
objašnjenjem a takav sistem intencionalnim sistemom.

Kompjuter koji igra šah i koji predstavlja dovoljno složen sistem da nam nije dovoljno znanje o njegovom
programu ili fizičkoj konstituciji da bi objasnili ili predvideli njegovo ponašanje, jeste jedan takav
intencionalan sistem. To znači da takvom sistemu pripisujemo posedovanje određenih informacija i
posedovanje određenih ciljeva. Naše predviđanje ponašanja tog sistema se upravo zasniva kako na znanju
informacija i ciljeva koji dati sistem poseduje, tako i na pretpostavci da će se dati sistem ponašati racionalno,
odnosno u skladu sa datim informacijama i ciljevima. Dennett ističe da je mali korak ka tome da informacije
koje kompjuter poseduje nazovemo njegovim verovanjima, a ciljeve koje poseduje njegovim željama. Ipak
ističe da se njegovom definicijom intencionalnih sistema ne tvrdi da intencionalni sistemi stvarno imaju želje
i verovanja, već da u cilju predviđanja i objašnjenja ponašanja takvih sistema je prosto korisno i praktično da
tim sistemima pripisujemo želje i verovanja.

«Doći ćemo do istih predviđanja bez obzira da li mislimo u terminima verovanja i želja
kompjutera, ili u terminima kompjuterske memorije i operacija. Neizbežna i zanimljiva
činjenica toga jeste to što su za najbolje današnje kompjutere koji igraju šah , intencionalna
objašnjenja i predviđanja njihovog ponašanja ne samo uobičajna već uspevaju onda kada niti
jedna druga vrsta predviđanja njihovog ponašanja nije moguća.» (Dennett, 1981, str.7)

Dennett ističe da naša prepostavka da je dati sistem intencionalan jeste ustvari naša pretpostvaka da je dati
sistem racionalan. Kada kaže racionalan, Dennett se ograđuje od toga da pod pojmom racionalnosti
podrazumeva da dati sistem poseduje ono što bi mogli podvesti pod pojam svesne inteligencije. To da je
sistem racionalan ustvari znači da je sistem logičan, odnosno da se u svom ponašanju povodi za određenim
logičkim pravilima. Takvu racionalnost možemo pripisati kako životinjama, vanzemaljcima i čoveku, tako i
mašinama. Svima nam je zajedničko kao intencionalnim sistemima vera u logiku ili ponašanje u skladu sa
pravilima logike. Na osnovu toga možemo na primer pretpostaviti da niko od navedenih sistema neće želeti
svoju destrukciju. Tako, predviđanje i objašnjenje ponašanja na osnovu pripisivanja želja i verovanja nije
oblik predviđanja koji je specifično ljudski, već specifično intencionalan. Ovde je reč o psihologiji
intencionalnih sistema u celini, bez obzira na fizičku konstituciju tih sistema, jer ona nije bitna da bi smo
nekom sistemu pripisali intencionalnost.

Opet treba naglasiti da Dennett ne tvrdi da iz toga što smo jedan sistem nazvali intencionalnim, sledi da smo
tom sistemu pripisali inteligenciju ili svest. Ali opet sve zavisi od toga šta su nam kriterijumi na osnovu kojih
nekom pripisujemo inteligenciju ili svest ili kako uopšte shvatamo svest i inteligenciju. Ako prihvatimo
intencionalnost kao dovoljan uslov za pojavu inteligencije ili svesti, onda mo`emo govoriti o intencionalnim
sistemima kao inteligentnim sistemima.

Konkretan primer jednog takvog složenog sistema kojem bismo mogli pripisati intencionalnost jeste Deep
Blue, prvi kompjuter koji je pobedio svetskog šampiona u šahu G. Kasparova. Sam Kasparov je prijavio da je
tokom meča koji je imao sa ovim kompjuterom primetio znake razuma kod mašine i čak posumnjao u
samostalnost njenih poteza. Deep Blue je upravo jedan takav intencionalni sistem čije ponašanje možemo
objasniti i predvideti pripisujući mu želje i verovanja, kao i racionalnost kao nameru da se dela u skladu sa
tim željama i verovanjima. Ali da bi jedan takav sistem ipak posedovao inteligenciju u onom smislu u kom je
čovek poseduje, biće potrebno da takav sistem još malo napreduje, ili da postane još složeniji, da postane ono
što Dennett naziva «intencionalnim sistemom višeg reda». (Dennett, 1996) Takav sistem mora biti sposoban
da obrazuje verovanja o svojim sopstvenim verovanjima, misli o svojim mislima, da može vršiti konverzaciju
o različitim temama i slično. Možemo biti sigurni da će takav veštački intencionalni sistem koji bi posedovao
svesnu inteligenciju biti moguć u bližoj ili daljoj budućnosti. Ako su u današnje vreme mogući veštački
intencionalni sistemi, znači sistemi dovoljno složeni da u predviđanju njihovog ponašanja koristimo istu
psihologiju kao i u slučaju predviđanja ljudskog ponašanja, znači pripisujući im sistem verovanja i želja,
onda je verovatno samo pitanje vremena kada ćemo napraviti još složenije veštačke sisteme koje ćemo moći
nazvati svesnim sistemima.
«Kreatori Deep Blu-a dobro poznaju njegovu kvantitativnu superiornost nad drugim
mašinama koje igraju šah, ali im nedostaje razumevanje šaha da bi delili Kasparovu duboku
zahvalnost za razliku u kvalitetu njegove igre. Mislim da će se ova dihotomija pojačano
pojavljivati u nadolazećim godinama. Inženjeri koji dobro poznaju mehanizam naprednih
robota će biti poslednji koji će priznati da oni stvarno imaju mentalnost. Iznutra, roboti će
nesumnjivo biti mašine koje se ponašaju u skladu sa mehaničkim principima, bez obzira
koliko budu usavršeni. Jedino ako ih posmatramo spolja, gde ih možemo videti kao celinu,
isplivaće impresija inteligencije. Ljudski mozak takođe ne izražava inteligenciju ispod
neurobioloških mikroskopa kao što to čini učestvujući u živahnom razgovoru.» (Moravec,
1997, str.14)
FUNKCIONALIZAM, KOMPJUTACIONIZAM I TURINGOVA MAŠINA

U okviru materijalističke teorije koja smatra da u svetu postoje samo fizički procesi i stanja i da se celokupno
objašnjenje sveta i čoveka može dati pomoću fizikalnih teorija i zakona, posebno mesto zauzima teorija
psihofizičkog identiteta, kao pokušaj da se opravdaju osnovne teze materijalizma. Teorijom psihofizičkog
identiteta se tvrdi da će poslednju reč o identitetu između mentalnog i fizičkog dati neuronauke koje će
svojim istraživanjima upravo pokazati da su mentalna stanja identična sa određenim moždanim stanjima.
Time se ustvari tvrdi da će identitet mentalnog i fizičkog biti otkriven i potvrđen empirijskim putem, na isti
način na koji je otkriven identitet vode i H2O, ili munje i električnog pražnjenja, znači naučnim putem.
Nauka je ta koja će konačano dokazati identitet mentalnih stanja i moždanih procesa. Time bi se opravdala i
osnovna teza materijalizma, da u svetu postoje samo fizički objekti i stanja.

U okviru teorije psihofizičkog identiteta možemo razmatrati funkcionalističku analizu mentalnih stanja, ili
funkcionalizam. Funkcionalizam je teorija koja mentalna stanja objašnjava i definiše prema funkcionalnoj ili
kauzalnoj ulozi koju ta stanja imaju. Ono što jedno stanje čini mentalnim stanjem ne zavisi od neke njegove
unutrašnje konstitucije, od nekog njegovog posebnog unutrašnjeg svojstva, već zavisi od načina na koji to
stanje funkcioniše, od funkcionalne uloge koju to stanje ima u nekom sistemu čiji je deo. Funkcionalizam
jedno mentalno stanje definiše uzimajući u obzir samo njegovu kauzalnu ulogu, odnosno pozivajući se samo
na spoljašnje nadražaje, druga mentalna stanja i ponašanje sa kojima se to mentalno stanje nalazi u
kauzalnom odnosu. To bi značilo da svako mentalno stanje možemo identifikovati pa tako i objasniti
pozivajući se na određene spoljašnje nadražaje kojima su prouzrokovana, na druga mentalna stanja koja su
sklona da uzrokuju, kao i na ponašanje i određene motorne reakcije koja mogu da proizvedu. Svako mentalno
stanje je uzrokovano nekim spoljašnjim nadražajem, može da uzrokuje pojavu nekih drugih mentalnih stanja,
i da proizvede određene reakcije u vidu ponašanja. Ako uzmemo primer stanja bola, funkcionalistička analiza
tog stanja bi izgledala ovako: bol je stanje koje može biti prouzrokovano nekim oblikom povrede (spoljašnji
nadražaj), koje može da proizvede osećanje neprijatnosti, verovanje da nešto nije u redu sa našim telom, pa
tako i želju da to stanje što pre otklonimo (druga mentalna stanja) i koje može da prouzrokuje određene
fizičke ekspresije kao što je jecanje, grčenje lica, plakanje ... (motorne reakcije i ponašanje). Funkcionalizam
definiše mentalna stanja samo prema njihovoj kauzalnoj ulozi koju imaju u datom sistemu, nezavisno od
fizičke konstitucije tog sistema. To bi značilo da svakom organizmu, nezavisno od njegove fizičke
konstitucije, možemo pripisati stanje bola, ukoliko on stvarno poseduje takvo unutrašnje stanje sa takvim
kauzalnim relacijama koje smo upravo spomenuli, odnosno koje odgovaraju stanju bola. Iz toga bi sledilo da
i mašine mogu imati mentalna stanja, ili u ovom konkretnom slučaju biti u stanju bola, ukoliko imamo isti
slučaj kauzalnih relacija koje se tipično pripisuju stanju bola.

Jedan od prvih koji je mentalna stanja definisao pozivanjem na njihove kauzalne relacije je bio filozof Dejvid
Luis. U svom tekstu Psihofizičke i teorijske identifikacije, Luis identitet mentalno–fizičko posmatra kao
teorijske identifikacije, znači implicirane određenim teorijama koje ih uopšte i čine mogućim. Tako bi
identitet mentalno-fizičko ustvari bio identitet koji bi morali otkriti naučnim, teorijskim putem. U sklopu
takve teze, Luis će tvrditi sledeće:

« ... dobija se hipoteza iz mog prethodnog članka da se mentalno stanje M (recimo, neki
doživljaj) može definisati kao nosilac izvesne kauzalne uloge U – to jest, kao stanje, ma kakve
vrste ono bilo, koje je kauzalno povezano na određene načine sa čulnim nadražajima,
motoričkim reakcijama i drugim mentalnim stanjima.» (Luis, Teorijske i psihofizičke
identifikacije u: Stanković, 2002, str.46)

Funkcionalizam tako ustvari samo odgovara na pitanje šta su mentalna stanja, kako ih možemo definisati i
identifikovati, osalanjajući se samo na kauzalna svojstva mentalnih stanja. Pri tom, ova teorija ne nudi
nikakav odogovor na glavno pitanje o mentalnim stanjima, njihovom odnosu prema fizičkim procesima i
stanjima. Funkcioanlizam svojom tvrdnjom da se mentalna stanja mogu definisati isključivo pozivanjem na
funkcionalnu ulogu koju ta stanja imaju u sistemu čiji su deo, apsolutno ništa ne tvrdi kad je reč o pitanju
odnosa mentalnog i fizičkog, da li su mentalna stanja suštinski svodljiva na fizičke procese ili su fizički
nesvodljiva i nezavisna stanja. Iz toga sledi da je funkcionalistički govor o mentalnim stanjima ontološki
neutralan. Funkcionalizam odgovara na metafizičko pitanje o mentalnim stanjima, šta čini jedno mentalno
stanje, kako ga možemo identifikovati, to su upravo kauzalne relacije jednog mentalnog stanja. Ali na
ontološko pitanje o mentalnim stanjima, na pitanje o suštinskim svojstvima mentalnih stanja, funkcionalizam
nam ne daje odgovor, u vezi sa ontološkim pitanjem, ova teorija ostaje neutralna, ne zauzima nikakav stav.
Upravo stoga funkcionalizam jeste teorija koja bi trebala da bude u prijateljstvu i sa dualističkim i sa
materijalističkim stanovištem. Definisanjem mentalnih stanja pozivanjem na njihovu kauzalnu ulogu,
njihovih tipičnih uzroka i tipičnih posledica, pri tom ostajući neutralna u pogledu određenja suštinskih
svojstava mentalnih stanja, odnosno u pogledu određenja vrste stanja koja realizuje tu kauzalnu ulogu,
funkcionalizam se ne suprostavlja niti jednoj od postojećih gledišta o odnosu mentalnog i fizičkog.
Funkcionalni način govora o mentalnim stanjima ne povlači za sobom ni materijalističke niti dualističke
pretpostavke, pa tako može biti moguć i slu~aj da su moždana stanja odgovorna za pojavu kauzalne uloge
mentalnih stanja, kao i slu~aj da su mentalna stanja neka posebna vrsta nefizičkih stanja. Ipak,
funkcionalizam ostaje privlačniji materijalističkom gledištu. Ostavljajući otvorenim pitanje o tome koja vrsta
stanja je ustvari odgovorna za pojavu kauzalnih relacija mentalnih stanja, i definisanjem mentalnih termina
ne-mentalnim terminima, odnosno definisanjem mentalnih stanja pomoću njihove funkcionalne uloge, a ne
pomoću nekih kvalitativnih svojstava mentalnih stanja, funkcionalistička analiza mentalnih stanja izgleda da
ipak ide više u prilog materijalistima. Ova činjenica se postavlja kao prigovor funkcionalizmu, ali o tome će
biti više reči kasnije u radu.

Bitna prepostavka funkcionalizma jeste to da jedno mentalno stanje može biti realizovano u različitim
sistemima. Ova osobina mentalnih stanja je nazvana višestruka realizacija. To ustvari znači da je mentalno
stanje tip stanja koje je nezavisno od fizičke realizacije tog mentalnog stanja. Mentalno stanje može biti
realizovano u različitim sistemima nezavisno od konstitucije sistema. Jedno mentalno stanje može biti
realizovano u različitim organizmima, u različitim tipovima fizičkih sistema, upravo stoga jer mentalno
stanje definišemo nezavisno od toga u kakvom je sistemu ono realizovano, već ga definišemo isključivo
preko funkcionalne uloge koju to mentalno stanje ostvaruje u tom sistemu, a takva funkcionalna uloga je
ostvarljiva upravo u najrazličitijim sistemima. Filozof Ned Block naziva ovu pretpostavku funkcionalizma
manje šovinističkim tipom materijalizma, upravo stoga što dozvoljava da govorimo o mentalnim stanjima
kako kod čoveka, tako i kod vanzemaljaca ili mašina. Upravo stoga je funkcionalistička analiza mentalnih
stanja bitna za pretpostavku da mašine mogu imati mentalna stanja. Ako imamo na primer jednog robota kod
kojeg pojava određenog spoljašnjeg nadražaja, na primer neki udarac, izaziva povredu, t.j. određeni kvar
nekog dela, pri tom izazivajući određene reakcije robota, pre svega želju da se dato stanje popravi u cilju
normalnog funkcionisanja, i izazivajući određene motorne reakcije kao što bi to moglo biti u slučaju
oštećenja govornog aparata, nepovezano izgovaranje reči, mogli bismo reći da je naš robot u stanju bola. Pri
tom u potpunosti zanemarujemo kvalitativno stanje bola, odnosno osobinu ovog stanja da nekako izgleda biti
u njemu, da nekako izgleda osećati bol. Zanemarivanje kvalitativnog karaktera određenih mentalnih stanja se
takođe stavlja kao primedba funkcionalističkoj analizi mentalnih stanja.

Filozof Hilary Putnam, osobinu po kojoj dva sistema mogu deliti istu funkcionalnu organizaciju a pri tom biti
različitih konstitucija, naziva funkcionalni izomorfizam.

«Dva sistema su funkcionalno izomorfna ukoliko postoji korespodencija između stanja jednog
sistema i stanja drugog sistema koja čuva funkcionalna relacija.» (Putnam, Filozofija i naš
mentalni život u: Stanković, 2002, str.94)

Ako mentalna stanja možemo posmatrati samo u sklopu njihovih funkcionalnih opisa, iz teze o
funkcionalnom izomorfizmu bi sledilo da dva sistema mogu biti različite strukture a da ipak poseduju ista
stanja, odnosno, da imaju ista mentalna stanja, ukoliko dele istu funkcionalnu organizaciju. Kao što sam
Putnam ističe, najveća teškoća sa tezom o funkcionalnom izomorfizmu jeste činjenica da se ovom tezom
pretpostavlja da sve sisteme možemo definisati preko njihovog funkcionalnog opisa, što može biti sporno. Na
osnovu teze o funkcionalnom izomorfizmu takođe možemo zaključiti da ljudski mozak može biti
funkcionalno izomorfan kompjuteru sa odgovarajućim programom koji bi u funkcionalnom pogledu bio
identičan ljudskom mozgu.

«Na osnovu onoga što već znamo o računarima, sasvim je jasno da, kakav god bio program
našeg mozga, proizvođenje nečeg što bi imalo taj isti program, ali sasvim istu fizičku i
hemijsku konstituciju, fizički mora da bude moguće, mada ne i nužno izvodljivo. Prema tome,
poistovećivanje datog stanja sa njegovom fizičkom ili hemijskom realizacijom bilo bi potpuno
apsurdno, ako uzmemo u obzir činjenicu da je ova realizacija, sa stanovišta psihologije (koja
je ovde relevantna nauka) na određeni način akcidentalna. To bi bilo isto kao da sretnemo
Marsovce i otkrijemo da su nam oni izomorfni u svakom funkcionalnom pogledu, ali
odbijemo da priznamo kako su oni u stanju da osete bol zbog toga što su njihova c vlakna
razlikuju od naših.» (Putnam, Filozofija i naš mentalni život u: Stanković, 2002, str.95)
Putnam prosto tvrdi da ne možemo objašnjavati naše mentalno funkcionisanje preko naše konstitucije,
fizičke realizacije našeg sistema, što je i osnovna teza funkcionalizma, da mentalna stanja definišemo
isključivo pozivajući se na njihova funkcionalna obeležja.

Iz razloga što pri funkcionalističkoj analizi mentalnih stanja u potpunosti zanemarujemo određena
kvalitativna ili fenomenalna svojstva određenih mentalnih stanja, tvrdi se da je funkcionalistički govor o
mentalnim stanjima kvazineutralan. Neutralnost funkcionalističkog govora o mentalnim stanjima ne
proizilazi iz razloga što se mentalna stanja definišu pozivajući se na njihova kauzalna svojstva, već iz razloga
što se funkcionalizam, makar ne otvoreno, ne opredeljuje za stav o tome koja bi stanja mogla biti odgovorna
za pojavu kauzalnih svojstava mentalnih stanja. Da bi funkcionalistički govor o mentalnim stanjima bio
neutralan u pravom smislu te reči, on ne sme da se poklapa niti sa jednom od suprostavljenih gledišta o
prirodi mentalnog, znači ne sme da se podudara niti sa dualističkim ni sa materijalističkim pretpostavkama.
Izgleda da funkcionalizam ipak više odgovara materijalistima, i to podudaranje proizilazi upravo iz
funkcionalističe analize mentalnih stanja. Upravo iz razloga što funkcionalizam definiše sva mentalna stanja
pozivajući se samo na njihove tipične uzroke i tipične posledice, pri tom ne uzimajući u obzir što se određena
mentalna stanja odlikuju fenomenalnim karakterom, tvrdi se da funkcionalizam na taj način ustvari više
odgovara materijalizmu a nikako dualizmu, te na taj način ne može biti u neutralnoj poziciji. Ako izuzmemo
fenomenalni karakter mentalnih stanja pri pokušaju da definišemo mentalna stanja, time ustvari eliminišemo
osnovnu dualističku preptostavku da iz razloga što se mentalna stanja odlikuju fenomenalnim karakterom,
sledi njihova nesvodljivost na fizička stanja i procese, a podržavamo materijalističku postavku da se
mentalna stanja ne odlikuju nikakvim posebnim, suštinskim svojstvima koja bi bila tipično nefizička
svojstva. Upravo iz ovog razloga, tvrdi se da funkcionalistička analiza mentalnih stanja ide u prilog
materijalistima otklanjajući dualističke implikacije iz analize mentalnih stanja, iz čega bi proizilazila i
kvazineutralnost funkcionalističke teorije.

Kao odgovor na prigovor o ignorisanju kvalitativnih svojstava mentalnih stanja pri pokušaju da se
identifikuju mentalna stanja, ističe se da kvalitativna svojstva mentalnih stanja ne moraju biti njihova
suštinska svojstva. Možemo zamisliti organizam koji bi imao funkcionalnu organizaciju koja bi bila identična
ljudskoj, a da se mentalna stanja koja bi posedovao ne odlikuju kvalitativnim svojstvima. Možda je
kvalitativnost mentalnih stanja samo odlika ljudske psihologije, i ta činjenica ne bi trebalo da nas spreči u
pripisivanju mentalnosti i drugim organizmima, ili da nas ohrabri da tvrdimo da je takva mentalnost koja se
ne bi odlikovala kvalitativnim karakterom manje mentalnost ili da je mentalnost nižeg ranga. Takav stav bi
opet mogli nazvati šovinističkim, kako ga naziva filozof Ned Block. Dualisti su skloni da se pozivaju na
epistemološku intuiciju kad je reč o našem zdravorazumskom shvatanju mentalnih stanja, tvrdeći da nam
funkcionalistički govor o mentalnim stanjima deluje čisto intutivno neprihvatljivo. Pozivajući se na našu
epistemološku intuiciju možemo smatrati da funkcionalistička analiza mentalnih stanja nije dovoljna ili
potpuna i da čisto intuitivno možemo da zaključimo da se u definisanju mentalnih stanja moramo osvrnuti i
na činjenicu da bol boli ili da ruža miriše i da nekako izgleda doživljavati takva stanja, što se u potpunosti
izostavlja ako mentalna stanja definišemo samo preko njihove funkcionalne uloge.

Sigurno ne možemo negirati činjenicu da se određena mentalna stanja odlikuju nekim kvalitativnim
karakterom, jer prosto svako od nas je svestan te činjenice u trenutku kada nešto oseća, takav doživljaj je
stvar neposrednog iskustva svake individue. Možda bi mogli da nazovemo tu specifičnost čisto ljudskim
obeležjem, svojstvom ljudske mentalnosti, a ne svojstvom mentalnosti uopšte. Možemo zamisliti da će
jednog dana biti moguće napraviti androide, humanoidne robote, koji će, kako po izgledu i ponašanju, tako i
po mentalnim sposobnostima biti sasvim slični čoveku, iako se njihova mentalna stanja neće odlikovati
kvalitativnim karakterom, ali će imati istu funkcionalnu ulogu koja je tipična za svako mentalno stanje. Tako,
kako naš android neće moći osetiti na primer kakav ukus ima čokolada, on će ipak moći preko receptora koje
će posedovati, izvršiti direktnu analizu sastojaka čokolade, i poznavajući fiziologiju i psihologiju čoveka,
moći će da pretpostavi kakav ukus čokolada ima za čoveka, t.j. da je slatka. Ta činjenica da se mentalna
stanja mašina neće moći odlikovati kvalitativnošću nije dovoljna za tvrdnju da mašine ne mogu imati
mentalna stanja. Pre možemo reći da će mentalnim stanjima kod mašina nedostajati sposobnost subjektivnog
doživljaja određenih mentalnih stanja, da neće imati sposobnost da osete ukus čokolade ili sposobnost da
osete bol. Mogli bi smo tako reći da su kvalitativna svojstva nekih mentalnih stanja, njihova sekundarna
svojstva, a da je primarna upravo funkcionalna ili kauzalna uloga koju ta mentalna stanja ostvaruju u datom
sistemu. Odnosno da bismo identifikovali dato mentalno stanje, nije nam potrebno znanje o tome kako dati
subjekt doživljava to mentalno stanje.

Dualisti osporavaju tezu o nepotrebnosti znanja o kvalitativnom karakteru mentalnih stanja za posedovanje
potpunog znanja o mentalnim stanjima na sledeći način. Naime, oni tvrde da ako je ova pretpostavka tačna,
to bi značilo da imati samo funkcionalno-fizikalno znanje o mentalnim stanjima, odnosno da znati samo
funkcionalnu ulogu svakog mentalnog stanja – spoljašnje nadražaje koji ga izazivaju, druga mentalna stanja i
ponašanje koje prouzrokuje, kao i znanje o procesima u mozgu koji su odgovorni za pojavu ovih kauzalnih
relacija, predstavlja sve što možemo znati o mentalnim stanjima uopšte, ili jedno potpuno i celovito znanje o
mentalnim stanjima. Dualisti osporavaju pretpostavku o potpunosti funkcionalno-fizikalnog znanja o
mentalnim stanjima tvrdeći da upravo stoga što se ovim tipom znanja o mentalnim stanjima ne uzima u obzir
i kvalitativan karakter mentalnih stanja, odnosno osobina mentalnih stanja da nekako izgleda doživljavati ta
stanja i da je taj doživljaj čisto subjektivan, proizilazi nepotpunost funkcionalno-fizikalnog znanja o
mentalnim stanjima. Primer pomoću kojeg dualisti dokazuju svoj stav o nepotpunosti funkcionalno-
fizikalnog znanja o mentalnim stanjima, jeste primer osobe koja je recimo neosetljiva na bol, i koja ne zna
kako izgleda osećati bol, koja ne zna kako bol boli. Pri tom, ova osoba poseduje sva znanja o bolu koja nam
mogu dati neuronauke, od toga kako nastaje bol, šta ga prouzrokuje, kako se bol manifestuje, šta se dešava u
ljudskom telu u stanju bola, šta se dešava u mozgu u trenutku bola i kakva je ljudska reakcija na bol.
Možemo tvrditi da ova osoba tako poseduje potpuno funkcionalo-fizikalno znanje o bolu, iako nikada nije
iskusila bol. Dualisti tvrde da ako zamislimo da se datoj osobi povratila osetljivost na bol, tako da ona sada
može iskusiti bol, može imati neposredi doživljaj bola, da će upravo kroz doživljaj bola, ta osoba saznati
nešto o bolu što pre nije znala, a to je da nekako izgleda osećati bol. Takva informacija joj nije bila dostupna
kroz funkcionalno-fizikalnu sliku o stanju bola, što znači da je funkcionalno-fizikalni opis bola nepotpun,
upravo stoga što izuzima činjenicu o subjektivnom karakteru bola. Tvrdi se da ono što funkcionalno-fizikalna
analiza bola ne može objasniti ili predočiti jeste upravo iskustvo bola, te se stoga zaključuje da nije moguće
redukovati oblast mentalnih fenomena na fizička stanja i procese.

«Osobenost našeg istraživačkog položaja kada su u pitanju naša mentalna stanja upravo se
sastoji u tome što se, u odnosu na ovu vrstu stanja, ne nalazimo samo u ulozi posmatrača ili
trećeg lica, već i ulozi subjekta ili prvog lica. To znači da možemo da zauzmemo obe tačke
gledišta – i iskustvenu i posmatračku – kada sebi predočavamo neko stanje kao što je bol. Sa
iskustvene tačke gledišta, ovo stanje se ne odlikuje samo svojom karakterističnom
funkcionalnom ulogom i specifičnom fizičkom realizacijom u mozgu; ono se odlikuje i time
da nekako izgleda biti u njemu.» (Grahek, 1990, str.64)

Za dualiste, ovo je bitna činjenica i bitna informacija o mentalnim stanjima, jer izuzimajući informaciju o
iskustvu bola, mi tako prihvatamo nepotpuno znanje o bolu. Iz toga bi sledila i netačnost materijalističk og
shvatanja mentalnih stanja. Materijalisti se brane od ovakvih prigovora tvrdnjom da se tu zapravo i ne radi o
različitom tipu znanja kada je reč o funkcionalno-fizikalnom znanju i znanju kvalitativnog karaktera
određenog mentalnog stanja, da tip znanja o tome da nekako izgleda osećati bol, zapravo jeste samo vid
praktičnog znanja o nečemu, a ne neka nova informacija koju možemo saznati o bolu.

«Znanje o tome kako nam nešto izgleda uopšte ne predstavlja posedovanje neke informacije ...
(Ovo znanje) pre predstavlja posedovanje različitih sposobnosti: sposobnosti da prepoznajemo
nešto, sposobnosti da nešto zamišljamo ili sposobnosti da predviđamo sopstveno ponašanje
pomoći imaginativnih eksperimenata ... Nikakvim lekcijama nije moguće nekome podariti ove
sposobnosti – ali ko bi ikada pomislio da je to moguće? Nema sumnje da posedujemo znanje o
tome kako nam nešto izgleda ... Ali, fenomenalna informacija i njen poseban predmet ne
postoje.» (Dejvid Luis u: Grahek, 1990, str.79)

Da li ćemo savršeno isprogramiranom robotu, koji se u pogledu funkcionalno-fizikalne organizacije ne bi


razlikovao od čoveka, pripisati mentalnost i svesnost, jeste ključno pitanje za raspravu o potpunosti
funkcionalno-fizikalnog znanja o mentalnim fenomenima. Ako bi se pokazalo da je moguća ve{ta~ka svest,
odnosno ako se pokaže da je moguće napraviti sistem koji bi po svojoj funkcionalnoj organizaciji bio
identičan čoveku, i ako bi iz toga sledilo da takvom sistemu, samo na osnovu te osobine, možemo pripisati
mentalni život, onda bi značilo da funkcionalno-fizikalni opis mentalnih stanja jeste potpun. Dualisti
smatraju da programirani robot ne bi posedovao mentalni život upravo iz razloga što bi takav sistem
posedovao samo funkcionalo-fizikalni opis mentalnih stanja, koji nije potpun opis, te bi im nedostajalo
suštinsko svojstvo mentalnih stanja, njihov fenomenalni karakter, odnosno doživljaj ili subjektivno iskustvo,
te iz tog razloga ne bi mogli posedovati svest. Robot bi tako bio organizam koji bi u funkcionalnom pogledu
bio identičan čoveku, ali koji ne bi posedovao nikakve subjektivne doživljaje, nikakvo subjektivno iskustvo.
Za dualiste, iz toga bi sledila nemogućnost da robotima pripisujemo mentalni život uopšte. Ovaj argument je
poznat i kao zombi-argument i koristi se kao argument protiv funkcionalizma i fizikalizma. Zombiji su bića
koja se u funkcioalnom pogledu i po ponašanju ne bi razlikovali od ljudi ali bića koja uopšte ne poseduju
kvalitativan karakter iskustva, kojima nedostaje doživljaj bola, ili bilo kakva osetljivost. Tako bi zombiji
imali sve propratne funkcionalno-fizikalne karakteristike bola, ali ne bi osećali bol, ne bi ih ništa bolelo, ne bi
imali nikakvo subjektivno iskustvo bola, pa bi tako mogli reći da je slučaj zombija koji oseća bol, slučaj
lažnog bola ili nepostojećeg bola. A kako se na osnovu funkcionalno-fizikalne teorije smatra da je postojanje
samo funkcionalno-fizikalnih karakteristika dovoljno za pojavu bola, sledilo bi da ako su zombiji mogući,
onda funkcionalno-fizikalne karakteristike nisu dovoljne da bi smo nekom pripisali bol, već je nužno da
postoji i subjektivni doživljaj bola. A kako možemo da zamislimo mogućnost postojanja zombija, iz te
mogućnosti se dokazuje da je funkcionalizam netačan. Jedan od načina na koji se funkcionalizam brani od
ovakvih optužbi jeste da osporava dokaz na osnovu mogućnosti. Zombiji nisu stvarno mogući, te tako i nema
prave opasnosti po funkcionalizam. Drugi način odbrane bi podrazumevao tvrđenje da ako su moguća stanja
koja bi po svojim funkcionalnim svojstvima bila identična ali ne i po svojim kvalitativnim odlikama, onda bi
sledilo da su funkcionalna i kvalitativna svojstva međusobno nezavisna, odnosno, da je moguće da se pojave
jedna svojstva bez pratnje drugog tipa svojstva, što bi opet značilo da su mogući slučajevi kvalitativno
neobojenih stanja. Funkcionalisti bi tako tvrdili da mi onda ne možemo ni da napravimo razliku između
stanja pravog bola i prividnog stanja bola, jer bol možemo prepoznati kod drugih, znači iz perspektive trećeg
lica, samo na osnovu njegovih funkcionalnih svojstava, dok kvalitativna svojstva ostaju saznatljiva samo iz
perspektive prvog lica. Tako mi zapravo onda i ne možemo znati da li su svi oko nas zombiji, jer ne možemo
imati uvida u kvalitativni karakter nijhovih mentalnih stanja. Problem bi bio u tome što odsustvo
kvalitativnih svojstava ništa ne menja u pogledu funkcionalnih karakteristika jednog mentalnog stanja, te
tako ne postoji način da razlikujemo zombije od pravih ljudi. To bi značilo da prisustvo ili odsustvo
kvalitativnih svojstava ništa ne menja u pogledu funkcionalne uloge koju imaju mentalna stanja pa bi opet
mogli da zaključimo da ne moramo da se pozivamo na kvalitativna svojstva mentalnih stanja kada hoćemo
da identifikujemo ista. Dualisti bi sada morali da pokažu kako uopšte nije ni moguće da se pojavi stanje bola
koje ne bi bilo kvalitativno obojeno, ili samo prividno stanje bola i da nedostatak kvalitativnog svojstva
mentalnog stanja ustvari utiče i na funkcionalnu ulogu tog mentalnog stanja

Ako kriterijumi na osnovu kojih ljudima pripisujemo mentalna stanja jesu određene spoljašnje karakteristike
specifične za svako mentalno stanje, a koje možemo podvesti pod pojam funkcionalnih ili kauzalnih
karakteristika svakog mentalnog stanja, onda bismo mogli, na osnovu istih kriterijuma koje primenjujemo i u
slučaju čoveka, i savršeno programiranim robotima, koji bi ispoljavali iste spoljašnje karakterisitke
specifične za svako mentlano stanje, da pripišemo ista mentalna stanja.

Kada govorimo o intencionalnim stanjima poput verovanja, mišljenja, želja, ističe se da je postupak
definisanja ovih stanja prema njihovim funkcionalnim ulogama lakši nego što je to slučaj u pogledu
fenomenlano obojenih stanja poput bola, ukoliko prihvatamo stanovište po kojem se ova stanja ne odlikuju
kvalitativnim karakterom. Tako, verovanje kao jedno intencionalno stanje bi mogli funkcionalno da opišemo
kao stanje koje je tipično prouzrokovano ~ulnom percepcijom ili nekim drugim verovanjima, i koje ima
tendenciju da u interakciji sa određenim željama proizvede određeno ponašanje. Ipak funkcionalizmu se i u
slučaju intencionalnih stanja upućuju određeni prigovori. Naime, problem bi bio u tome što nije moguće tako
jasno odrediti šta tačno uzrokuje jedno verovanje, obično se pozivamo na neka druga verovanja. U slučaju
bola, na primer, možemo tačno odrediti spoljašnje nadražaje koji mogu uzrokovati bol, dok u slučaju
verovanja to nije tako jednostavno. Često, jedno verovanje povlači za sobom neko drugo verovanje, kao na
primer verovanje da Petar voli Anu može biti uzrokovano verovanjem da Ana voli Petra. U tom kontekstu,
verovanje bi moglo biti uzrokovano različitim drugim mentalnim stanjima i relacijama između mentalnih
stanja. Često je moje verovanje uzrokovano onim što želim ili onim što mislim, znači nekim sadržajima
drugih mentalnih stanja. Isto tako, verovanje kao intencionalno stanje, ima određeni sadržaj koji je usmeren
na nešto, postoji određeni predmet na koji se moje verovanje odnosi. Zato se ističe da ono što moje verovanje
predstavlja ili o čemu je, ne može biti razmatrano a da se ne uzme u obzir i spoljašnji svet koji me okružuje a
koji može dosta da utiče u obrazovanju mojih verovanja, kao i drugih intencionalnih mentalnih stanja koja
uvek imaju određeni sadržaj koji u većini slučajeva može da se odnosi na spoljašnji svet. Zato se ističe da se
u analizi intencionalnih mentalnih stanja moramo osvrnuti i na spoljašnje okruženje svake individue
ponaosob, što bi značilo da različite individue koje su se razvijale u različitim okruženjima mogu imati
različita intencionalna stanja iako im sam način rezonovanja može biti isti. Ističe se da ukoliko funkcionalisti
ne mogu da uključe u svoju analizu intencionalnih mentalnih stanja i određeno upućivanje na spoljašnju
sredinu individue koja može da obrazuje sadržaje intencionalnih mentalnih stanja, onda je funkcionalna
analiza intencionalnih mentalnih stanja netačna.

U pokušaju da se odgovori na ovakve prigovore, funkcionalisti su se podelili u dve grupe, prema tome kako
definišemo tipične uzroke i tipične posledice intencionalnih mentalnih stanja. Tako, jedna grupa smatra da
tipične uzroke i tipične posledice mentalnih stanja moramo da definišemo pozivajući se na spoljašnju sredinu
sistema o čijim mentalnim stanjim govorimo i ova grupa se naziva «long-arm» funkcionalistička teorija. Po
njihovom shvatanju, individue iz bitno različitih sredina bi imale bitno različita verovanja i želje, te je tako
nužno da u analizu mentalnih stanja poput verovanja i želja uključimo i pozivanje na spoljašnju sredinu.
Drugi tip teorije zvane «short-arm» funkcionalistička teorija smatra da prilikom analize intencionalnih stanja
treba da se ograničimo samo na određeni sadržaj tih stanja, pa tako tipične uzroke i tipične posledice tih
stanja treba da definišemo pozivajući se samo na određene unutrašnje aktivnosti datog sistema, kao što su
određene motorne ili senzorne aktivnosti, znači ne uzimajući u obzir spoljašnji uticaj na intencionalna stanja.
Zato se i govori o ograničenom sadržaju intencionalnih stanja. To bi omogućilo fukcionalistima da tvrde da
dve individue iz različitih sredina dele ista intencionalna stanja.

Funkcionalizam kao teorija vuče svoje osnovne postavke, pre svega tezu o funkcionalnoj organizaciji
sistema, iz teorije koju je postavio britanski matematičar A. M. Turing 1950. godine u svom tekstu
«Computing machinery and intelligence». Turing je još 1935. godine postavio ključno pitanje veštačke
inteligencije: «Mogu li mašine misliti?» Kako je nejasno značenje termina «mašina» i «misliti», Turing je
predložio da se pitanje preformuliše tako da izbegnemo uobičajna značenja ovih termina ili tako da se ne
bavimo ovim terminima na uobičajan način. Turnig je smatrao da bi nas to odvelo u neozbiljnu diskusiju.
Umesto pitanja «Mogu li mašine misliti?», Turing je hteo da predloži pitanje koje će biti mnogo preciznije i
jasnije definisano, upravo na takav način da se umesto termina mašina i misliti postave jasnije određeni i
nedvosmisleno definisani termini. Tako je Turing zapravo postavio jednu sasvim novu formu problema
veštačke inteligencije. Novu formu problema Turing je opisao kroz igru imitacije. Naime, ova igra se igra
između troje ljudi, muškarca, žene, i ispitivača, čiji je pol nebitan. Ispitivač je u posebnoj sobi, odvojen od
muškarca i žene i njegova uloga je da na kraju igre pogodi koja osoba je muškarac a koja je žena, a kako bi to
postigao dozvoljeno mu je da postavlja pitanja igračima. Pitanja i odgovori se pišu, kako bi se izbeglo da
boja glasa igrača ne pomogne ispitivaču da pogodi ko je ko. Turing je zatim predložio da jednog od igrača,
čiji pol ispitivač treba da pogodi, zamenimo mašinom, i da sad ispitivač ima zadatak da pogodi ko je čovek a
ko je mašina. Turing ističe da ako ispitivač ne može da pogodi identitet igrača, odnosno da odredi čiji
odgovori su od strane čoveka a čiji od strane mašine, ako mašina može svojim odgovorima da prevari
ispitivača, onda možemo reći da mašina može misliti. Turing je ovde ustvari predložio jedan test inteligencije
koji se zasniva na testiranju bihejvioralnih sposobnosti datog sistema, i tako pitanje «Mogu li mašine
misliti?» zamenio pitanjem «Mogu li mašine proći igru imitacije?». Turing je tako smatrao da svako ko je
sposoban da imitira ponašanje i mišljenje muškarca ili žene, je i sam sposoban za mišljenje. Pri tom, ukoliko
neko ne prođe igru imitacije, to ne znači odsustvo inteligencije, čime se izbegavaju opet šovinističke
pretpostavke da je samo posedovanje ljudskog oblika inteligencije, u ovom slučaju ljudskog načina
konverzacije i ponašanja, dovoljan kriterijum da nekom pripišemo inteligenciju. Određivanje inteligencije
kroz igru imitacije, gde onaj ko donosi sud o vašoj inteligenciji, to radi samo na osnovu vaših odgovora na
zadata pitanja, a ne i na osnovu percepcije, što se postiže time što ispitivač koji donosi sud ne vidi učesnike u
igri, važan je zaključak Turingovog testa. Time se ustvari tvrdi i osnovna postavka funkcionalizma, da
inteligenciju ne treba vezivati za određene fizičke karakteristike sistema, već za sposobnost i funkcionalnost
sistema u rešavanju različitih problema, u moći razumevanja i razmišljanja prilikom suočavanja sa
problemom. Svako ko može da vodi jedan oblik racionalne konverzacije i da ispoljava jedan oblik
racionalnog ponašanja, mora biti sposoban i za mnoge druge inteligentne aktivnosti. Turingova pretpostavka
je da ako je neki sistem ima sposobnost da simulira inteligenciju, ili da se pretvara da je inteligentan, onda
stvarno i mora biti inteligentan. A posedovanje jednog mentalnog stanja povlači za sobom posedovanje i
drugih mentalnih stanja. Inteligencija shvaćena u kontekstu Turingovog testa bi bila sposobnost inteligentnog
vladanja ili ponašanja, bilo da je reč o rešavanju problema, komunikaciji ili nečemu drugom.

Kada govori o mašinama koje mogu uzeti učešće u igri imitacije, Turing tačno specifikuje o kojim mašinama
tu može biti reči. Turing ovde pod pojmom mašine misli na digitalne kompjutere koji se sastoje iz tri dela: -
skladište ili memorija koja služi za skladištenje informacija, - izvršna jedinica ili procesor, deo koji služi za
izvršavanje različitih idividualnih operacija, - kontrolna jedinica koja služi za proveru izvršenih operacija.
Turing navodi da bi digitalni kompjuteri trebali da budu mašine sa diskretnim stanjima, što bi trebalo da
znači da imaju sposobnost da iznenadnim skokovima prelaze iz jednog konačnog stanja u drugo. Takođe, to
su mašine koje bi trebalo da imaju beskonačnu memoriju ili sposobnost neograničenog skladištenja. I na
kraju digitalni kompjuteri bi trebalo da budu univerzalne mašine, što bi značilo da mogu da oponašaju svaku
mašinu sa diskretnim stanjima, što bi konkretno značilo da digitalni kompjuter može izvršavati najrazličitije
operacije, uz odgovarajuće programe za svaki tip procesa.

«Sugerisano je da se pokuša da se pitanje «Mogu li mašine misliti?» zameni pitanjem «Da li


postoje zamislivi digitalni kompjuteri koji bi dobro prošli igru imitacije?» Ako hoćemo,
možemo ovo pitanje postaviti malo opštije: «Da li postoje mašine sa diskretnim stanjima koje
bi dobro prošle (igru imitacije)?» (Turing, 1950, str.5)

Sam Turing nudi u pomenutom tekstu svoje lično mišljenje o mogućnosti da jednog dana imamo mašine koje
će sa velikim uspehom prolaziti igru imitacije, odnosno koje će bez problema moći zavarati posmatrača
svojom konverzacijom i ponašanjem, te tako se uspešno predstavljati kao inteligentne.

»Verujem da će u sledećih pedeset godina biti moguće programirati kompjutere sa memorijom


oko 109, koji će moći igrati igru imitacije tako dobro da prosečni ispitivač neće imati mnogo
šanse da napravi tačnu identifikaciju nakon pet minuta ispitivanja. ... Bez obzira na to verujem
da će se krajem veka upotreba reči i uopšte neko generalno mišljenje toliko promeniti da će
svako moći da priča o mišljenju kod mašina bez očekivanja da mu neko protivreči.» (Turing,
1950, str.6)

Mnogi protivnici veštačke inteligencije su upravo navodili ovo Turingovo neostvareno predviđanje kao
dokaz o neostvarenom usponu inteligencije kod mašina pa tako i njenoj nemogućnosti. U današnje vreme još
uvek nemamo mašine koje bi sasvim dobro odigrale igru imitacije, odnosno koje bi mogle da vrše
konverzaciju tako dobro da posmatrač ne može da pogodi da razgovara sa mašinom. Još uvek nije
napravljena odgovarajuća simulacija ljudske inteligencije. Možda treba spomenuti primer ELIZE, programa
za simulaciju psihijatra. Eliza funkcioniše tako što reaguje na određene ključne reči, poput ja, otac, majka i
slično i zatim ih ponavlja formulišući pitanja na osnovu pomenutih reči, na primer ako spomenete reč otac u
nekoj od rečenica, mašina će odgovoriti: «Šta ti još pada na pamet kada pomisliš na svog oca?» i slično.
Upuštajući se u konverzaciju sa Elizom, vrlo brzo možemo otkriti da je ustvari reč o programu, upravo iz
razloga ograničenosti njene konverzacije, na osnovu toga što se često ponavlja i formuliše uvek na isti način
pitanja ili što ne odgovara direktno na pitanja. Ili slučaj kompjuterske simulacije paranoidnog pacijenta
zvanog Parry. (Dennett, 1990) Napravljen je test, sličan Turingovom testu, u kome su učestvovali pravi
psihijatri, koji su intervjuisali Perry-ja, isto putem kucanja odgovora i pitanja, pri tom ne znajući da je reč o
kompjuterskoj simulaciji, i koji su istovremeno intervjuisali na isti način i ljudske paranoidne pacijente.
Potom je psihijatrima rečeno da je jedan od pacijenata samo kompjuterska simulacija pacijenta i traženo im
je da na osnovu svih transkripta pogode koji od transkipta predstavlja konverzaciju sa kompjuterom.
Ispostavilo se da ni jedan od psihijatara nije mogao da pogodi čiji je transkript bio lažan. Ali i u slučaju ovog
programa ima mnogo nedostataka, i ograničenosti, i uz obraćanja malo više pažnje može se otkriti da je reč
samo o kompjuterskom programu. Ipak, Eliza i Parry mogu, u nekoj kraćoj konverzaciji, mnoge zavarati da
pomisle da komuniciraju sa stvarnim psihijatrom ili paranoidnim pacijentom.

Određujući inteligenciju mašina na osnovu toga da li je mašina u stanju da ispolji određeni oblik
konverzacije i ponašanja koji bi bio sličan ljudskom, vodi ka zaključku da kriterijumi na osnovu kojih nekom
pripisujemo posedovanje mentalnih stanja jesu upravo ono što funkcionalisti nazivaju funkcionalnim opisom
mentalnih stanja. To što kompjuter može adekvatno da odgovori na verbalni stimulans koji mu je upućen i da
pri tom ispolji određeni oblik ponašanja prikladan za datu situaciju, jeste dovoljan kriterijum za inteligenciju.
Upravo na isti način inteligenciju pripisujemo i ljudima, na osnovu toga što mogu da vrše prikladnu
konverzaciju i da pruže odgovarajuće ponašanje. Što ne treba da znači da neko ko ne ume da vodi prikladnu
konverzaciju ili ko ne ume adekvatno da se ponaša, nije inteligentan, odnosno bihejvioralne dispozicije ne
moraju biti nužan kriterijum za inteligenciju, ali jesu dovoljan kriterijum za posedovanje inteligencije.
Turingov test jeste polazna osnova za tezu po kojoj mentalna stanja možemo pripisati svakom sistemu sa
funkcionalnom organizacijom karakterističnom za svako mentalno stanje, bez obzira na fizičku konstituciju
tog sistema, što je osnovna funkcionalistička pretpostavka.

«Ako Marsovac može naučiti da govori ljudski jezik, ili ako možemo napraviti robota koji bi
se mogao ponašati na način koji je suštinski za govornika jezika, onda se atribut implicitnog
znanja ispravne teorije značenja jezika može dodeliti marsovcu ili robotu sa istim pravom kao
i čoveku, iako njihovi mehanizmi mogu biti sasvim drugačiji.» (Dummett u Block, 1981,
str.1)

Turing se u tekstu bavi i nekim osnovnim prigovorima njegovoj koncepciji inteligencije po kojoj je moguća
kompjuterska simulacija ljudske inteligencije. Ti prigovori se uglavnom odnose na problem nedostatka
kvalitativnih svojstava stanja koja bi mašine eventualno posedovale, pa se tako navodi da mašine nikad neće
moći pisati sonete ili se baviti nekom umetnošću upravo jer je reč o prostim mehanizmima kojima nedostaju
emocije, ili da mašine ne mogu biti predmet svojih sopstvenih misli, imati neke doživljaje i slično. Svi ovi
argumenti se svode na prigovor da mašine nikad neće moći imati tako različite sposobnosti kakve ima čovek
a koje su sve sastavni element ljudske inteligencije. Turing na sve ove prigovore odgovara tako što problem
nedostatka raznovrsnih sposobnosti mašina vezuje za nedovoljni kapacitet memorije koju imaju trenutni
kompjuteri. Turing ustvari ukazuje na činjenicu za kojom se povode i savremeni zastupnici veštačke
inteligencije, da onog trenutaka kada kapacitet memorije kompjutera bude odgovarao kapacitetu mozga,
moći ćemo govoriti o pravoj kompjuterskoj simulaciji mozga.

Turing je svojom koncepcijom inteligencije postavio temelje osnovnoj ideji veštačke inteligencije, da
kompjuter sa odgovarajućim programom može u potpunosti simulirati ljudski mozak i da onog trenutka kada
budemo imali kompjutere sa odgovarajućim programom imaćemo i inteligentne mašine. Ova pretpostavka se
zasniva na tezi po kojoj mozak i moždane procese možemo u potpunosti da prevedemo na jezik računara,
odnosno da mu damo odgovarajući čisto formalni opis, ili da ga opišemo jezikom simbola. Ova pretpostavka
će poslužiti i kao osnovni prigovor Turingovoj koncepciji inteligencije. Iz činjenice da su kompjuteri
programirani, i da su osposobljeni da rade samo ono za šta su programirani, te je tako njihov krug
sposobnosti bitno ograničen, i da je ljudska inteligencija i ljudska svest mnogo više od pukog baratanja
formalnim simbolima, koji su prazni i bez sadržaja, tvrdiće se da mašine nikad neće moći biti svesne i
inteligentne na način na koji je to čovek. Bez obzira na moć i kapacitet kompjutera, iz same činjenice da je
svest biološka i da nije formalna sledi da kompjuteri nikad neće moći biti svesni. Ovim prigovorom koji je
postavio filozof J. Searle ćemo se posebno pozabaviti.

Pitanje koje se nameće ako prihvatimo Turingovu koncepciju inteligencije po kojoj dovoljan kriterijum da
nekom sistemu pripišemo inteligenciju jeste ispoljavanje određenog karakterističnog oblika ponašanja i
komunikacije, jeste da li je programirano ponašanje inteligentno ponašanje. U slučaju kompjutera moramo
govoriti o programiranom ponašanju, jer je tu reč o kompjuteru koji je programiran da prođe igru imitacije,
odnosno koji je programiran za adekvatnu konverzaciju i ponašanje. Tako, kompjuter radi tačno ono za šta je
programiran, odnosno sledeći skup instrukcija i pravila koji su mu ugrađeni, kompjuter je osposobljen da
izvrši zadatak, da ispuni cilj. Kako je reč o isprogramiranoj aktivnosti, nameće se pitanje da li u tom slučaju
uopšte možemo govoriti o inteligenciji ili svesti. Ako uzmemo primer ljudskog ponašanja, možda možemo
reći i da čovek ispoljava jedan oblik isprogramiranog ponašanja, sa tom razlikom što čovek tokom iskustva
uči potrebne obrasce ponašanja i komunikacije, te mu oni nisu odjednom ugrađeni. I čovek se ponaša
poštujući i sledeći određena pravila i instrukcije koje je naučio tokom životnog iskustva, a raznovrsnost i
ponekad nepredvidivost ljudskog ponašanja se može objasniti samo većim spektrom obrazaca ponašanja koje
čovek poseduje i čijom kombinacijom možemo dobiti originalnost i autentičnost. Isti slučaj možemo imati i
sa programiranom veštačkom inteligencijom koja će, ukoliko poseduje više informacija i više različitih
programa, moći prostim kombinacijama istih doći do originalnosti, nepredvidivosti i raznovrsnosti u svom
ponašanju, komunikaciji ili bilo kojoj drugoj radnji. Ustvari i kod čoveka i kod mašine možemo govoriti o
vrlo sličnom obliku isprogramiranog ponašanja, gde inteligenciju vezujemo za mogućnost i sposobnost
kombinovanja tih različitih usvojenih programa zarad prilagođavanja datim situacijama ili u cilju rešavanja
određenih problema ili ostvarivanja ciljeva.

Pretpostavka Turingove koncepcije inteligencije jeste polazna osnova i za kompjutacionističku teoriju svesti,
koju možemo smatrati jednim oblikom funkcionalizma. Naime, kompjutacionistička teorija posmatra
čovekov kognitivni sistem kao jedan čisto formalni, simbolički sistem, koji kao takav može u potpunosti biti
preveden na čisto formalni, simbolički jezik, odnosno koji može biti opisan na čisto formalan, sintaksički
način. Iz toga sledi da, kako se digitalni kompjuteri koriste istim formalno-simboličkim jezikom u svojim
operacijama, da ako napravimo odgovarajući program koji bi simulirao iste procese i relacije koji se
odigravaju u mozgu, imali bismo program koji bi bio inteligentan u istom smislu u kojem je čovek
inteligentan. Ovde se pretpostavlja da možemo dati adekvatan opis moždanih procesa služeći se samo
formalnim jezikom, koji je jezik računara, i da ako obezbedimo sintaksu, znači, formalni nivo opisa,
semantika će se sama od sebe pojaviti, odnosno određeni sadržaji neophodni za pojavu svesne inteligencije,
kako ne bismo govorili o praznoj i mrtvoj svesti. Iz ove teze proizilazi gledište po kojem je mozak isto što i
kompjuterski hardware a svest isto što i odgovarjući kompjuterski software. Ukoliko mozak može biti
formalizovan, odnosno ukoliko se može dati odgovarajući formalni opis moždanih procesa, onda mozak
može biti i dupliciran, odnosno može biti simuliran od strane odgovarajuće mašine čiji bi program podražavo
identične formalne procese. Ukoliko ljudski mozak i kompjuterski program imaju istu sintaksu, imaće i istu
semantiku, ili ukoliko imaju identičan formalni nivo opisa stanja, imaće ustvari identična stanja u svakom
smislu. To proizilazi iz pretpostavke da su kauzalne relacije između stanja jednog fizičkog sistema jedanke ili
analogne formalnim relacijama između stanja jednog veštačkog sistema. Pitanje koje stoji otvoreno kada
postavimo jednu ovakvu teoriju svesti, jeste da li su sva stanja našeg kognitivnog sistema kompjutabilna,
odnosno da li je formalni nivo opisa potpun i dovoljan za sva stanja našeg kognitivnog sistema. U tom
kontekstu se navodi da stanja poput emocija, bola i sličnih subjektivnih doživljaja se ne mogu prevesti na
jezik simbola, ili računarski jezik. Ne možemo imati program koji bi na adekvatan način podražavao stanja
poput emocija ili bola. Isto tako se navodi da i u slučaju stanja poput mišljenja, verovanja i slično, znači
intencionalnih stanja, nećemo moći pružiti adekvatan formalni opis, jer sintaksa nije dovoljna za semantiku.
U ovom slučaju imali bismo misli i verovanja bez ikakvog sadržaja i pravog značenja, puko baratanje
simbolima bez značenja i sadržaja, ili bez značenja i sadržaja koji bi imali neki smisao samoj mašini koja
operiše ovim simbolima. Ističe se da sama mašina, bez obzira na adekvatan program koji bi imala a koji bi na
odgovarajući način podražavao stanja našeg kognitivnog sistema, ne može nikad imati razumevanje onoga
šta radi, svojih procesa i operacija koje vrši. Ovde se suočavamo sa istim probemima kao i u slučaju
funkcionalističke teorije mentalnih stanja, sa pitanjem da li je funkcionalni opis mentalnih stanja dovoljan i
potpun opis istih, ili mentalna stanja poseduju u sebi neko suštinsko svojstvo koje izmiče čisto
funkcionalnom opisu, što bi u ovom kontekstu bilo pitanje da li je moguće dati adekvatan čisto formalni opis
mentalnih stanja jednog fizičkog sistema, tako da ako jedan veštački sistem programiramo na način koji u
potpunosti podražava kauzalne relacije između stanja datog fizičkog sistema, samo sada izraženo formalnim
jezikom, da će se u datom veštačkom sistemu pojaviti mentalnost. To bi značilo da je formalna struktura
jednog sistema izomorfna kauzalnoj strukturi drugog sistema. Ova pretpostavka se zasniva istovremeno i na
funkcionalističkom gledištu da ono što je bitno i esencijalno za pojavu mentalnosti jeste samo apstraktna
kauzalna struktura mozga, kao i na kompjutacionističkoj pretpostavci da je takva apstraktna kauzalna
struktura mozga kompjutabilna, odnosno da je moguće izraziti je algoritmički. To bi konkretno značilo da je
moguće napraviti program koji bi podražavo mozak podražavajući njegovu apstraktnu kauzalnu strukturu, što
bi onda značilo da bi takav program bio dovoljan za pojavu mentalnosti kod mašina. Funkcionalisti i
kompjutacionalisti tako odbacuju gledište po kojem je za pojavu mentalnosti bitna i fizička struktura u kojoj
se date kauzalne relacije ostvaruju, ili konkretno biološka struktura mozga.

Protivnici kompjutacionalističke teorije izražavaju stav po kojem je upravo činjenica da je mozak pa tako i
svest kao realizovana u strukturi mozga, bitno biološki fenomen, i da je upravo sama biološka struktura
mozga bitna za pojavu onih kauzalnih relacija odgovoranih za pojavu svesti i drugih mentalnih stanja,
odnosno da je činjenica da je mozak biološke strukture ključna za pojavu mentalnosti. Prema tom gledištu,
samo podražavanje određenih kauzalnih relacija koje se odigravaju u mozgu u sistemu koji nema istu fizičku
strukturu koju ima i mozak, nije dovoljno da bi se u datom sistemu pojavila mentalna stanja. Za takav sistem
bi mogli reći da operiše simbolima bez smisla i značenja, prema pravilima i instrukcijama koje su mu date
kroz odgovarajući program, da je to jedan čisto formalni, sintakasički sistem bez ikakvog oblika razumevanja
operacija koje vrši i bez ikakvih unutrašnjih sadržaja.

Ukoliko je tačno da kognitivni sistem na račun svoje kauzalne organizacije poseduje mentalne karakteristike
i da se kauzalna struktura kognitivnog sistema može prevesti na formalni jezik ili ukoliko je kompjutabilna,
onda je kompjutacionalistička teorija tačna. Ukoliko je za pojavu mentalnih stanja pored kauzalne
organizacije sistema bitna i njegova fizička struktura, ili ukoliko se kompjutacija kognitivnog sistema ne
može izvršiti uopšte ili se ne može izvršiti u potpunosti (ako se na primer fenomenalna svojstva mentalnih
stanja ne mogu podvrći kompjutaciji), onda kompjutacionlistička teorija nije izvodljiva, iz čega bi sledilo da
mozak ne može biti identičan sa kompjuterskim hardware-om a svest sa kompjuterskim software-om. Iz toga
bi opet prozilazilo da svesne mašine nisu moguće. Jedini način da se kompjutacionistička teorija odbrani od
ovakvih napada jeste da se uzda u to da će dalja istraživanja mozga pokazati da su principi na kojima mozak
funkcioniše identični formalnim principima na kojima funkcionišu kompjuteri i da će dalji napredak
kompjuterske tehnologije dovesti do stvaranja veštačkih sistema koji će posedovati svesnu inteligenciju.
Teorijska argumentacija i jednog i drugog gledišta nam ne može u ovom trenutku dati odgovor na pitanje
mogu li mašine imati mentalna stanja, tako da prisvajanje jedne ili druge strane izgleda da je više stvar ličnog
entuzijazma i opredeljenja u pogledu toga kako zamišljamo budućnost.
MISAONI EKSPERIMENT KINESKA SOBA

Filozof John Searle je postavio verovatno najuticajniji argument u prilog tezi da mašine ne mogu imati
mentalna stanja. Argument se svodi na činjenicu da je kompjuterski program čisto fomalan, sintaksički dok je
svest bitno semantička, t.j. da poseduje određene unutrašnje sadržaje i imati svest je mnogo više nego imati
određene formalne procese. Zato nikakav program nikad ne može uzrokovati svest u mašini, jer sintaksa nije
dovoljna za semantiku, odnosno nikakvi formalni procesi, na kojima se zasniva kompjuterski program, ne
mogu stvoriti određene unutrašnje sadržaje kojima se odlikuju naša mentalna stanja. Osnovna tvrdnja Searle-
ovog argumenta počiva upravo na tezi da sintaksa nije dovoljna za semantiku i da je svest semantička dok je
program sintaksički pa tako ni jedan program ne bi bio dovoljan za pojavu svesti. Formalni principi na
kojima operišu kompjuteri nemaju nikakav smisao, značenje ili sadržaj.

«Kako su programi definisani strogo formalno ili sintetički i kako mentalna stanja imaju
unutrašnje mentalne sadržaje, momentalno sledi da program sam po sebi ne može da
proizvede svest. Formalna sintaksa programa ne garantuje sama po sebi prisustvo mentalnih
sadržaja. ... Argument počiva na jednostavnoj logičkoj istini da sintaksa nije isto što i, niti je
sama po sebi dovoljna, za semantiku.» (Searle, 1980)

Searle se svojim argumentom obraća pre svega radikalnom gledištu veštačke inteligencije ili «strong» AI-u
prema kojem je svest za mozak ono što je program za kompjuter. Prema tom stanovištu, mozak na
određenom nivou funkcioniše na čisto formalnim principima, znači poseduje kompjutacionu strukturu, poput
kompjutera. Ako mozak, kao sintaksički motor, može da proizvede svest funkcionišući na čisto formalnim
principima, onda to mora biti moguće i u drugim sistemima koji bi funkcionisali na istim formalnim
principima na kojima funkcioniše i mozak. To znači da ako imamo program koji bi na formalnom nivou
posedovao istu kauzalnu strukturu poput moždane, onda bi takav program mogao da proizvede svest. Ova
teza se zasniva na pretpostavci da je sintaksa dovoljna za semantiku, i da će se mentalna stanja, sa svim
potrebnim unutrašnjim sadržajima, sama od sebe pojaviti u svakom sistemu koji poseduje odgovarajuću
funkcionalnu ili kauzalnu strukturu.

Searle je pokušao da ospori glavnu pretpostavku «radikalnog» gledišta veštačke inteligencije da je mozak
digitalni kompjuter a svest kompjuterski program, posluživši se jednim misaonim eksperimentom. Naime,
Searle zamišlja da je zaključan u jednoj sobi i da mu je data neka gomila tekstova na kineskom jeziku, koju
on ne razume i koje mu izgledaju skroz bez ikakvog smisla jer ne zna kineski jezik. Pored toga, data mu je i
knjiga sa instrukcijama, koja je na engleskom jeziku, koji on razume, i koja treba da mu pomogne da poveže
kineske simbole iz jedne grupe tekstova sa kineskim simbolima iz druge grupe tekstova. Za njega ovi kineski
simboli predstavljaju puke formalne simbole u smislu da ih on prepoznaje čisto prema njihovom obliku, ne
znajući uopšte njihov smisao i značenje. Knjigu sa instrukcijama ili pravilima koja treba da mu pomogne da
poveže simbole Searl naziva programom. Takođe, postoji i treća grupa tekstova na kineskom koja
predstavljaju pitanja, što osoba u sobi ne zna. Sada, zadatak osobe u sobi jeste da, povodeći se prema
programu ili datim pravilima, povezuje simbole iz prve dve grupe tekstova sa trećom grupom tekstova, i da
sada, tako povezane simbole, vrati istim onim ljudima koji su mu uopšte i prosledili te kineske simbole, što
oni nazivaju odgovorima na pitanja. Pretpostavimo sada da se osoba u sobi tako izveštila u povezivanju
simbola prema zadatim pravilima, i da su se oni koji pišu ta pravila, programeri, toliko izveštili u pisanju
programa, da nekom posmatraču sa strane, koji nije upoznat sa činjenicom da osoba u sobi ne zna kineski
jezik, izgleda kao da se vodi sasvim normalna konverzacija između ljudi izvan sobe i čoveka u sobi, gde prvi
postavljaju neka pitanja a drugi odgovara na ta pitanja. Odnosno, nekome sa strane koji bi čitao ta pitanja i te
odgovore bi izgledalo kao da je osobi u sobi kineski jezik maternji jezik i da savršeno razume pitanja
postavljena na kineskom jeziku dajući odgovarajuće odgovore na kineskom. A istina je da osoba zatvorena u
sobi uopšte ne razume kineski i da date kineske simbole prepoznaje samo prema njihovom obliku i da daje
odgovore na pitanja samo manipulišući formalnim simbolima čija značenja uopšte ne zna. Za Searle-a, osoba
zatvorena u sobi se ponaša poput kompjutera, izvodi određene operacije nad formalnim simbolima prateći
program po čijim principima i funkcioniše. Možemo ustvari zamisliti da je cela soba sa osobom zatvorenom
unutra jedan kompjuter, a knjiga sa instrukcijama koja uopšte i omogućava osobi da izvrši zadatak, program.
Ono što Searle hoće ovim primerom da pokaže jeste to da na istom principu po kojem i osoba u zatvorenoj
sobi razume kineski, i kompjuter razume kineski, odnosno da kompjuter uopšte ne razume kineski jezik iako
ima sposobnost da manipulišući određenim formalnim simbolima daje razumljive odgovore na zadata pitanja
na kineskom jeziku. Kao što osoba zatvorena u sobi nema nikakvo razumevanje niti dobijenih pitanja na
kineskom niti razumevanje odgovora koje daje na ta pitanja, tako ni kompjuter nema nikako razumevanje
različitih operacija koje vrši nad čisto formalnim simbolima koji za njega nemaju nikakvo značenje, a ono što
mu omogućava da izvrši postavljeni zadatak jeste program ili skup pravila koja mu omogućavaju da na
pravilan način manipuliše simbolima, a ne razumevanje celog procesa.

«... ako primena odgovarajućeg kompjuterskog programa za razumevanje kineskog, nije


dovoljna da vam osigura razumevanje kineskog, onda ona nije dovoljna ni za to da bilo kom
drugom digitalnom kompjuteru osigura razumevanje kineskog. ... Ako ne razumete kineski,
onda ni jedan kompjuter ne može razumeti kineski zato što pukom primenom programa ni
jedan digitalni kompjuter ne dobija ništa što vi sami nemate. Sve što kompjuter ima, kao i vi,
jeste jedan formalni program za manipulisanje neinterpretiranim kineskim simbolima. Da
ponovimo, kompjuter ima sintaksu, ali ne i semantiku.» (Searle, 1990, str.36)

To bi vodilo zaključku da sintaksa nije dovoljna za semantiku, ili da čisto formalno baratanje simbolima ne
vodi i razumevanju značenja tih simbola, odnosno da kompjuteri koji funkcionišu na čisto formalnim
principima, ne mogu posedovati intencionalnost. Program je čisto sintaksički, zasniva se na formalnim
pricipima koji omogućavaju pravilnu manipulaciju simbolima, tako da kompjuter koji operiše na ovom
principu nema nikakvo stvarno razumevanje značenja simbola na kojima operiše. Svest je bitno semantička,
ona poseduje razumevanje značenja simbola, iz čega bi sledilo da ni jedan kompjuterski program nije sam po
sebi dovoljan da nekom sistemu podari svest. Kao što ni osobi zatvorenoj u sobi pravila nisu pružila
razumevanje kineskih simbola, ili mu nisu dala razumevanje kineskog jezika, a opet su mu omogućila da na
pravilan na~in manipuliše tim simbolima, tako ni kompjuteru program ne omogućava svest ili bilo kakav
oblik razumevanja ili neke sadržaje, već mu samo omogućava da poveže zadate simbole na odgovarajući
način. Ništa više od toga. Program je formalan, a mentalna stanja ili intencionalna mentalna stanja su
definisana i određena upravo svojim sadržajem ili činjenicom da poseduju neki sadržaj, da se odnose na
nešto, a ne svojom formom. Iz toga direktno sledi da svest ne može biti kompjuterski program. Searle-ovo
izvođenje zaključka da ni jedan program ne može biti dovoljan za pojavu svesti glasi:

- sintaksa nije dovoljna za semantiku

- svest ima mentalne sadržaje, određenije, ona ima semantičke sadržaje

- kompjuterski programi su u celini definisani svojom formalnom, ili sintaksičkom


strukturom
- ni jedan kompjuterski program nije sam po sebi dovoljan da nekom sistemu podari svest
(Searle, 1990, str.43)

To da je jedan sistem sintaksički podrazumeva da dati sistem funkcioniše prema datim pravilima. To da je
jedan sistem semantički ili da poseduje određene semantičke sadržaje podrazumeva da poseduje određene
unutrašnje sadržaje. Tako, kada kaže da sintaksa nije dovoljna za semantiku, Searle ustvari misli da niti jedan
sistem koji se u potpunosti sastoji samo iz ponašanja prema zadatim pravilima ne može posedovati određene
unutrašnje sadržaje. (Chalmers, 1992)

Searle ne opovrgava glavnu tezu «weak» AI-a ili «slabog» gledišta veštačke inteligencije da operacije u
mozgu mogu biti simulirane od strane digitalnog kompjutera. Odnosno, možemo reći da su moždani procesi
na određenom nivou deskripcije sintaksički, ili da na određenom nivou mozak funkcioniše na čisto
formalnim principima na kojima funkcioniše i digitalni kompjuter. Ali po Searle-u, to nije dovoljno za
pojavu svesti, i ako imamo digitalni kompjuter koji predstavlja simulaciju procesa u mozgu, to neće biti
dovoljno da tom kompjuteru podari svest. Za Searle-a je bitna činjenica to što je mozak jedan biološki organ
u kojem se odigravaju različiti neurobiloški procesi koji su odgovorni za pojavu svesti. Odnosno, Searle
ističe kao bitnu činjenicu upravo i fizičku strukturu sistema koji je odgovoran za kauzalne ralacije koje
uzrokuju svest. Za Searle-a svest je biološki fenomen, uzrokovan procesima u mozgu i realizovan u strukturi
mozga, i upravo je bitna činjenica za pojavu svesti i sama struktura mozga u kojoj se odigravaju te kauzalne
relacije. Formalni principi na kojima funkcioniše mozak nisu sami po sebi dovoljni za pojavu kauzalnih
relacija odgovornih za pojavu svesti, već je za to potrebna i posebna neurobiološka struktura mozga.

«Problem sa simulatorom mozga jeste to što simulira pogrešne stvari o mozgu. Sve dok
simulira samo formalnu strukturu sekvenci neurona u sinapsama, ne simulira ono što je bitno
za mozak, pre svega njegove kauzalne moći, njegovu sposobnost da proizvede intencionalna
stanja. ... koliko znamo to je zbog toga što sam ja određena vrsta organizma sa određenom
biološkom (hemijskom i fizičkom) strukturom, i ta struktura, pod određenim uslovima, je
kauzalno sposobna da proizvede percepciju, kretanje, razumevanje, učenje, i druge
intencionalne fenomene. Deo suštine prisutnog argumenta je da samo ono što poseduje takve
kauzalne moći može posedovati intencionalnost. Možda drugačiji fizički i hemijski procesi
mogu proizvesti identične efekte; možda, na primer, Marsovci takođe poseduju
intencionalnost iako su možda njihovi mozgovi sačinjeni od drugačijeg materijala. ... Suština
ovog argumenta je da niti jedan čisto formalni model nikad neće biti dovoljan sam po sebi za
pojavu intencionalnosti zato što formalna svojstva nisu sama po sebi dovoljna za pojavu
intencionalnosti, i ona sama po sebi nemaju kauzalne moći osim moći da dovedu do sledećeg
nivoa formalizma u radu mašine.» (Searle, 1980, str.10,11)

Searle ustvari pokazuje na primeru «kineske sobe» da je Turingova «igra imitacije» neadekvatan ili
nedovoljan test inteligencije, da samo na osnovu ponašanja ne možemo izvesti sud o nečijoj inteligenciji, kao
što u slučaju «kineske sobe» posmatrač sa strane izvodi pogrešan zaključak da čovek u sobi savršeno razume
kineski jezik samo na osnovu nekih spoljašnjih kriterijuma koji su mu dostupni. Turingova «igra imitacije»
kao test inteligencije se zasniva na pretpostavci da nekom možemo pripisati inteligenciju samo na osnovu
određenih spoljašnjih kriterijuma koji su nam dostupni kao trećem licu, posmatraču, odnosno na osnovu
nekih bihejvioralnih karakteristika koje možemo nazvati inteligentnim. Searle pobija takvu mogućnost
donošenja suda o nečijoj inteligenciji upravo pokazujući na primeru «kineske sobe» da to što se nekom sa
strane, iz perspektive trećeg lica, čini, na osnovu određenih spoljašnjih kriterijuma, da data osoba razume
kineski jezik, nikako ne znači da ta osoba stvarno i razume kineski jezik. Isto tako i u slučaju «igre imitacije»
to što «trećem licu» izgleda na osnovu ostvarene konverzacije sa datom mašinom da je tu prisutna
inteligencija, može se pokazati da tu zapravo nema pravog razumevanja pa tako ni prave inteligencije. Searle
ustvari pokazuje da mogućnost proste simulacije inteligencije ne znači i inteligenciju samu, sa svim
unutrašnjim stanjima i procesima karakterističnim za inteligentno biće. U slučaju «kineske sobe» Searle je
ustvari kompjuter ili mašina koja učestvuje u «igri imitacije», i on razume kineski po istom principu na
kojem i Turingova mašina razume konverzaciju koju vodi ili igru u kojoj učestvuje, ustvari kao što Searle
uopšte ne zna niti razume ni reč kineskog iako je u stanju da se sporazumeva na kineskom učestvujući u igri
sa kineskim simbolima, tako ni Turingova mašina zapravo ne razume ništa od onoga što je pitaju niti
odgovore koje daje učestvujući u «igri imitacije».

«Koje god čisto formalne principe da stavite u kompjuter, oni neće sami po sebi biti dovoljni
za razumevanje, jer i ljudi mogu pratiti formalne principe bez ikakvog razumevanja.» (Searle,
1980)

Searle navodi da se njegovo razumevanje engleskog jezika, koji je njegov maternji jezik, razlikuje od
njegovog znanja kineskog u slučaju «kineske sobe» upravo po tome što on tačno poznaje i razume značenja
reči na engleskom jeziku, one za njega nisu samo puki simboli bez smisla i značenja kao u slučaju kineskog.
Sam kompjuter nikad ne može imati takvo znanje i razumevanje jezika kao što je to slučaj sa znanjem i
razumevanjem maternjeg jezika i razlog tome po Searlu ne leži u nedovoljnom nivou dostignuća
kompjuterske tehnologije već u prostoj činjenici toga šta je zapravo kompjuter i po kom prinicipu
funkcioniše, razlog leži u samoj definiciji kompjutera.

«Razumevanje jezika, ili, zaista, posedovanje bilo kakvih mentalnih stanja, uključuje više
nego prosto posedovanje gomile formalnih simbola. Uključuje i interpretaciju, odnosno
značenje pripisano tim simbolima. A jedan digitalni kompjuter, kakvog smo ga opisali, ne
može imati više od prosto formalnih simbola, zato što je funkcionisanje kompjutera, kao što
sam ranije istakao, definisano posredstvom njegove sposobnosti da koristi programe. A ovi
programi se čisto formalno mogu odrediti, to jest, oni nemaju nikakav semantički sadržaj.»
(Searle, 1990, str.36)

Upravo stoga, Searle će zaključiti:

«Kompjutersko razumevanje nije delimično ili nedovoljno, ono je nula.» (Searle, 1980)

Kada govorimo o pokušajima da se opvrgne Searle-ov argument protiv mogućnosti da mašine poseduju
mentalna stanja, predstavljen kroz misaoni eksperiment «kineska soba», najjači takav pokušaj jeste tvrdnja da
je osoba u sobi samo deo jednog većeg sistema, i da onda možemo reći da ceo sistem razume kineski. Naime,
tvrdi se da je cela soba zajedno sa osobom unutra i svim ceduljicama na kojima su ispisani kineski simboli i
sa knjigom pravila, predstavlja jedan sistem za sebe i razumevanje kineskog se tako ne pripisuje individui u
sobi već upravo celom sistemu. Tako možemo reći da sama osoba u sobi ne razume kineski ali celom sistemu
sistemu možemo pripisati to razumevanje. Isto tako možemo reći da će jednog dana pojedinačni kompjuteri
biti samo deo jednog velikog mislećeg sistema, i samom kompjuteru možda ne možemo pripisati
razumevanje ali tom mislećem sistemu svakako možemo. Searlov odgovor na ovaj prigovor se sastoji u tome
da prosto formuliše jedan novi oblik «kineske sobe» koja sada izgleda tako da je osobi u sobi naloženo da
zapamti sve te kineske simbole i knjigu pravila i da sva ta spajanja kineskih simbola vrši u glavi umesto na
papiru. Poenta je u tome da se ti pojedinačni delovi sistema sada budu internalizovani od strane čoveka u
sobi, pa tako više ne možemo govoriti o sistemu koji razume kineski jer je sama osoba u sobi sada taj sistem
a ona ne razume kineski. Ali i u ovom slučaju postoji prigovor koji se svodi na to da se tvrdi da iako se u
ovom slučaju elementi sistema ne vide, oni su ipak prisutni ali sada u jednom internalizovanom obliku. Tvrdi
se da je u ovom slučaju sistem implementiran u čoveka tako da i dalje možemo tvrditi da ceo sistem koji smo
u ovom slučaju impementirali u čoveka ipak razume kineski, iako sam čovek ne razume kineski. Naime,
možemo shvatiti datu osobu kao «engleski sistem» koji je implementirao «kineski sistem», tako da u sebi
ustvari sadrži dva različita inteligentna sistema, na takav način da, s obzirom da je reč o implementaciji,
«kineskog sistema» ne mora ni biti svesna, pa tako, možemo reći da osoba ne razume kineski iako ga sam
implementirani sistem razume. (Block, 1991)

Drugi prigovor sa kojim se Searle obračunava u svom tekstu «Minds, brains and programs», tiče se upravo
često naglašavanog argumenta zastupnika veštačke inteligencije. Naime, tvrdi se da ukoliko imamo
humanoidnog robota, koji bi kao takav u potpunosti podražavao ljudsko ponašanje i bio sposoban za sve
ljudske radnje, onda više ne bismo imali mašinu koja samo manipuliše formalnim simbolima bez ikakvog
značenja, već, kako bi u ovom slučaju mašina imala odgovarajuću interakciju sa okruženjem, morali bismo
datom robotu pripisati intencionalnost, odnosno određene mentalne sadržaje i značenje. Searle smatra da to
što ćemo imati robota unapređenog određenim perceptivnim i motornim sposobnostima, neće ništa pridoneti
njegovoj sposobnosti razumevanja, samo ćemo imati robota koji se ponaša kao da poseduje razumevanje. U
slučaju «kineske sobe» to bi značilo da osobu zatvorenu u sobi opskrbimo sa još više kineskih simbola i sa
još više instrukcija na engleskom, što i dalje neće značiti da osoba u sobi razume kineski jezik, baš kao što ni
sposobnost hodanja ili gledanja neće robotu omogućiti razumevanje, u oba slučaja je i dalje reč samo o
pukom manipulisanju simbolima.

Suština Searle-ovog argumenta je u tome da sve dok kompjuter funkcioniše na čisto formalnim principima,
ne možemo govoriti o mentalnim stanjima ili intencionalnosti u mašini, jer nikakvi formalni procesi nisu
dovoljni za pojavu onih kauzalnih relacija odgovornih za pojavu mentalnih stanja. Čisto formalni programi
nemaju nikakvo značenje pa tako nisu dovoljni za pojavu intencionalnosti. A upravo je to osnovna postavka
radikalnog gledišta veštačke inteligencije, da se na određenom nivou mentalni procesi sastoje od
kompjutacionih procesa nad određenim formalnim elementima i da upravo ti procesi čine srž mentalnog.
Searle tako na primeru «kineske sobe» pokazuje kako nedovoljnost Turingovog testa inteligencije tako i
nemogućnost da uopšte govorimo o intencionalnosti i mentalnim stanjima kod mašine iz razloga samog
načina funkcionaisanja mašina koje se zasniva na čisto formalnim principima koji sami po sebi nikad ne
mogu biti dovoljni za pojavu intencionalnosti, kako to ističe Searle. Samo posedovanje odgovarajućeg
programa nikad ne može biti samo po sebi dovoljno za posedovanje inteligencije, svesti ili intencionalnosti,
to je srž Searle-ovog argumenta.

Na osnovu gore izvedenog, Searle će zaključiti:

 Ni jedan kompjuterski program nije sam po sebi dovoljan da nekom sistemu podari svest.
Ukratko, programi nisu svest, i oni sami po sebi nisu dovoljni za posedovanje svesti.

 Način na koji funkcionisanje mozga uzrokuje svest ne svodi se isključivo na primenu nekog
kompjuterskog programa.

 Bilo šta drugo što uzrokuje svest moralo bi imati uzročne moći bar istovetne onima koje ima
mozak.

 Za bilo koju tvorevinu koju bismo mogli napraviti i koja bi imala mentalna stanja ista kao što
su ljudska mentalna stanja, primenjivanje nekog kompjuterskog programa nije samo po sebi
dovoljno. Ta tvorevina bi pre morala da ima moći istovetne moćima ljudskog mozga. (Searle,
1990. str.43-46)

ZAKLJUČNO RAZMATRANJE

Čini se da bez obzira na celokupan napredak kompjuterske tehnologije i uopšte nauke, ipak preovladava
uverenje da mašine ne mogu posedovati svesnu inteligenciju. Možemo reći da su mašine sposobne za mnoge
stvari i da će tek biti sposobne za mnoge stvari, te ih u tom smislu možemo i moći ćemo ih nazivati
inteligentim, u kontekstu sposobnosti obavljanja različitih kompleksnih operacija, ali da nikad neće moći
prevladati taj slepi mehanizam u svom funkcionisanju ili isprogramiranost u svom rukovođenju, te da tako
nikad neće ustvari imati ono što nazivamo svešću a što podrazumeva jedan oblik subjektivnosti,
samosvojnosti, autentičnosti, slobode, unutrašnjeg života. Glavni prigovori tezi o veštačkoj inteligenciji tiču
se upravo takvih duboko ukorenjih uverenja, da svest može nastati samo u organskom mozgu dok su roboti
neorganskog porekla ili da je svest prirodna i da samo nešto što je rođeno može imati svest, dok su roboti
veštački. Ali čini se da se sve te prepreke mogu savladati. Sa pojavom novih materijala možda ćemo napustiti
uverenje da roboti moraju biti napravljeni samo od metala i silikonskih čipova, ili uverenje da roboti moraju
biti odmah odrasli. Verovatno je mnogo praktičnije, u svrhu osvešćivanja, postepeno odrastanje i učenje o
svetu oko sebe, što se postiže stvaranjem robota bebe. Prigovori koji se postavljaju pred zastupnike veštačke
inteligencije u ovom trenutku se čine kao jedan oblik zdravog rezonovanja. Kada kažemo da su mentalna
stanja biološki fenomeni i da svest kao takva jeste biološka, i da može nastati jedino u nečem živom i
organskom, kao što je to mozak koji je organskog porekla a ne i u nečem što je veštačko, to nam izgleda kao
jedno sasvim zdravorazumsko mišljenje, i teško da bismo jednu takvu tezu osporili. Naša svest jeste produkt
biološke evolucije, i čovek kao takav, kao i drugi organizmi opskrbljeni određenim oblikom svesti, jeste
jedan organizam koji se razvijao tokom hiljade godina evolucije. Tu nema ništa sporno, i sasvim je logično
posmatrati svest i mentalnost u tom kontekstu. U tom smislu je sasvim legitimno zadržati pravo na
mentalnost i svesnost samo u okviru onoga što nazivamo živim i organskim ili prirodnim. Tako je verovatno
sa svim stvarima koje su prirodnog porekla. Ali sve više imamo primera u kojima veštački stvorene stvari
zamenjuju stvari prirodnog porekla, i to sasvim uspešno, kako u medicini, tako i u ishrani kao i drugim
oblastima. To je samo početak, ali već možemo sasvim legitimno zamisliti da će jednog dana biti moguće
veštačko srce ili veštačke oči, pa tako i veštački mozak. Činjenica je da veštačke stvari sasvim uspešno mogu
da zamene sve prirodne produkte, pre svega u smislu funkcionalnosti a upravo je to ono što je bitno. Tako na
primer, neko veštački proizvedeno povrće ili voće, možda neće imati isti onaj slasni ukus poput prirodnog
voća ili povrća, ali će u sebi sadržavati sve one potrebne sastojke neophodne za ljudsku ishranu, znači mo}i
}e da obavlja istu onu funkciju koju u ljudskoj ishrani ima povrće organskog porekla. Možemo zamisliti da
će jednog dana sva ljudska ishrana biti svedena na konzumiranje jedne tablete koja će u sebi sadržavati sve
hranjive sastojke potrebne čoveku. Tako može biti i sa svim drugim prirodnim stvarima koje ~ovek
konzumira ili koristi.

“Još jednom izazovno je odbaciti ovu tvrdnju izvrgavajući je podsmehu, i u nekim svojim
formama ona podsmeh i zaslužuje. Razmotrimo opštu kategoriju verovanja koju možemo
nazvati esencijalizmom korena (porekla): samo vino napravljano pod nadzorom posednika
Chateau Plonque-a računa se kao originalno Chateau Plonque; samo platno na kome je svaku
liniju izvela Cezanne-ova ruka smatra se originalnim Cezanne-om; samo neko sa “pravom
krvlju Čirokija" mo`e da bude pravi Čiroki. Postoje razlozi sasvim od poštovanja, izvesno
odbranjivi na sudu, za zadržavanje razlikovanja po tom principu, dokle god se razumavaju kao
zaštita prava koja proizilaze iz istorijskih procesa. Ukoliko se, međutim, interpretiraju kao
pokazatelji “urođenih svojstava”, koja razlikuju njihove posednike od drugih od kojih se inače
i po drugom ne razlikuju, onda su smrtonosno besmisleni. Nazovimo šovinizam po poreklu
kategorijom gledišta koja drži do kakve mistične razlike (tipično, vrednosne razlike) samo
zbog njene povezanosti sa poreklom. Savršena imitacija Chateau Plonque-a je vino jednako
dobro kao i original, makar i bilo krivotvorina, a isto važi i za lažnog Cezanne-a, ukoliko je
stvarno stručnjacima nerazaznatljiv od originala. I niko, naravno, nije urođeno bolji ili lošiji u
bilo čemu samo zbog imanja ili nemanja “krvi” Čirokija (ili jevrejske ili afričke).” (Dennett,
1997, str.3)

Mora se primetiti, da kada obraćamo pažnju samo na funkcionalnost ili funkcionalnu ulogu koju data stvar
poseduje, da se gubi na tom kvalitativnom karakteru stvari, baš kao što voće gubi svoj slasni ukus kada nije
organskog porekla. Ali to je već nešto što možemo zanemariti upravo u kontekstu svega dobrog i svrhe koju
ispunjavaju veštački produkti. Kada govorimo o svesti ili mentalnim stanjima uopšte, moramo se postaviti
racionalno prema ovim fenomenima, i posmatrati ih pre svega u kontekstu uloge i svrhe koju na primer svest
ima za čoveka. Svest o svetu koji nas okružuje ili svest o nama samima ima određenu ulogu i svrhu ili
funkciju za čoveka, u smislu jedne sposobnosti da znamo i da osetimo šta se dešava u nama samima kao i u
svetu oko nas.

«Mi ljudi nismo mnogo svesni. Ustvari, mi posedujemo malo prirodne sposobnosti da osetimo
šta se događa izvan i unutar nas. Ukratko, mnogo onoga što se uobičajno pripisuje svesti je
mitsko – i to može biti deo razloga koji je navodio ljude da misle kako je problem svesti težak.
Moje gledište je upravo suprotno: da su neke mašine već sada potencijalno svesnije od ljudi, i
da će dalje usavršavanje biti relativno lako postići. Ipak, ovo ne implicira da će te mašine
postati tek tako, automatski, inteligentije. To je zbog toga što je jedna stvar imati pristup
informacijama a druga stvar je znati ih iskoristiti.» (Minski, 1991, str.7)

Pored toga što pitanje da li mašine mogu imati mentalna stanja može biti stvar otkrića i napretka u nauci i
tehnologiji, ono se može posmatrati i kao stvar ljudske spremnosti da prihvati mašine ili u ovom slučaju
robote u svoju zajednicu. Radi se o spremnosti čoveka da na robote primenjuje iste one kriterijume i merila
kad je reč o potvrdi mentalnosti kod drugog, kao kad je reč o ljudskim bićima. Filozof Hilari Putnam čak
smatra da pitanje o mentalnosti kod robota nije stvar otkrića već samo naše spremnosti da ih prihvatimo u
našu jezičku zajednicu. A ta spremnost se prema Putnamu sastoji u sledećem:

“… ova odluka be se sastojala u našoj spremnosti da odbacimo svoja predubeđenja i da,


opisujući i objašnjavajući ponašanje robota, počnemo na njih da primenjujemo one iste
mentalne predikate koje, unutar naše jezičke zajednice, koristimo kada opisujemo i
objašnjavamo ponašanje ljudskih bića. Kada jednom pokažemo ovu spremnost, bićemo, po
Putnamovom mišljenju, u stanju da otkrijemo ili utvrdimo da li roboti poseduju svesna stanja
kao što su telesni oseti ili vizuelni doživljaji; a to ćemo učiniti na onaj isti način na koji to
činimo kada utvrđujemo da li pripadnici naše jezičke zajednice, odnosno druge osobe ili
ljudska bića, osećaju bol ili vide plavo nebo.” (Grahek, 1990, str.180)
Kao što potvrdu o mentalnosti kod drugih ljudi dobijamo samo na osnovu određenih kriterijuma koji su nam
dostupni kao “trećem licu”, znači preko jednog oblika ponašanja ili na osnovu ispoljavanja odgovarajućih
reakcija karakterističnih za svako stanje, tako i u slučaju potvrde mentalnosti kod robota, možda je samo reč
o našoj spremnosti da iste te kriterijume primenimo i u ovom slučaju. To bi onda bilo pitanje spremnosti da
zanemarimo određene razlike u telesnoj konstituciji između ljudi i robota, što se može uporediti sa
spremnošću da se zanemari boja kože kad je reč o prihvatanju nečije inteligencije.

Popularne su i neke mračne vizije budućnosti kad je reč o razvoju veštačke ineligencije, pa se tako ističe i
kao mogućnost da mašine jednog dana nadvladaju čoveka i ljudsku inteligenciju i tako preuzmu potpunu
kontrolu nad čovekom i ljudskom civilizacijom. Takav scenario budućnosti bi bio moguć ukoliko mašine u
nekom trenutku stvarno dostignu i nadvladaju sve sposobnosti ljudske inteligencije. Ako uzmemo u obzir sve
prednosti kompjutera u smislu kapaciteta memorije i brzine obrade informacija u odnosu na čoveka, takav
scenario jeste moguć.

“Jednog dana kada naše mašine budu mogle savladati ljudske moći šablonskog prepoznavanja
i kognicije, one će biti u poziciji da kombinuju ove ljudske talente sa već prisutnim
prednostima koje mašine poseduju: brzinu (sadašnja elektronska kruženja su ve} sada 100
miliona puta brža od elektrohemijskih kruženja u našim interneuronskim vezama), tačnost
(kompjuter može zapamtiti bilione informacija sa tačnošću, dok mi jedva pamtimo telefonske
brojeve), i, najvažnije, mogućnost da momentalno podeli znanje.” (Kurzweil, 2001, str.1)

U svakom slučaju, možda možemo reći da je razvoj veštačke inteligencije prirodni nastavak evolucije
inteligencije uopšte i da je mogućnost nastanka inteligentnih i svesnih mašina samo potvrda veličine ljudske
inteligencije ili inteligencije uopšte. Upravo stoga, budućnost u kojoj bi postojale svesne inteligentne mašine
jeste jedna svetla budućnost.

LITERATURA:

1. Bringsjord, Selmer, (1994), Precis of: What robots can and can’t be, PSYCOLOQUY 5.59

2. Block, Ned, ( 1995), The mind as the software of the brain, MIT Press,
http://www.nyu.edu/gsas/dept/philo/faculty/block/
3. Block, Ned, ( 2002), Some concepts of consciousness, In philosophy of mind, Oxford Univeristy
Press

4. Block, Ned, ( 1996), Functionalism, a revised version of the entry on functionalism in The
Encyclopedia of Philosophy Supplement, Macmillan

5. Block Ned, (1981), Psychologism and behaviorism, philosophical review LXXXX, No.1

6. Chalmers, J. David, (1992), Subsymbolic computation and the chinese room,

Papers on AI and computation, http://consc.net/ai-papers.html

7. Chalmers, J. David, (1995), The puzzle of conscious experience, Scientific American pp.62-68. N.B.,
http://consc.net/chalmers/

8. Chalmers, J. David, (1996), Does rock implement every finite-state automaton?, Synthese, 108:309-
33, http://consc.net/ai-papers.html

9. Chalmers, J. David, (2002), A Computational foundation for the study of cognition, Papers on AI nad
computation, http://consc.net/ai-papers.html

10. Churchland, M. Paul, (2004), Functionalism at forty: a critical retrospective, Department of


Philosophy, UCSD

11. Dennett, C. Daniel, (1981), Brainstorms, MIT Press

12. Dennett, C. Daniel, (1996), Did Hal commit murder?, ROUGH DRAFT FOR STORK
VOLUME

13. Dennett, C. Daniel, (1997), Consciousness in human and robot minds, Cognition, computation
and consciousness, KurzweilAI.net

14. Dennett, C. Daniel, (1990), The age of intelligent machines: Can machines think,
KurzweilAI.net

15. Grahek, Nikola, (1990), Materija, svest i saznanje, FDS, Beograd

16. Gunderson, Keith, (1985), Mentalitiy and machines, University of Minesota Press

17. Minski, Marvin, (1991), Conscious machines, Published in ’’Machinery of consciousness’’,


Proceedings, National Research Council of Canada, 75th Anniversary on Science in Society

18. Moravec, Hans, (1998), When will computer hardware match the human brain?, Journal of
evolution and technology, Vol.1, www.frc.ri.cmu.edu/~hpm/

19. Searle, R. John, (1990), Svest, mozak i nauka, FDS, Beograd

20. Searle, R. John, (1999), Consciousness, University of California at Berkeley, KurzweilAi.net

21. Searle, R. John, (1980), Minds, brains and programs, Cambrige University Press U.K./U.S.

22. Searle, R. John, (1990), Is the brain a digital computer,


http://philosophy.wisc.edu/shapiro/Phil554/PAPERS/

23. Stanković, Beba, (2004), Psihofizički identitet ili saznajno povlašćeni položaj, ’’Mali nemo’’,
Pančevo

24. Turing, A. M., (1950), Computing machinery and intelligence, Mind, New series, Vol.59,
No.236, www.AlanTuring.net

25. Kurzweil, R., (2001), Will machines become conscious? response to Stephen Hakwing,
KurzweilAI.net

26. Kurzweil. R., (1990), The age of intelligent machines, Chapter one: The roots of artificial
intelligence, What is AI anyway?, KurzweilAI.net

You might also like