You are on page 1of 2

Dokumentarni film „Coded Bias“ prati istraživanje znanstevnice Joy Buolamwini, koja

proučavanjem algoritama za prepoznavanje lica razotkrije njihovu pristranost te nastoji


pokrenuti prvu zakonsku regulaciju uporabe istih u Sjedinjenim Američkim Državama. Film šire
ispituje uporabu umjetne inteligencije, njiezin utjecaj na slobodu čovjeka i posljedice koje
nastaju njihovim daljnjim razvojem. Buolamwini je, kao studentica na američkom fakultetu MIT,
proučavala tehnologiju za prepoznavanje lica za svrhe zasebnog projekta, primijetila je kako
sustav ne prepoznaje lica tamnoputih osoba jednako dobro kao i ona svijetloputih. Naime,
sustavi se kodiraju na temelju informacija koje prilaže programer, čime se stvara određena baza
podataka po kojima ova tehnologija „uči“ prepoznavati lica. Takvi algoritmi stvaraju se unosom
fotografija koje sustav mora prepoznati (ili ne prepoznati), no utvrđen je uočljiv uzorak
pretežito svijetloputih pojedinaca muškoga roda unutar baze podataka . Zbog činjenice da kod
prema kojem funkcionira algoritam stvara sam kreator, on neminomno preuzima njegove
predodžbe, znanja kao i svijesne i nesvijesne predrasude. Upravo iz tog razloga, umjetna
inteligencija ima destruktivni potencijal zbog odnosa moći onlih koji ju razvijaju i onih na koje se
ona primijenjuje. Najveću opasnost predstavlja činjenica da se sustav ne preispituje budući da
se algortimi grade na matematičkim izračunima i ne uzimajući pritom u obzir ljudski faktor u
samom procesu. Jedan od problema koji se već sada nameće je biometrijsko skeniranje lica
putem kamera na javnim mjestima u svrhu lakšeg pronalaska ljudi traženih zbog kriminalnih
aktivnosti, međutim time se nameće pitanje ljudskih prava i sloboda. Bez legalne regulative,
provode se eksperimenti gdje se pojedincu oduzima pravo na privatnosti i njegovi se
biometrijski podatci, podatci jednake specifičnosti kao i ostisak prsta ili DNK uzorak, pohranjuju
se u bazu. Nadalje, ne može se sa sigurnošću potvrditi u koje bi se svrhe potencijalno takva baza
podataka mogla koristiti, kao ni do koje će mjere one imati utjecaj u budućnosti; tehnologija
koja se koristi na državnoj raznini nije precizna, nije etička i dovodi u pitanje demokracijsku
prirodu društva države. Također, testiranja primijene UI-ja se provode na subjektima koji su u
podređenom položaju, gdje se ne očekuje poštivanje standarda ljudskih prava na jednakoj razini
kao i kod privilegiranih skupina - time se postiže kontrola nad stanovništvom koje je već pod
rigoroznim nadzorom te se tim putem daljnje guši sloboda pojedinaca i mogućnost slobodnog
izbora. Umjetna inteligencija napravljena je kako bi zamijenila umni rad čovjeka, no problem se
pojavljuje kada se ne razumije proces po kojemu algoritam obrađuje podatke i ne uzima se u
obzir ljudska komponenta koja je uvelike integrirana u njihovu srž; uočeno je mnoštvo primjera
rasne i rodne diskriminacije u sustavu banaka, zdravstvenih sustava, pri koristenju UI-ja za
odabir kandidata za određena radna mjesta itd. Osim toga, algoritmi koji se koriste na
društvenim mrežama i pretraživačima prate i prikupljaju informacije o korisnicima koje velike
tvrtke koriste u svrhu potenciranja konzumacije i potrošačkog mentaliteta, čak i do oblikovanja
ideologija i percepcije stvarnosti pojedinca na širokoj skali. Prijetnju koju predtavlja ovolika
količina kontrole nad čovjekom za sobom mora povlačiti i jednaku količinu otpora koja stvara
nove, kreativne reakcije, no ne nužno legalne i moralne. Najnezaštićenije skupine bivaju
izrabljivane, profiliranje i lišene jednakih šansi i prava na razinama kojih još uvijek nismo ni
svijesni, no ova tvrdnja nije iznanađujuća - budući da je tehnologija koju koristimo alat koji je u
svojoj suštini neutralan, ona je samo ogledalo socijalne strukture i kolektivne razine svijesti koja
je duboko implementirana u ljudima.

You might also like