Dokumentarni film „Coded Bias“ prati istraživanje znanstevnice Joy Buolamwini, koja
proučavanjem algoritama za prepoznavanje lica razotkrije njihovu pristranost te nastoji
pokrenuti prvu zakonsku regulaciju uporabe istih u Sjedinjenim Američkim Državama. Film šire ispituje uporabu umjetne inteligencije, njiezin utjecaj na slobodu čovjeka i posljedice koje nastaju njihovim daljnjim razvojem. Buolamwini je, kao studentica na američkom fakultetu MIT, proučavala tehnologiju za prepoznavanje lica za svrhe zasebnog projekta, primijetila je kako sustav ne prepoznaje lica tamnoputih osoba jednako dobro kao i ona svijetloputih. Naime, sustavi se kodiraju na temelju informacija koje prilaže programer, čime se stvara određena baza podataka po kojima ova tehnologija „uči“ prepoznavati lica. Takvi algoritmi stvaraju se unosom fotografija koje sustav mora prepoznati (ili ne prepoznati), no utvrđen je uočljiv uzorak pretežito svijetloputih pojedinaca muškoga roda unutar baze podataka . Zbog činjenice da kod prema kojem funkcionira algoritam stvara sam kreator, on neminomno preuzima njegove predodžbe, znanja kao i svijesne i nesvijesne predrasude. Upravo iz tog razloga, umjetna inteligencija ima destruktivni potencijal zbog odnosa moći onlih koji ju razvijaju i onih na koje se ona primijenjuje. Najveću opasnost predstavlja činjenica da se sustav ne preispituje budući da se algortimi grade na matematičkim izračunima i ne uzimajući pritom u obzir ljudski faktor u samom procesu. Jedan od problema koji se već sada nameće je biometrijsko skeniranje lica putem kamera na javnim mjestima u svrhu lakšeg pronalaska ljudi traženih zbog kriminalnih aktivnosti, međutim time se nameće pitanje ljudskih prava i sloboda. Bez legalne regulative, provode se eksperimenti gdje se pojedincu oduzima pravo na privatnosti i njegovi se biometrijski podatci, podatci jednake specifičnosti kao i ostisak prsta ili DNK uzorak, pohranjuju se u bazu. Nadalje, ne može se sa sigurnošću potvrditi u koje bi se svrhe potencijalno takva baza podataka mogla koristiti, kao ni do koje će mjere one imati utjecaj u budućnosti; tehnologija koja se koristi na državnoj raznini nije precizna, nije etička i dovodi u pitanje demokracijsku prirodu društva države. Također, testiranja primijene UI-ja se provode na subjektima koji su u podređenom položaju, gdje se ne očekuje poštivanje standarda ljudskih prava na jednakoj razini kao i kod privilegiranih skupina - time se postiže kontrola nad stanovništvom koje je već pod rigoroznim nadzorom te se tim putem daljnje guši sloboda pojedinaca i mogućnost slobodnog izbora. Umjetna inteligencija napravljena je kako bi zamijenila umni rad čovjeka, no problem se pojavljuje kada se ne razumije proces po kojemu algoritam obrađuje podatke i ne uzima se u obzir ljudska komponenta koja je uvelike integrirana u njihovu srž; uočeno je mnoštvo primjera rasne i rodne diskriminacije u sustavu banaka, zdravstvenih sustava, pri koristenju UI-ja za odabir kandidata za određena radna mjesta itd. Osim toga, algoritmi koji se koriste na društvenim mrežama i pretraživačima prate i prikupljaju informacije o korisnicima koje velike tvrtke koriste u svrhu potenciranja konzumacije i potrošačkog mentaliteta, čak i do oblikovanja ideologija i percepcije stvarnosti pojedinca na širokoj skali. Prijetnju koju predtavlja ovolika količina kontrole nad čovjekom za sobom mora povlačiti i jednaku količinu otpora koja stvara nove, kreativne reakcije, no ne nužno legalne i moralne. Najnezaštićenije skupine bivaju izrabljivane, profiliranje i lišene jednakih šansi i prava na razinama kojih još uvijek nismo ni svijesni, no ova tvrdnja nije iznanađujuća - budući da je tehnologija koju koristimo alat koji je u svojoj suštini neutralan, ona je samo ogledalo socijalne strukture i kolektivne razine svijesti koja je duboko implementirana u ljudima.