You are on page 1of 2

La complexitat de la Intel·ligència Artificial : Determinisme o Indeterminisme?

No fa gaire temps, quan algú pensava en un programa d’ordinador s’imaginava un conjunt


d’instruccions ben definides que la màquina interpretava amb una regularitat determinada. És
a dir, la màquina feia allò que el programador li havia demanat que fes, en el llenguatge de
les màquines. Tot estava ben lligat. Fins a cert punt, podríem dir que el programador era com
un Déu que posava les regles perquè tot funcionés tal com ho havia planejat. Aleshores, un
podria preguntar-se, què farà el codi en un determinat moment? I la resposta seria clara i
transparent: només calia llegir les instruccions del codi. O fins i tot, fer la enginyeria inversa i
pensar quines instruccions havien provocat aquell comportament. Però, amb el
desenvolupament dels algoritmes d’Intel·ligència Artificial ha aparegut la gran pregunta: Per
què les màquines fan el fan? La resposta és indeterminada. En aquest article tractarem de
donar una explicació filosòfica.

Al article de MIT tecnology review, The Dark Secret at the Heart of AI, Will Knight, ens
explica el cas d’un cotxe autònom fet per l’empresa Nvidia que es ben diferent als altres
competidors. El seu programa no conté cap instrucció sobre com conduir. El seu algoritme
només aprèn a conduir observant a altres conductors i s’ensinistra a si mateix. El resultat és
un cotxe autònom que condueix tan bé com un ésser humà. El problema és a l’hora de
respondrà la pregunta: perquè el cotxe fa el que fa?, gira a la dreta en comptes de l’esquerra.
Aquest codi ha esdevingut un sistema tan complexa que ni tan sols els enginyers que l’han
dissenyat poden aïllar una simple acció del vehicle. És a dir, un sistema indeterminat.

Les tecnologies que son a la base del codi informàtic perquè aprengui a conduir son el deep
learning i les xarxes neuronals. Hem d’entendre el codi, com un sistema complexa de varies
capes. En un primer lloc tenim els sensors que permeten obtenir dades del exterior. Amb
aquestes dades, una complexa xarxa neuronal organitza i estructura els dades per donar-les un
sentit. El deep learning, permet que la màquina aprengui reforçant aquells mecanismes que
han estat exitosos, a més de reconfigurar la pròpia estructura i optimitzar-la. És a dir, son
sistemes d’alta plasticitat i optimització, que els permeten adaptar-se al seu entorn i
masteritzar-lo. Aquestes tecnologies han donat a les màquines superpoders, com l’habilitat de
reconèixer paraules, reconeixement d’imatgets, compossar música, etc.

Ara, el problema central, és que mai havíem dissenyat màquines que funcionessin de manera
que fóssim, indeterminades e inescrutables, de tal forma que no les poguéssim entendrà ni
explicar com funcionen. Com a l’article es senyala:

“No es pot simplement mirar dins de una xarxa neuronal i veure com funciona. El raonament
de la xarxa està imbricat en el comportament de milers de neurones simulades, configurades
en centenars de capes. Les neurones de la primera capa reben un input, com la intensitat d’un
píxel en una imatge, per després realitzar un càlcul abans de donar l’ output. Aquests outputs
son alimentats en una complexa xarxa, i passen a una segona capa, i un altre capa, etc. Fins
que finalment un output final es produeix. A més, hi ha un procés conegut com back-
propagation que permet a les neurones anticipar un comportament desitjat[...].

[...]Les diverses capes dins de una xarxa neural son capaços de reconèixer coses a diferents
nivells d’abstracció. Per exemple, en un sistema per reconèixer els gossos, les primeres capes
identifiquen les línies i el color; les capes superiors reconeixen coses més complexes com els
ulls, i les darreres capes identifiquen tot com un gos. El mateix procés es pot aplicar, als
altres inputs que permeten a la màquina ensinistrar-se a sí mateixa. Com, els sons de les
paraules a la parla, les lletres i las paraules en els textos, o els moviments de les rodes per
conduir. ”

Tal com hi ha aspectes del comportament humà que son impossibles d’explicar amb detall, és
probable que tampoc sigui possible explicar perquè la AI fa el que fa. Encara que algú et pugi
donar una explicació sobre les seves pròpies accions, segurament sigui incompleta, hi hagi
motius inconscients, de la mateixa manera ocorreria amb les màquines. Pot ser una
característica de la intel·ligència i dels límits de l’explicació racional, sigui que hi ha coses
que son subconscients e inescrutables, per tant indeterminades.

Potser es trobem amb un concepte més profund sobre la relació entre la llibertat i la
indeterminació. Stephen Wolfram, el científic que va publicar Una Nueva Ciència,(2002),
planteja al seu llibre un principi de la naturalesa que el denomina el “principi de
irreductibilitat computacional(computational irreducibility).

“És un fet empíric que el mon dels programes simples conté una gran diversitat de
comportament, però, degut a aquesta incapacitat de indicibilitat, és impossible predir que farà
un programa abans que aquest s’executi. És a dir, hi ha reiteracions del programa que son
intrínsecament o essencialment impredictibles, per tant són indeterminades.”

You might also like