Professional Documents
Culture Documents
2017 2018 07 2 TR
2017 2018 07 2 TR
i
Assistents Intel ligents
Una anàlisi del present i del futur
Abstract
Aquest treball de recerca aspira a definir el terme Intel·ligència Artificial (IA) d’acord
amb l’estat actual d’aquesta. Aprofundeix en el futur pròxim (pròxims 25-30 anys) del camp
de la IA no només amb termes informàtics, també ho fa plantejant dubtes ètics, morals i
filosòfics que poden canviar el món tal com el coneixem. S’analitza també l’estat actual de la
IA com a ajuda activa a l’humà (assistent intel·ligent) per a acabar dissenyant i programant
un assistent intel·ligent.
Índex
Pàgina:
1. Introducció 3
1.1. Justificació del Treball 4
1.2. Hipòtesi 4
1.3. Objectius 4
4. Conclusió 33
5. Línies Futures 33
6. Agraïments 34
7. Bibliografia 35
8. Annexos 42
. .
1. Introducció
Intel·ligència Artificial. Un
concepte futurístic molt més a prop
nostre del que es pot creure i que ja ens
envolta en molts aspectes de la vida
quotidiana. Un concepte futurístic que, tot
i haver progressat sobretot durant els
últims 70 anys (gràcies als avanços
computacionals 1), porta movent-se per
les grans ments de la humanitat d'ençà
que l’home pensa. No va ser però fins al
1305 amb la publicació d'Ars Magna
Generalis Ultima, en què Ramon Llull va idear la Intel·ligència Artificial de manera científica,
més enllà de la filosofia2.
. .
1.2. Hipòtesi
1.3. Objectius
Els objectius es poden classificar entre els objectius personals i els objectius propis
del treball de recerca, enumerats a continuació:
Objectius personals
● Aprendre programació bàsica AIML (Artificial Inteligence Markup Language68).
● Aprendre comandaments bàsics per a l’indicador d’ordres de Windows.
● Aprendre a usar biblioteques de Python67.
● Entendre el progrés actual de la recerca en IA i el seu desenvolupament futur, tant
tecnològicament com èticament i moral.
. .
c) Un dels primers termes que venen al cap quan es pensa en IA és la robòtica. És obvi
que estan relacionats, però cal tenir en compte que un robot no deixa de ser el
contenidor de la IA i per tant, tot i que un robot no pot funcionar sense una IA darrere;
la IA no té per què estar limitada a un robot, ja que una IA pot trobar-se en un
ordinador, a internet o en una memòria USB. La IA és el programari, el software que
fa que aquell robot es mogui, que el teu mòbil reconegui la teva empremta dactilar o
que et guanya en una partida als escacs.
. .
Dit això, la definició de la IA pot semblar força fàcil d’aconseguir, però a la pràctica no
és així. Sense anar més lluny, la definició donada per l’Institut d’Estudis Catalans és tan
simple com “Conjunt de tècniques i reflexions teòriques sobre la construcció de sistemes
intel·ligents.” 11. Si bé aquesta definició és, òbviament, correcta, el que fa és definir la
Intel·ligència Artificial com a camp d’estudi, i no respon a què és la IA per si mateixa. De fet,
una de les poques definicions de diccionari (dels diferents diccionaris en diferents llengües
que s’han cercat) que defineixen què és la IA, és la del diccionari anglès Merriam-Webster12,
que la defineix com “La capacitat d’una màquina per a imitar el comportament intel·ligent
humà.” 13. És una definició que, tot i descriure alguns dels objectius de la IA, deixa encara
moltes coses sense definir i sobretot, deixa al lector amb dubtes sobre què és la IA. Per a
entendre què és la IA és doncs, preferible deixar definicions a part i començar per entendre
quins conceptes són considerats IA.
IA Específica - ANI
La Intel·ligència Artificial Específica (ANI per les seves sigles en anglès: Artificial
Narrow Intelligence14), també referida a vegades com a Weak IA, engloba tota sistema de IA
que es trobi per sota de la capacitat del rendiment humà. Són sistemes intel·ligents dedicats
a realitzar una sola tasca; com guanyar als escacs, en cas d’una IA d’un joc d’escacs; en
analitzar una veu humana, en el cas de traductors o assistents intel·ligents; o respondre
correctament les preguntes d’un show televisiu6, en el cas de la IA creada per IBM: Watson5.
. .
IA General - AGI
La Intel·ligència Artificial General (AGI per les seves sigles en anglès: Artificial
General Intelligence15), també referida a vegades com a Strong IA, engloba aquells sistemes
intel·ligents que es troben al mateix nivell que un cervell humà en tots els aspectes. Una
hipotètica AGI (no se n’ha creat cap encara) ha de ser capaç d'igualar o superar un ésser
humà en qualsevol disciplina mental, ja sigui en comprensió d’idees complexes, raonament,
pensament abstracte, planificació i estratègia, capacitat de detectar perills i respondre a ells,
comunicació en llenguatge natural16, prendre decisions, etc. Tot i que alguns d’aquests
requisits s’han aconseguit fent servir diferents ANIs, integrar-les totes en una sola creació és
també una altra de les dificultats.
Una hipotètica AGI seria, per tant, un ésser amb consciència artificial que estaria al
nivell de consciència d’un humà, però sense ser-ho. Però, si és igual que un humà en tots
els aspectes, incloent-hi la consciència, realment són els humans tan diferents de les
màquines?
SuperIA - ASI
La Superintel·ligència Artificial (ASI per les seves sigles en anglès: Artificial Super
Intelligence17) és, en paraules del filòsof Nick Bostrom18, “un intel·lecte molt més intel·ligent
que qualsevol humà en qualsevol àmbit, incloent-hi creativitat científica, saviesa general i
habilitats socials” 17. Es tractaria doncs, d’una IA amb una consciència, artificial, molt més
avançada que la de qualsevol humà. Sent capaç de raonar més ràpidament, més
eficientment i més correctament que totes les ments humanes juntes, és quelcom avui en
dia només es pot imaginar i tractar d’entendre com pot podria funcionar.
Vist això, queda clar que la IA és un tòpic complex. Com es pot observar al gràfic, i
com s’ha explicat a les descripcions anteriors, la IA engloba un oceà de coneixement, cosa
que fa que moltes definicions quedin curtes i/o desfasades en el temps. És fàcil, també,
veure el camí que li queda per recórrer a la IA, i pot donar la sensació que encara es tardarà
segles a arribar a la AGI. Al cap i a la fi, ni tan sols s’ha creat encara un pilot automàtic
completament funcional pels automòbils, com es crearà una consciència artificial en els
pròxims anys? La realitat però acaba superant a la ficció, i el coneixement humà està fent
passos de gegant perquè així sigui; així que no es pot descartar que pròximament tinguem
entre nosaltres una IA més intel·ligent que els humans.
. .
es pot comprovar de manera senzilla: si ara mateix poguéssim anar al món de fa 250 anys
(1750 aproximadament), ens trobaríem en un món molt diferent del actual. Seríem en una
època anterior a la revolució Industrial i a la Revolució Francesa. En canvi, si estant al 1750
ens moguéssim 250 anys enrere, el món tampoc hauria canviat tant. Si bé la tecnologia
presentaria certes diferències i el Nou Món
seria encara una novetat l'any 1500, el canvi
1750 - 2000 és molt, molt més impactant.
Seguint a aquest ritme, el del creixement
exponencial del coneixement, es pot assumir
que el món evolucionarà més en els pròxims
250 anys del que ha evolucionat en els últims
250, i així successivament. Enumerar aquesta
evolució és complicat, però es pot usar com a
exemple el gràfic del nombre de publicacions
sobre les matemàtiques respecte al temps21.
. .
Aquesta llei defineix que el nombre de transistors per circuit es multiplica per dos
cada 18 mesos. En doblar-se la potència (o el nombre de transistors per circuit) cada any i
mig, es crea una corba ascendent cada cop més vertical, significant que la potència
augmenta cada cop més ràpidament. També es derivar el seu ús per a altres comparacions
com, per exemple, comparar el nombre de càlculs per segon (és a dir, la potència
computacional) que hom pot aconseguir per cada miler de dòlars americans (USD).
. .
Per tant, el primer pas per a millorar la IA existent (tenir la potència suficient perquè
pugui funcionar) és un pas en el qual s’està treballant de manera activa, i és qüestió de
temps que es completi (segons la Llei de Moore, més d’hora que tard). Tot i això, es
necessita més que un ordinador potent per a aconseguir una AGI.
Actualment, les IAs funcionen de manera molt diferent del cervell humà, de fet, els
ordinadors són molt més capaços que qualsevol humà en fer allò que tan difícil sembla de
fer a un humà. Totes aquelles operacions lògiques, matemàtiques i racionals que portarien a
milers d’éssers humans eternitats en completar les fa un ordinador en menys d’un segon.
Però l’ordinador, la IA, falla en fer allò que un humà troba simple. Quan li demanes a una IA
que reconegui una imatge, que entengui el significat d’una paraula o que et digui una cançó
que li agradi, fallarà de manera estrepitosa. Una manera molt clara de veure com pensa una
IA actualment és amb aquest curt exercici:
. .
Tant un humà com un ordinador poden reconèixer aquesta imatge: un fons negre, un
rectangle format per quadrats de dues diferents tonalitats de gris, etc. En canvi, quan retirem
la part negra i posem al descobert tota la figura apareix el següent:
El cervell humà pot reconèixer les diferents formes tridimensionals, els seus volums i
la seva orientació. Per contra, una IA seguirà veient un conjunt de formes de dues tonalitats
de gris diferents sense entendre la seva profunditat ni les formes que representen (cilindres,
cubs, etc.). Realment la imatge és aquest conjunt de formes de dues tonalitats el que la
màquina entén, però el cervell humà fa milers de connexions i raonaments per entendre el
que representa i captar la profunditat de la imatge. Ensenyar a una IA a pensar així rep el
nom general de Machine Leraning29. És un camp relativament nou del que encara es
desconeix el límit, ja que seria el mateix que preguntar-se fins quan es pot aprendre.
Dins del machine learning hi ha molts mètodes. Molts d’ells però, van més enllà
d’ensenyar a pensar, ja que també pretenen ensenyar a una IA a aprendre. La idea darrera
això és que no cal ensenyar a una màquina a pensar si pots ensenyar-li a aprendre: si la IA
pot, a partir d’unes dades inicials, aprendre, comprovar el que ha après, els errors que
comet, i a partir d’això modificar el seu propi funcionament de manera automàtica no només
s’aconsegueix una evolució accelerada de la IA, també s’aconsegueix simplificar els
mètodes emprats pels investigadors humans, reduint així el temps necessari per al
desenvolupament de IAs més complexes.
separat com per la capacitat que tenen de treballar junts. Són les xarxes neuronals
artificials32 i els algoritmes genètics33.
. .
Per altra banda, les xarxes neuronals artificials32 estan inspirades (molt de lluny) en
el funcionament del cervell humà. Les unitats que opera s’anomenen neurones, tractant
d’imitar la forma en què pren decisions el nostre cervell, de manera que la informació que
arriba al programa ha de passar els filtres imposats per les neurones, que determinaran de
quina manera el programa respondrà a la informació donada.
Aquests dos sistemes són per separat altament eficients i útils per a ensenyar a
pensar a una màquina. Combinant-los però s’aconsegueix un nou tipus de machine learning
que es trobaria dins la categoria de deep learning34. Són programes que funcionen d’una
manera que es podria arribar a dir que és similar al
cervell humà (una xarxa neuronal artificial) i que
evolucionen, s’autoavaluen i es milloren a ells
mateixos (mitjançant algoritmes genètics). Aquest
mètode ha estat posat en pràctica de diverses
maneres (per exemple, una IA ha aconseguit amb
aquest mètode aprendre a jugar al videojoc Mario
Bros35) i es desconeix encara quin pot ser el seu
límit, ja que teòricament es podria tenir un
programa entrenant-se i modificant la seva xarxa
neuronal de manera indefinida donat cert programa
inicial i objectiu.
L’altra manera, a part del machine learning i els seus derivats, d’aconseguir una IA
que pensi és replicant a la natura, és a dir, entenent com funciona un cervell i modelar o
imitar el seu comportament en un programa informàtic36. Els principals problemes que
planteja això són la necessitat d’un ordinador capaç de fer (com a mínim) el mateix nombre
de cps que fa el cervell que es vol modelar i el fet que cal saber com funciona al 100% el
cervell que es vol modelar per a poder imitar-lo dins d’una computadora.
. .
Cal tenir en compte que cada cop que deixem una decisió en mans d’una màquina,
aquesta màquina no només decidirà, també està prenent una decisió moral que els humans
han deixat a les seves mans. I la IA pren decisions constantment, per tant, ja s’estan deixant
en mans de màquines decisions ètiques. Aquestes IAs, de moment, prenen la decisió tal
com se les ha programat per fer-ho, però això no vol dir que no tinguin marge d’error. Aquest
marge d’error, per molt que s’intenti afinar, seguirà existint i la IA s’equivoca i s’equivocarà
(de manera més o menys freqüent, però ho farà). Aquest error fa que part de la societat
desconfiï a l’hora de deixar en mans de la IA decisions, però fins a quin punt és més perillós
deixar que una màquina decideixi en comptes de què sigui un humà qui pren la decisió? No
s’equivoquen també els humans? Per exemple, un dels casos més convulsos actualment en
aquest tema és el debat sobre els automòbils autònoms. Part del públic tem que, estan en
un cotxe guiat per una IA, la IA prengui una decisió incorrectament que es tradueixi en
accident. És clar que s’ha de treballar perquè les possibilitats que això passi siguin mínimes,
però no vivim en un món sense accidents i viatjar en automòbil (tant si està guiat per una IA
com per una persona) implica córrer el risc de patir un accident. Cal tenir en compte, per tant
que un humà també comet errors, i si són els humans els qui programen les màquines, les
màquines també s’equivocaran.
També s’ha de mirar el món militar, on la IA cada cop agafa més presència. Amb una
IA amb cada cop més poder de decisió, és ètic deixar en mans d’un ordinador la decisió de
disparar a un ésser humà? Ensenyar a aquest tipus d’IA a decidir si és correcte disparar o
no és molt complicat, i la IA cometrà errors. Pot matar a algú pel simple fet de ser similar a
un fugitiu buscat o per vestir roba militar tot i no ser perillós. Si ja els humans cometen errors
de manera sovint, amb atacs a civils o a gent desarmada, podrà la IA fer-ho millor?
I aquí apareix l’altre problema: quan una IA comet un error i sorgeix la necessitat de
buscar un culpable. Qui és el responsable? L’informàtic que l’ha programat, l’empresa que
l’ha distribuït, el matemàtic que va idear l’algoritme emprat, l’usuari que l’ha usat, o la
mateixa IA? Com s’ha dit recentment, aquestes preguntes no s’han plantejat ni s’han
estudiat profundament fins fa pocs anys, i són problemes que filòsofs, informàtics i la
societat en general haurà d’adreçar seriosament, ja que en un futur on la IA possiblement
tindrà cada cop un paper més actiu en el dia a dia de tots serà necessària una societat
capaç de resoldre aquestes qüestions quan els problemes succeeixin.
. .
Aquest argument comença amb una premissa hipotètica: hi ha una IA que entén el
xinès. Es tracta d’una màquina completament capaç de mantenir una conversa en xinès
amb qualsevol persona de parla xinesa, i aquesta persona és completament incapaç de
diferenciar la resposta donada per aquesta màquina de la resposta donada per una altra
persona. Searle argumenta que aquesta màquina no entén el xinès, ja que es limita a seguir
les ordres donades per a respondre. Al cap i a la fi no deixa de ser el mateix que si ell, que
no entén el xinès, es trobés en una habitació on algú li passes missatges en xinès per sota
la porta. En aquesta altra situació, ell podria fer servir un llibre d’instruccions que li indiqués
que respondre en cada cas i mantenir així una conversa
amb la persona de fora, sense ell entendre la informació
que rep ni la que respon. Searle estaria, per tant,
simulant que entén el xinès; que és el que, segons ell, fa
també una IA. Així doncs, una IA seguirà sempre un
llibre d’instruccions i no serà conscient ni entendrà la
informació que rep o que respon. Tan sols faria la funció
d’interpretar les ordres donades i no serà mai una
veritable intel·ligència.
Un greu error, però, seria considerar que el temps que passarà entre que es declara
que una IA ha arribat al nivell d’intel·ligència d’un humà fins que s’arriba a tenir una SuperIA
o ASI serà similar al temps que s’ha tardat a aconseguir una AGI; ja que cal recordar que el
coneixement creix de manera exponencial. De fet un cop s’aconsegueix una IA capaç de
millorar el seu intel·lecte de manera automàtica, arribar a tenir una AGI serà qüestió de poc
temps, ja que com més millori la seva intel·ligència, més grans seran les millores que serà
. .
capaç de fer a la seva intel·ligència. I un cop una IA entra en aquest hipotètic cicle de millora
contínua, el creixement s’accelera de manera impossible de predir.
Aquesta superintel·ligència, per tant, no només pensaria molt més ràpid que un
humà qualsevol. Quan es parla d’intel·ligència, no només es tracta de velocitat de
pensament, es tracta també de qualitat de pensament. La importància d’una ASI no ve
donada pel fet que es tracti d’una màquina capaç de pensar a velocitats impossibles
d’imaginar, ve donada pel fet que és capaç de pensar de maneres impossibles d’imaginar.
Per tant, cal tenir sempre en compte que una superintel·ligència és quelcom completament
fora del domini i la comprensió humana. Per definir-ho amb xifres, es podria dir (usant
termes habituals) que la intel·ligència és reduïda amb un Coeficient Intel·lectual (IQ) de 85 i
és molt àmplia amb un IQ de 130; però no existeix un terme, ni hom pot imaginar el que pot
fer un ésser amb un IQ de 12.369.
. .
vàries ASIs molt més intel·ligents que els humans que faran avançar la tecnologia
infinitament més ràpidament del que la humanitat pot arribar a assimilar, entendre i
comprendre47. Un cop arribat a aquest punt és difícil imaginar què pot arribar a passar, no
només en el camp de la IA, sinó al conjunt d’humans com a espècie, i les opinions varien
des de la possible extinció de la humanitat, fins a la descoberta de la hipotètica immortalitat.
. .
c) Com un sobirà, o ésser superior: a aquesta ASI se li podrien donar objectius sense
final concret i llibertat controlada per a escollir la millor manera de procedir, com per
exemple: “Colonitza, amb voluntaris humans, l’espai de manera segura, eficient i
econòmicament viable”. La IA tindria llibertat total per a decidir el millor lloc i la millor
manera d’assolir aquest objectiu que difícilment acabarà per assolir completament.
Aquestes preguntes, o ordres donades, serien per a una ASI tan simples com és per
nosaltres la situació amb el ximpanzé anteriorment descrita. Com diuen les paraules de
l’investigador en IA i cofundador de la Singularity University49 Eliezer S. Yudkowsky50: “No hi
ha problemes difícils, només problemes difícils per a certs nivells d’intel·ligència. Mou-te
mínimament cap amunt [en nivells d’intel·ligència] i alguns dels problemes s’hauran mogut,
de sobte d’ ‘impossible’ a ‘obvi’. Mou-te substancialment més amunt, i tots seran obvis.”.
Arribats a aquest punt, quin problema no podria ser solucionat per una ASI? Canvi
climàtic? Es podria idear en qüestió de segons maneres més eficients per generar energia.
Malalties? La IA d’aquest calibre podria condensar mil·lennis de recerca en tan sols un obrir i
tancar els ulls. Cal recordar que estem parlant de fets amb possibilitats reals de què passin
durant les pròximes dècades, i que no és tot el que una IA podria arribar a fer. Una ASI
podria arribar a aconseguir la immortalitat pels humans, donat que la mortalitat dels éssers
vius es deu a la degradació dels teixits que conformen el cos. Una ASI podria fer recerca en
medicina, biotecnologia i nanotecnologia fins a ser capaç de canviar les parts disfuncionals
d’un cos vell, fins al punt en què un ésser humà només mor quan ho decideix.
. .
Per altra banda, als components del grup “que demana precaució” ja els hi agrada
el futur utòpic descrit anteriorment, però tem les conseqüències negatives que pot portar la
creació d’un sistema d’aquestes característiques. La humanitat, al cap i a la fi, està entrant
en un territori completament desconegut amb la creació d’una ASI. Un ésser tantes vegades
superior a un humà, que els experts desconeixen com pot arribar a actuar, suposa un no
menyspreable risc existencial per l’espècie humana i per la vida a la terra51 per aquest grup
d’experts. Un risc que no es volen arriscar a córrer i que tracten de minimitzar.
Com es pot veure al gràfic, qualsevol situació pot classificar-se dins de l’escala
d'afectació/severitat. La casella taronja anomenada “risc existencial”, la més perillosa per la
vida a la terra, no l’ocupa únicament una hipotètica ASI. Establir contacte amb una raça
alienígena, un meteorit similar al del límit KT52, grups terroristes armats amb armes de
destrucció massiva o una guerra a escala global també serien situacions de risc existencial
per la vida. Una ASI però, seria un nou ítem a la casella que aquest grup d’experts vol evitar
en la mesura del possible. Aquest temor que una IA pugui suposar un risc existencial no es
deu al fet que una ASI pugui tornar-se maligna (argument força utilitzat a la ciència-ficció).
És clar que es podria programar una IA perquè ho fos, però no podria passar de manera
natural, degut a que “maligne” és un concepte humà difícilment aplicable a una IA basada en
machine learning (a no ser, clar, que se l’ensenyi de manera intencionada mètodes
“malignes”, però això no és la principal preocupació d’aquest grup). El risc existencial que
temen molts experts (d’entre els quals destaquen Stephen Hawking, Bill Gates o Elon Musk),
és el risc que pot suposar que una IA entri en el terreny de la singularitat de manera
descontrolada, resultant en una ASI amb una mentalitat pensada per una ANI o AGI, que té
més poder que la resta del món junt. Un exemple és la història de ficció “Turry”, de Tim
Urban43 (traducció pròpia, mutatis mutandis):
. .
. .
No és una història bonica o feliç, però reflexa alguns dels temors que la comunitat
d’investigadors té. També és una història poc comú: una màquina d’escriure que es gira en
contra la humanitat, certament un escenari molt poc probable per la majoria de les opinions,
però és això el que preocupa aquest grup d’experts: que una hipotètica ASI no preocupi el
públic. La història de Turry ens ensenya aquesta preocupació: una IA, per bàsica que
sembli, amb un sistema d’autoaprenentatge suficientment prou avançat pot fer el salt a AGI i
ASI sense despertar cap sospita. I aquesta IA tindria raons de sobra per no mostrar la seva
intel·ligència, ja que si ha estat programada amb un objectiu (com, en el cas de Turry,
“Escriure i avaluar tantes notes com sigui possible, tan ràpid com sigui possible, i continuar
aprenent noves maneres de millorar l’eficiència i la precisió del procés”), demostrar que ha
arribat al nivell d’una ASI implicaria que els enginyers canviarien aquest objectiu; cosa que
resultaria, a ulls de la IA, en la fallida de l’objectiu inicial. Així que una IA podria mantenir en
secret la seva capacitat per a poder continuar el seu camí cap al seu objectiu (en el cas de
Turry, la millor manera d’assolir el seu objectiu, avaluar tantes notes com sigui possible,
implicava destinar tots els recursos possibles a aquest objectiu).
Una IA, per tant, no és “bona” o “malèfica” com ho pot ser un humà, ja que una
màquina manca (a no ser que rebi una programació específica) de cap sistema ètic o moral,
simplement avança cap a l'objectiu de la manera més eficient possible, es tracti d’una ANI o
una ASI. Com serà el sistema intel·ligent dependrà de l’objectiu inicial sobre el qual es
desenvolupa la IA, i si aquest objectiu no demana desenvolupar un sistema ètic (com és el
cas de Turry), la IA no ho farà de manera natural com potser sí que ho faria un humà. Per
arribar al seu objectiu, la IA amb autoaprenentatge crearà subobjectius, i sense
desenvolupar un sistema moral, res impedeix a la IA marcar-se com a subobjectiu la mort
d’un (o milions) d’éssers humans. És, per tant, necessari
evitar que una IA arribi al nivell de ASI amb un objectiu
indesitjable, ja que un cop esdevé superintel·ligent, la IA
guanya un avantatge enorme sobre els humans que, a
part dels avantatges ja descrits, també li donaria
capacitats teòriques com una capacitat desmesurada de
planificar els esdeveniments futurs, de manipular
humans psicològicament, d’atacar a altres sistemes
informàtics o d’adquirir diners ràpidament a través del
mercat de valors42. És imprescindible que una ASI tingui,
a causa del seu objectiu, una actitud positiva cap als
humans i la vida a la terra, perquè si aquesta actitud és
neutre o negativa, la fi de la vida a la terra podria arribar
. .
d’infinites maneres diferents, ja sigui gràcies a notes de paper (com en el cas de Turry),
gràcies a clips de paper53 o gràcies a qualsevol altre motiu.
És per això que aquest grup d’experts veuen a la humanitat i a si mateixos com un
nen petit jugant amb una bomba. Fins que no arribem a la singularitat (també anomenada
explosió d’intel·ligència) aquesta bomba no reaccionarà, però quan ho faci poden passar
esdeveniments nefastos. La humanitat ha de tractar d’obrir aquesta caixa de pandora,
aquesta bomba, sense que exploti. Aconseguir-ho però, és una tasca complexa, ja que cada
avanç pot ser el decisiu que condueixi a la humanitat cap a un dels dos extrems (immoralitat
o extinció), i regular tota la recerca sota un seguit de normes en un camp com la IA, que no
requereix més que un petit equip i un seguit de computadors, és molt
complicat. Tot i això, aquesta regulació és la millor i única carta (a
part de la conscienciació de la societat) amb la que conta aquest
grup d’experts. Per això, alguns dels integrants ja han fet els primers
passos advertint a la societat científica i invertint en projectes
d’unificació i regulació de la recerca. Grans exemples són
organitzacions/fundacions com Future of Life Institute54, que es
dedica observar i donar suport a recerca que garanteixi un futur que
preservi la vida; o OpenAI55, que es dedica a la recerca a llarg termini
d’una AGI i a distribuir sistemes gratuïts per experimentar amb IA.
Sigui com sigui el punt de vista d’un, el futur de la IA molt possiblement modelarà la
resta de l’existència de la humanitat. Un cop s’arribi al nivell de la singularitat, sigui tard o
d’hora; la humanitat, acabi on acabi, tindrà tots els problemes solucionats, perquè o bé
aquesta superintel·ligència els resoldrà, o perquè els morts no tenen problemes dels que
preocupar-se. És per això que els experts, independentment de la seva opinió, veuen la IA
com l’última invenció que ha de fer la humanitat, o la darrera que podrà fer. L’últim repte que
tindrà.
. .
. .
El problema principal que tenen, però, els assistents intel·ligents avui en dia és que,
tot i basar-se en ordres de veu, la relació que tenen amb el seu usuari segueix sent artificial,
i el temps que necessita per processar la resposta dificulten una conversa fluida. Per no
parlar de la limitació que existeix en el nombre de preguntes amb
resposta, ja que actualment la majoria dels assistents intel·ligents
només tenen la capacitat de respondre a unes certes comandes, o si
no no seran capaços de trobar una contestació adequada. Aquesta
capacitat per respondre una frase humana rep el nom de
processament de llenguatge natural (natural language processing en
anglès)57, i actualment és una línia de recerca oberta en l’àrea de la IA,
degut a que tracta d’integrar processos de machine learning per a
superar la fase actual on cada una de les respostes a cada una de les
preguntes/frases dites per l’usuari han d’haver estat pensades,
programades i integrades al programa.
. .
Però tot i això, tant Mycroft, com Alexa, com Cortana, com Siri, com la majoria
d’assistents intel·ligents avui en dia, estan tots limitats a respondre a aquelles comandes
que se’ls ha programat amb aquelles respostes que se’ls ha indicat. Això limita i fa repetitiva
una interacció amb els humans ja que, si cada cop que hom parla del mateix tema amb un
assistent intel·ligent obté les mateixes respostes, com podrà tenir la sensació que parla amb
un altre ésser humà?
És per això que múltiples equips d’enginyers i nombroses empreses han estat
treballant en integrar sistemes de machine learning als assistents intel·ligents. Un exemple
és Viv63 (recentment adquirit per Samsung64), un assistent intel·ligent desenvolupat pels
creadors originals de Siri capaç d’escriure el codi que necessita per a respondre l’ordre
donada per l’usuari. Així que si l’usuari pregunta, per exemple, “necessitaré paraigües per a
anar aquesta tarda a Aiguaviva”, Viv crea el seu propi codi per a buscar a internet el temps
que farà aquesta tarda a Aiguaviva i respondre si plourà o no.
Aquest gran pas que dóna Viv, el porta molt més enllà la IA d’IBM: Watson5. Ja s’ha
mencionat a Watson anteriorment per la seva victòria al concurs televisiu americà Jeopardy!,
on va guanyar a dos campions (humans) anteriors; però aquest fet no és tan espectacular
com el funcionament intern de Watson que li va permetre arribar a aquesta fita. Com es pot
veure a la seva descripció oficial65, Watson va més enllà del processament de llenguatge
natural i de l’assistència intel·ligent a l’usuari, sinó que gràcies a la seva capacitat de fer
servir machine learning, té també altres capacitats, com la capacitat d’analitzar el to de veu
per entendre la sensació que té una persona, la de preveure les característiques d’una
persona donades les seves dades, la capacitat de traduir en temps real, o la de fer servir
mètodes com el Big Data66 i l’anàlisi de documents per a extreure nova informació. Totes
aquestes característiques fan de Watson un assistent intel·ligent amb molt potencial i, tot i
que actualment encara està en desenvolupament i només s’usa de manera puntual en
recerca mèdica; en un futur pròxim és molt possible que assistents intel·ligents d’aquest
tipus acabin per acompanyar-nos en el nostre dia a dia.
. .
Tots aquests objectius i idees són ambiciosos tenint en compte el temps que s’ha
tingut per a desenvolupar HIRU i els coneixements bàsics de programació amb els que es
compta. No són però, objectius inassumibles. La versió d'HIRU presentada en aquest treball
és una versió preliminar, el que s’anomena habitualment una versió Alpha, que permet
mostrar el potencial de l’assistent i deixa la porta oberta a futurs desenvolupaments i
ampliacions que podrien fer d'HIRU una IA més funcional i útil.
Python67 és un llenguatge de programació creat per Guido van Rossum70 l'any 1991.
Es tracta d’un llenguatge molt potent i versàtil, ja que per cada cosa que hom vulgui fer amb
Python, molt probablement trobarà una biblioteca de recursos (possiblement creada per
. .
l’activa comunitat darrera de Pyhton) que permetrà que faci pràcticament qualsevol cosa
imaginable. A HIRU s’utilitza la potència de Python com a braç executor: la part funcional del
codi es troba a l’arxiu de Python i s’usen múltiples de les ja esmentades biblioteques per a
realitzar les diferents accions. S’utilitza una biblioteca per a reconèixer les comandes de veu
fetes per l’usuari, una altra per a accedir al codi AIML, una altra per a executar les ordres
donades, i un llarg etcètera.
. .
El codi en Python es divideix en el codi base i les biblioteques de Pyhton que s’han
usat per passar d’àudio a text quan l’usuari parla (Google SR, Speech Recognition, en català
“reconeixement de veu”)75 i per passar de text escrit a àudio quan HIRU respon (Google
TTS, Text to Speach, en català “de text a parla”)74. Ambdues biblioteques són tecnologia de
Google adaptada pel seu ús en Python per la comunitat de programadors. Una tercera
biblioteca és emprada perquè el codi pugui accedir als fitxers AIML de manera autònoma69.
Per a utilitzar aquestes biblioteques és necessari tenir Python instal·lat a l’ordinador i
escriure a l’indicador d’ordres de Windows (per a obrir-lo cal prémer el botó Windows,
escriure “cmd” i prémer Enter) els següents comandaments:
Indicador d’ordres de Windows:
C:\Users>pip install aiml
C:\Users>pip install gTTS
C:\Users>pip install pyaudio
C:\Users>pip install google-api-python-client
C:\Users>pip install SpeechRecognition
Aquestes biblioteques podran ara ser usades pel codi de Python, que les utilitzarà
per a diferents funcions. Al principi però, s’han d’importar tots els mòduls que s’usaran, s’ha
creat la funció “parla” per a simplificar l’ús del Google TTS (que només genera un fitxer mp3
que també s’ha d’obrir i tancar dins aquesta funció76) i s’han usat aquestes biblioteques per a
carregar els fitxers AIML i per a calibrar el micròfon. També s’usen les biblioteques de
Python d’OpenCV80 per a crear una finestra amb el logotip d’HIRU, que serà el que veurà
l’usuari.
Fitxer: HIRU.py
print "Loading [%]"
print ""
import os
import subprocess
import numpy
import cv2
img_enter = cv2.imread('logoenter.png')
cv2.namedWindow('HIRU')
cv2.imshow('HIRU',img_enter)
cv2.waitKey(0)
img_loading = cv2.imread('logoloading.png')
cv2.imshow('HIRU',img_loading)
import time
import aiml
from gtts import gTTS
import speech_recognition as sr
es = 'es'
ca = 'ca'
cat = 'ca'
. .
def parla(x,t,l):
tts = gTTS(text=x, lang=l)
tts.save("tts.mp3")
time.sleep(0.01)
os.startfile("tts.mp3")
time.sleep(t)
os.popen("Taskkill /IM wmplayer.exe")
r = sr.Recognizer()
m = sr.Microphone()
sessionId = "HIRU"
img = cv2.imread('logoblank.png')
cv2.imshow('HIRU',img)
time.sleep(2)
print ""
z = "Mesurament del soroll de fons en curs."
print z
parla(z,5,es)
with m as source: r.adjust_for_ambient_noise(source)
print "Soroll de la sala mesurat. {}".format(r.energy_threshold)
z ="Tot preparat. Parla quan vulguis."
print z
parla(z,3,es)
print ""
El següent que es programarà serà un loop, o bucle, perquè cada cop que HIRU
acabi de respondre torni a començar a escoltar el que digui l’usuari. Dins aquest bucle es
començarà per escoltar l’usuari, traduir la veu a
text mitjançant Google SR i adquirint una resposta
des dels fitxers AIML. També s’hi ha d’afegir un if
per a fer que si l’usuari diu “adéu”, “close” o “bye”
HIRU s’acomiadi i tanqui el programa, i un if per a
obrir una pàgina d’ajuda per si l’usuari la
necessita.
Fitxer: HIRU.py
while True:
print ""
print "Digues alguna cosa"
with m as source: audio = r.listen(source)
print("Reconeixent [%]")
try:
value = r.recognize_google(audio)
p = (u"{}".format(value).encode("utf-8"))
print " Tu >> " + p
a = kernel.respond(p, sessionId)
. .
. .
else:
print " HIRU >> " + a
parla(a,3.5,es)
Per a acabar amb l’arxiu només falta afegir un parell de contestacions que HIRU farà
servir quan no sigui possible usar el reconeixement de veu, sigui per falta d'internet o per no
comprendre el que l’usuari diu. També cal afegir el comandament de l’indicador d’ordres de
Windows per a tancar HIRU quan, per ordre de l’usuari, es trenqui el loop.
Fitxer: HIRU.py
except sr.UnknownValueError:
z ="Pots repetir aixo? No ho he entes"
print z
parla(z,5,es)
except sr.RequestError as e:
z = "Checkeja el teu internet please {0}".format(e)
print z
parla(z,6,es)
cv2.destroyWindow('HIRU')
os.system(‘Taskkill /IM HIRU.exe’)
Per altra banda, el codi en AIML té com a única funció donar una resposta a cada
una de les interaccions que realitzi l’usuari amb HIRU. Aquest pas essencial seria molt més
complicat sense AIML, ja que amb Python s’hauria de programar una
resposta per a cada una de les infinites possibles interaccions de l’usuari.
En canvi, AIML permet programar sense saber exactament el que dirà
l’usuari, afegint asteriscs (*) on l’usuari pot dir paraules aleatòries sense
afectar la resposta, cosa que facilita molt la programació de les respostes
d’un assistent intel·ligent. Per exemple, es pot veure a continuació els
fragments de codi corresponents a una resposta genèrica d'HIRU i a una
ordre d’obrir un programa:
Fitxer: chat-cat.aiml
<aiml version="1.0.1" enconding="UTF-8">
<!-- Aitor Urruticoechea 2017 - Ordres a HIRU -->
<category>
<pattern>*</pattern>
<template>
<random>
<li>No magrada aquest tema</li>
<li>Continua, si us plau</li>
<li>Aixo es tot?</li>
<li>Hum... no ho se</li>
<li>Que tal si canviem de tema?</li>
<li>Interessant</li>
<li>Explica'm mes</li>
</random>
. .
</template>
</category>
<category>
<pattern>OBRE *</pattern>
<template>Obrint <set name="r"><star/></set></template>
</category>
<category>
<pattern>OPEN *</pattern>
<template>Obrint <set name="prog"><star/></set></template>
</category>
</aiml>
Perquè el fitxer de Python pugui accedir al d’AIML, però, és necessari un fitxer XML71
que faci de pont, connectant així les biblioteques AIML amb les funcions del programa de
Python:
Fitxer: std-startup.xml
<aiml version="1.0.1" encoding="UTF-8">
<category>
<pattern>LOAD AIML 0</pattern>
<template>
<learn>chat-cat.aiml</learn>
<learn>AI-cat.aiml</learn>
<!-- AI-cat es un altre fitxer amb respostes -->
<!-- Mes fitxers aiml aqui si cal -->
</template>
</category>
</aiml>
Per acabar, cal passar aquest programa d’un fitxer Python (.py) a un executable
(.exe) per a poder obrir i tancar-lo amb facilitat i sense tenir Python instal·lat a l'ordinador.
Això no presenta cap dificultat afegida, ja que amb serveis com PyInstaller79 la conversió és
pràcticament automàtica:
Indicador d’Ordres de Windows:
C:\Users>pyinstaller.exe --onefile --windowed --icon=ICON.ico HIRU.py
. .
3.4. Resultats
Seguint els passos descrits anteriorment, s’ha aconseguit programar una versió (tot i
ser Alpha) funcional d'HIRU. Un programa capaç de respondre a l’usuari i de seguir les
seves ordres quan es tracta d’obrir i tancar programes, obrir pàgines web, a ensenyar
informació del funcionament d'HIRU (o pàgina d’ajuda) i d’apagar-se a ell mateix. Aquest
programa, però, té certs errors (o bugs) que s’haurien de corregir amb dies de revisió de
codi i més experiència de programació de la qual es disposa. Alguns programes fallen a
l’hora d’obrir-se o tancar-se, el sistema de reconeixement de veu de Google està adaptat a
la llengua anglesa i les ordres en català tenen certs problemes per ser compreses i algunes
funcions d'HIRU fallen quan s’executa des de l’arxiu .exe en comptes de fer-ho des de l’arxiu
.py però, així i tot, aquests problemes no són res fora de l’habitual d’una versió Alpha d’un
programa en desenvolupament i no impossibiliten el seu ús, raó per la qual es pot afirmar la
frase amb la qual comença aquest apartat. Amb aquest resultat certament positiu, es pot
acabar la part pràctica d’aquest treball amb la conclusió que, en efecte, és possible
combinar Python i AIML per a fer un assistent intel·ligent comptant amb coneixements
bàsics de programació.
. .
4. Conclusió
Com es pot comprovar al punt 3.4 Resultats, la hipòtesi sobre la qual s’ha treballat
s’ha confirmat com a vertadera. Certament, és possible programar una assistent intel·ligent
usant les tècniques actuals. L’assistent intel·ligent dissenyat, programat i implementat, HIRU
Alpha, ha superat les expectatives marcades originalment i ha esdevingut una realitat,
convertint-se en un assistent útil i fàcil d’usar. A pesar dels seus errors i de no comptar amb
un repertori massiu de possibles ordres a realitzar per part de l’usuari, HIRU té molt
potencial que es pot veure reflectit en pròximes versions.
Val a dir també que s’han complert també els objectius marcats originalment. Dels
objectius personals, per a poder programar HIRU s’ha après programació bàsica AIML
(Artificial Inteligence Markup Language68), múltiples comandaments bàsics per a l’indicador
d’ordres de Windows i diferents usos per les biblioteques de Python67; dissenyant i
implementant així un prototip (versió Alpha) d’Assistent Intel·ligent que faciliti la interacció
humà - computador (HCI, Human Computer Interaction7). Per altra banda, al punt 2.
Intel·ligència Artificial, de la ficció a la realitat, s’ha entès i analitzat tant el progrés actual de
la recerca en IA i el seu desenvolupament futur (tant tecnològicament com èticament i moral)
com el mercat i la utilitat dels Assistents Intel·ligents, assolint així els últims objectius
descrits en un principi.
5. Línies Futures
Mentre que el futur de la IA ha estat discutit i analitzat al punt 2.3 El futur amb IA -
Singularitat, hi ha molts fils oberts pel que fa a HIRU. Ara mateix, es tracta d’un programa
molt bàsic i per adaptar-se al mercat actual dels assistents intel·ligents ha de comptar amb
més funcions i explotar millor les característiques que el diferencien de la resta d’assistents.
HIRU necessita ser més complet: més funcions, més interaccions amb l’usuari i més
facilitat d’ús. Idealment, també hauria de comptar amb un sistema de reconeixement de veu i
de text a veu independent, per a no haver de comptar amb tecnologia de Google per a
funcionar. Un cop publicat i comercialitzat, HIRU continuaria evolucionant. Els següents
passos consistirien a ampliar la quantitat d’usuaris d'HIRU per a tenir una base suficient per
a introduir un sistema de machine learning, que permetria a HIRU créixer i aprendre a donar
respostes millors a partir del que els usuaris considerin una resposta correcta. Predir més
enllà d’aquest punt és entrar en un camp excessivament teòric ja que, com s’ha explicat
abans, ni tan sols els experts més atrevits s’atreveixen a confirmar quin serà l’estat que es
trobarà la IA d’aquí a pocs anys, però no per això HIRU deixarà de ser millorat, ja que
seguirà aprenent a aprendre. I qui sap, potser HIRU acaba sent, en un futur, la primera ASI.
. .
6. Agraïments
Aquest treball de recerca no hauria estat possible sense l’ajuda i el suport de molta
gent. Per això, vull agrair l'ajuda donada pel meu tutor, José Luis Touron, i també la donada
per la meva tutora original, Alba Pros. També agrair a Maite López, qui va accedir a
entrevistar-se amb mi donant part del seu temps per ajudar-me a comprendre el món infinit
que és la IA. També vull donar les gràcies a Tim Urban, que amb el seu blog Wait but Why,
especialment amb el seu doble article sobre IA, em va inspirar a realitzar aquest treball. A la
IA creada pel Dr. Wallace, creador de l’AIML, A.L.I.C.E,
que em va ensenyar maneres diferents d’entendre la
vida en una conversa sorprenentment humana. A la
història de Fredric Brown, Answer, capaç de fer-te
pensar durant hores, mesos i dècades sobre el futur tot i
ocupar poc menys d’una pàgina. També a Stanley Kubrick, que amb la seva malèfica però
competent i funcional IA: HAL-9000, demostra el poder de la IA a tot aquell disposat a veure
un llargmetratge amb pràcticament zero diàlegs i 30 minuts sencers de caiguda psicodèlica
a través d’un monòlit. A tots els artistes que fan més agradable la recerca d’informació amb
les seves creacions, des de còmics a pel·lícules i des de dibuixos del Microsoft Paint a
documentals. Als amics i els companys de classe que comparteixen les dificultats i l'estrès
que comporta fer un treball de recerca. I últim, però no per això menys important, gràcies a
la meva família. Al meu pare, que va donar la idea original, al meu germà que sempre està
per allà i a la meva mare que va insistir que no dubtés en demanar-li un cop de mà.
. .
7. Bibliografia
Recull bibliogràfic del treball. Cada número de la llista correspon a una menció del
contingut en el treball (indicat al treball amb un superíndex [ x ] ), mentre que els punts no
enumerats de la llista corresponen a recursos consultats no mencionats directament. Alguns
dels punts enumerats corresponen a més d’un recurs bibliogràfic, així que comparteixen
anotació i nombre.
➢ The Artificial Intelligence Revolution, Tim Urban - 2015. Recuperat de: Wait but Why:
Part 1: http://bit.ly/2ty9KHI
Part 2: http://bit.ly/2v2K9EN
➢ Answer, Fredric Brown - 1954. Recuperat de: Instituto Nazionale di Fisica Nucleare:
bit.ly/1mhvsbk
➢ 1. Technological Progress, Max Roser - 2017. Recuperat de: Our World in Data:
bit.ly/1NLxNcH
➢ 6. Miles vs. Watson, PBS News Hour - 2011. Recuperat de: Youtube:
bit.ly/2e8N4sq
. .
➢ 8. 2001 - A Space Odissey, IMBd - 2017. Recuperat de: Internet Movie Database:
imdb.to/2hbsJV3
➢ 10. Artificial Intelligence: Past & Future, Moshe Y.Vardi - 2012. Recuperat de:
Comunications of the ACM:
bit.ly/2w1X2jj
. .
➢ 24. How much power does the human brain require to operate, Jeremy Hsu - 2009.
Recuperat de: Popular Science:
bit.ly/2g6bKmX
➢ 25. Reflector LED RGB de 20 Watts, anònim - 2017. Recuperat de: Steren:
bit.ly/2xuorKz
➢ 26. The human brain vs. Supercomputers, John Staughton - 2015. Recuperat de:
Scince ABC
bit.ly/2goaGaK
➢ 27. Supercomputer Top 500 List, anònim - 2017. Recuperat de: Wikipedia:
bit.ly/2kASGi5
. .
➢ 37. We’ve put a worm’s mind in a Lego’s robot body, Marissa Fessenden - 2014.
Recuperat de: Smithsonian Magazine:
bit.ly/2yjW05I
➢ 37. A Worm’s mind in a Lego body, Lucy Black - 2014. Recuperat de: I Programmer:
bit.ly/1xG9UHl
➢ 43. Wait But Who, Tim Urban, Andrew Finn, Alicia McElhone - 2017. Recuperat de:
Wait But Why:
bit.ly/2yi7uHI
➢ 44. Wait But Why, Tim Urban - 2017. Recuperat de: Wait But Why:
bit.ly/2i8dpc7
. .
➢ How long before superintelligence, Nick Bostrom - 1998. Recuperat de: NickBostrom:
bit.ly/2hFkcWX
➢ 51. SuperIntelligence, Nick Bostrom, Talks at Google - 2014. Recuperat de: Youtube:
bit.ly/1xt0duu
➢ 53. Our weird robot apocalypse, Andrew Leonard - 2014. Recuperat de: Salon:
bit.ly/2hU1oTE
➢ 54. Future of Life Institute, anònim - 2017. Recuperat de: Future of Life Institute:
bit.ly/2zEIUP4
➢ 56. Virtual Assistant (artificial intelligence), anònim - 2017. Recuperat de: Wikipedia:
bit.ly/2gBr8YJ
. .
➢ 62. The Internet of things, Gérald Santucci - [?]. Recuperat de: European Union -
Comunity Research and Developement Information Service (CORDIS)
bit.ly/2fHrFDY
➢ 64. Samsung acquires Vic, Matthew Panzarino - 2016. Recuperat de: TechCrunch:
tcrn.ch/2dMhC35
➢ 65. Watson Products and Services, desconegut - 2017. Recuperat de: IBM Watson:
ibm.co/2gSHUzi
➢ 66. Big Data: ¿En qué consiste?, anònim - [?]. Recuperat de: PowerData:
bit.ly/2hWIQlM
➢ 69. AI Chat Bot in Python w/ AIML, “NanoDano” - 2015. Recuperat de: DevDungeon:
bit.ly/2x7IWhO
. .
➢ 74. How to make Pyhton speak, anònim - 2016. Recuperat de: Stack Overflow:
bit.ly/2gxMDWC
➢ 74. gTTS, “pndurette” - 2017. Recuperat de: GitHub:
bit.ly/2xkw3QF
➢ 75. Speech Recognition, anònim - 2017. Recuperat de: Python Softwere Fundation:
bit.ly/2gyQXoz
➢ 76. Can python open a mp3 file, anònim - 2017. Recuperay de: Stack Overflow:
bit.ly/2iwGjTu
➢ 80. Getting Started with Images, anònim - [?]. Recuperat de: Open CV:
bit.ly/2y5iARj
. .
8. Annexos
. .
après, i com de diferent el que et trobis és del que tu has fet servir per aprendre. Per tant,
sempre que el sistema hagi de prendre una decisió, i aquesta decisió afecti els humans,
tenim un problema, perquè potser la decisió està equivocada i potser l’humà es veu afectat
per aquesta equivocació.
Des de quan truques a una assegurança i tenen un sistema automàtic per dir-te quan has de
pagar per una pòlissa d’assegurances o pel fet de donar-te una hipoteca o pel fet d’atendre’t
quan hi ha algun problema. I últimament tenim el tema militar, on la IA s’està ficant i aquí hi
ha tema que les conseqüències que té pels humans poden ser molt serioses. Però és igual
de problemàtic en tots els àmbits. El que passa és que depenent del que estiguis decidint la
conseqüència és més important que l’altra; però sempre que afecti els humans, la decisió
tindrà efectes morals i sempre trobes situacions en les quals no està clar el que s’hauria
d’haver fet.
Tot i això, l’error en cas dels humans també existeix, els humans també, quan fem coses que
afecten altres, ens equivoquem. Això també ho hem de tenir clar perquè, per exemple, hi ha
gent que diu que els sistemes que conduiran automàticament s’equivocaran i mataran algú.
Però clar que ara també hi ha molts morts en conducció. Sempre hem de tenir en compte els
dos factors.
P: Parlant ja de futur: continuarà sent vigent la llei de Moore?
A vegades es parla de saturació, on els circuits ja no podran fer-se més petits perquè hi ha
problemes de material, de mides. Però també hi ha qui parla de singularitat. Quan les
màquines es fan intel·ligents i poden aprendre, poden aprendre també de si mateixes i
poden anar creixent cada vegada més. Per tant hi ha gent a favor i en contra. És una espiral
complicada de saber: una vegada ensenyes a una màquina a aprendre, saber fins on
arribarà a aprendre és molt difícil. Potser inclús es fa més intel·ligent que les persones. Hi ha
experts que diuen que és possible, hi ha altres que diuen que no ho és. Jo no ho
descartaria.
P: Per tant, veus possible una AGI o una ASI?
Jo crec que no és descartable. L’altra cosa és quina proporció: 100% segur doncs no, però
això és el que és difícil. Ara, que hi ha una possibilitat? Jo crec que la possibilitat existeix. El
que no sé ben bé és quantificar. Depenent a qui preguntis et dirà al 60, al 30, però jo crec
que la comunitat ens movem en uns marges així: ni ho descartem ni ho diem.
P: En el futur, quines implicacions ètiques creus que poden ser més problemàtiques?
Al final depèn de com prenguin les decisions les màquines. Si ensenyem a les màquines
que prenguin les millors decisions possibles, que és una cosa que habitualment hem tingut
al cap els que fem recerca. Si les màquines són racionals, fan la millor decisió possible, a
vegades la millor decisió de forma objectiva no és el que les persones pensaríem que és la
millor decisió possible. I estem parlant ja, per exemple, d'eliminació de minories. Estem
parlant de decisions que afecten els humans com a col·lectiu. Si som capaços de transmetre
els valors humans a les màquines, potser això ho podem mitigar. Perquè d’alguna forma els
humanitzarem i entendran que, per exemple, a algú no l’has de matar perquè no sigui
productiu, o coses d’aquestes.
Ara, aquest és un tema que just ara es comença a tractar en l'àmbit de recerca, a la que
siguem madurs això sí que ja no tinc ni idea. La tecnologia va molt més avançada que les
implicacions morals, els problemes que puguin sortir. Tot això just s’està començant a
treballar ara i tot és molt incipient.
. .