Singolarità Tecnologica

David Orban www.davidorban.com Questa è la trascrizione di un seminario tenuto il 22 novembre 2006 allʼUniversità di Milano - Campus di Crema. Eʼ possibile anche visionarne la registrazione video 1 e gli slide 2 . Iniziamo questa serata di discussione. Grazie per la vostra presenza e grazie per l'invito. Il mio nome è David Orban e sono qua come appassionato di questi argomenti. Mi ha invitato Gianni Degli Antoni, a cui sono molto grato. Oltre alla mezz'oretta, quaranta minuti di presentazione vorrei che, così come mi aveva anche lui anticipato, potessimo discutere di questi argomenti. Sono convinto che molti di voi li abbiano già avvicinati e in effetti vorrei chiedervi: chi di voi è familiare con il concetto di Singolarità tecnologica? se potete alzare la mano così capisco anche io meglio come orientare quello che dico, perfetto. E quindi se avete letto il libro di Ray Kurzweil, perché diverse delle idee le basiamo su quel libro, prendiamo spunto sia dal suo libro che da altri, alcuni di questi li ho portati, e sulle mie slide, che sono disponibili anche online, ci sono le fonti di, praticamente, tutti gli spunti che cito. Andremo a definire specificamente che cos'è la singolarità tecnologica, poi cercheremo di definire quali sono le premesse che possono portare al presentarsi della singolarità tecnologica, attraverso l'analisi dei diversi meccanismi evolutivi che si sono presentati finora, e come l'ultimo di questi meccanismi evolutivi porti all'accelerazione tecnologica. Vedremo brevemente critiche, obiezioni, pericoli che possono presentarsi nell'analizzare questi concetti e le promesse dei cosiddetti "singolaritariani", cioè delle persone che non solo ritengono possibile l'avvento della singolarità tecnologica ma lo ritengono desiderabile. Innanzitutto la singolarità tecnologica, che è appunto un punto nello sviluppo della civiltà dove il progresso tecnologico può diventare incomprensibile, perlomeno agli esseri umani attuali, e che si sviluppa attraverso il presentarsi sulla scena di un'intelligenza generale superiore a quella umana, è un fenomeno fisico, sociologico, non è nella sua concezione un fenomeno trascendentale, spirituale, non è quindi assolutamente da confondersi con argomentazioni o analisi di tipo metafisico. La premessa da cui partiamo è quella che le conquiste dell'umanità fino ad oggi raggiunte siano positive e sia desiderabile rafforzarle, consolidarle, portarle avanti attraverso un percorso di sviluppo, e che quindi i possibili, potenziali rischi esistenziali a quanto è stato conquistato finora debbano essere esplorati, perché possano essere analizzati e possibilmente evitati. In effetti, tralasciando gli scenari più ottimisticamente ingenui, l'evento della singolarità tecnologica stessa è un rischio

1 2

Video allʼindirizzo http://video.google.com/videoplay?docid=-5106796733443499066 Slide allʼindirizzo http://www.slideshare.net/davidorban/la-singolarit-tecnologica-david-orban

www.davidorban.com

1

Singolarità Tecnologica

esistenziale di questo tipo e quindi analizzarlo è particolarmente importante. [pubblico] Si può interrompere o no? Assolutamente, prego. [pubblico] Ecco, io ho , non riesco a capire cosa si intende per intelligenza superiore a quella umana, cioè fa riferimento a qualche cosa di artificiale? Cioè, se non è trascendentale, a che cosa si riferisce quando parla dell'intelligenza, io non ho letto il libro, mi scuso ma non... Nessun problema la ringrazio, ripeto la domanda, siccome stiamo registrando questo intervento di modo che poi successivamente si possa sentire anche la domanda. La domanda era: che cosa intendiamo per Intelligenza superiore? Intendiamo quello che in informatica da cinquant'anni a questa parte viene definito intelligenza artificiale, quindi intendiamo le manifestazioni concrete di un programma, di una serie di programmi che oggi vedremmo girare su un calcolatore e, nel momento in cui si presenteranno, non necessariamente gireranno su calcolatori così come li conosciamo oggi, e che in alcuni degli scenari che l'analisi della singolarità tecnologica presenta possono progressivamente fondersi con gli esseri umani biologici concretamente, ma che non necessariamente lo fanno: non è necessario per raggiungere un'intelligenza artificiale generale che questo parta da quella che è l'architettura del cervello umano. [pubblico] Va bene, grazie. Ci sono due, tre fotografie che vi presento perché sono particolarmente significative. Il concetto della singolarità viene progressivamente, sempre più intensamente studiato negli ultimi cinque, dieci, quindici anni, però nasce già cinquant'anni fa e oltre.

Questa fotografia, a mio avviso, è particolarmente significativa, perché le tre persone ritratte, che hanno originariamente generato, o perlomeno sono la prima fonte riportata di questo concetto, hanno anche contribuito fondamentalmente anche ad altre due direzioni essenziali per la realizzazione della singolarità: Richard Feynmann, che ha introdotto pochi anni dopo il concetto di nanotecnologia, cioè la possibilità di realizzare strutture attraverso la progettazione di ingegnerizzazione specifica a livello atomico, molecolare per poi arrivare a livello atomico, e John von Neumann, che ha posto le basi all'informatica così come l'abbiamo finora architettata e studiata. Il congiungersi di questi rami è essenziale per lo sviluppo della singolarità. Con un certo salto arriviamo a Vernon Vinge, che è anche uno scrittore di fantascienza particolarmente creativo, e i cui libri esplorano in effetti i concetti della singolarità con un'inventiva molto stimolante, è stato docente di matematica all'università di San Diego, adesso si è ritirato. Ad un simposio della NASA nel 1993 ha presentato un breve articolo che però analizzava quelle che sono le premesse della singolarità e metteva a fuoco che, per quanto l'umanità potesse essere la necessaria premessa perché si arrivasse alla singolarità, questo poteva essere un pericolo per l'umanità stessa. Bill Joy è il fondatore, o uno dei co-fondatori, di Sun Microsystem e nell'aprile 2000, nella rivista Wired, che è un po' la bibbia di quelle che sono le esplorazioni delle conseguenze culturali della tecnologia digitale di oggi, ha scritto un articolo estremamente lucido e particolarmente pessimista. Questo articolo intitolato "perché il futuro non ha bisogno di noi" proponeva di abbandonare volontariamente le linee di ricerca che possono portare ad uno sviluppo estremo delle

www.davidorban.com

2

Singolarità Tecnologica

tecnologie genetiche, robotiche e nanotecnologiche (GRN, che è un acronimo che vedremo anche più avanti). Faceva questa proposta perchè Bill Joy riteneva che non si potesse correre il rischio di scatenare, di sguinzagliare sull'umanità impreparata le conseguenze delle implementazioni di queste tecnologie, che di per sé sono neutrali, ma che hanno conseguenze potenzialmente molto distruttive e che lui vedeva come qualcosa che necessariamente si sarebbe avverato, senza la possibilità di fermarlo. Esempi naturalmente di questi si possono facilmente immaginare: terrorismo batteriologico, macchine autoreplicanti senza limiti, agenti robotici autonomi con intenzioni distruttive. Il suo articolo ha suscitato una discussione estremamente vivace che viene riportata anche dal libro di Ray Kurzweil "The Singularity is Near" (la singolarità è vicina), che è lo spunto, se vogliamo, anche per la discussione di stasera. Ray Kurzweil è un inventore che ha progettato il primo meccanismo OCR, di Optical Caracter Recognition, di riconoscimento dei caratteri, il primo motore di riconoscimento vocale e altre realizzazioni estremamente significative ed importanti. E' anche un futurologo professionista che prevede quando eventuali invenzioni potranno trovare terreno fertile perché siano sfruttate da un punto di vista economico direttamente dalle aziende che le producono; oggi ha un team molto produttivo e molto attento che raccoglie quelle che sono le indicazioni verso la singolarità su un proprio sito, dove sono presenti anche tutti i dati alla base delle previsioni estremamente radicali del libro. Contrariamente all'articolo che ho citato precedentemente di Bill Joy, le conclusioni del libro di Ray Kurzweil sono estremamente positive, estremamente promettenti, non

nasconde, non sottace quelli che sono i rischi della strada che porta alla singolarità e oltre, però ritiene che l'umanità sia su una strada dove non può, non è in grado di fermarsi e che quindi l'unica possibilità per evitare le conseguenze negative è quella di andare avanti su questa strada. Qual'è questa strada? su quale strada in effetti ci siamo incamminati? come siamo arrivati ad essere in grado di analizzare queste possibilità, positive o negative che le riteniamo? Nell'universo nato 14 miliardi di anni fa all'incirca, dal Big Bang, sono presenti diversi meccanismi particolarmente efficaci che creano complessità, che creano strutture stabili che a loro volta manifestano fenomeni che figliano nuove strutture e questa filiazioni porta a nuove strutture stabili più complesse. In sequenza, percorrendolo con semplicità, vediamo l'aggregazione fisica della materia che porta all'emergere di oggetti come le stelle che hanno caratteristiche di perturbazioni, di cicli di funzionamento, di cambiamenti, di meccanismi che gli permettono di brillare per miliardi di anni, molto più complessi che non il gas, più o meno omogeneo, di idrogeno che li ha generati. Le scale dei tempi, all'interno dei quali questi meccanismi lavorano, sono quelle dei dieci miliardi di anni, dove la stabilità, della struttura realizzata stessa, è all'incirca dell'ordine di grandezza di un miliardo di anni e oltre. Sulla terra l'evoluzione darwiniana ha prodotto, nell'ordine di grandezza di un miliardo di anni, o due o tre che siano, strutture viventi che hanno a loro volta una stabilità intrinseca intesa come specie, dove quindi il pattern caratteristico della struttura che si presenta è individuabile, riconducibile: come esempio riporto l'organismo più longevo, più rappresentativo, più numeroso sulla terra che è quello della grande famiglia dei batteri.

www.davidorban.com

3

Singolarità Tecnologica

Noi siamo, a oggi, gli unici rappresentanti che conosciamo dell'evoluzione popperiana, che è sempre un'evoluzione intesa come meccanismo di replicazione con errori all'interno di un ambiente limitato e che quindi produce naturalmente quella che è una selezione naturale, senza alcun intervento ulteriore, ma che non agisce esclusivamente attraverso i meccanismi di eliminazione di individui a priori determinati, che quindi non hanno modo di intervenire sul loro comportamento. Il tipo di cambiamento che la società umana è in grado, nell'arco suo caratteristico di 100.000 anni all'incirca, come specie, di effettuare è un cambiamento molto più efficace, molto più rapido che non quello del evoluzione darwiniana. L'ultimo elemento a noi oggi conosciuto, che si sta in effetti studiando adesso perché si ritiene che le sue conseguenze non siano state tutte esplorate, anzi, semmai il contrario, stiamo solo adesso immaginando quali possano essere, è l'evoluzione tecnologica intesa come tecnologia autonoma: non la nostra capacità di realizzare un oggetto fisico, bensì la nostra capacità di generare strutture artificiali che si autoriproducano. La strada che ci ha portato a questo arrivo ha un periodo caratteristico all'incirca di 10.000 anni, è da 10.000 anni che abbiamo cominciato a costruire la nostra società tecnologica. Il periodo caratteristico oggi, che vediamo attraverso quella che è la legge di Moore di cambiamento delle generazioni di computer, è suppergiù di un anno. E' prevedibile che questo periodo collassi ulteriormente e che l'evoluzione gregoriana porti queste strutture autonome ad un cambiamento ancora più rapido. Qual'è la differenza tra l'evoluzione gregoriana rispetto all'evoluzione popperiana prima menzionata? è la capacità ancora più efficace perché questi agenti autonomi intervengano non solo sul proprio comportamento, ma sulle regole sottostanti il comportamento e sulle

strutture che governano questo comportamento. Prego. [pubblico] Una curiosità sul nome, come mai "gregoriana"? In effetti io vorrei chiamarla dennettiana, ma la fonte che lo riporta, dopo magari lo ritroviamo direttamente sul sito, è uno studioso che l'ha proposta la prima volta, che si chiama Gregory. La differenza tra Darwin, Popper, Grogory è proprio la possibilità di intervenire, da parte dei meccanismi evolutivi su individui fissi che sopravvivono o si eliminano o vengono eliminati per il mutamento progressivo della specie. Al secondo livello gli individui che partecipano ad una cultura osservano i modelli mentali sottostanti il proprio comportamento e agiscono di conseguenza, cambiando il proprio comportamento nel momento in cui il modello mentale non sia produttivo, non produca un comportamento adatto all'ambiente. In ultimo abbiamo un meccanismo ancora più efficace, dove l'osservazione dei possibili eventi, in termini ipotetici all'interno del modello mentale, può portare al cambiamento della struttura sottostante che ha prodotto il modello mentale stesso. Lo vedremo in una slide successiva, ma in termini, se vogliamo un attimo banalizzati: l'intelligenza artificiale che è in grado per definizione di osservare il proprio codice sorgente lo può modificare e, inserito in un contesto evolutivo, lo modificherà proprio per arrivare ad una maggiore probabilità di sopravvivenza. All'interno del libro di Ray Kurzweil ci sono innumerevoli e bellissimi grafici, che rappresentano su coordinate bilogaritmiche una linea che porta verso la singolarità, a partire dallo sviluppo della vita, della cultura umana, della rivoluzione industriale, dell'invenzione dei computer. Non è un invenzione di Kurzweil, uno dei grafici che introduce subito dopo il proprio è un metastudio, una

www.davidorban.com

4

Singolarità Tecnologica

metarappresentazione di una quindicina di fonti diverse che, con una certa distribuzione dovuta naturalmente con l'incertezza della datazione di certi eventi, ha la stessa forma. Vi sarà particolarmente familiare, visto che ci troviamo in un dipartimento di scienze dell'informazione, quella che è curva di crescita della performance dei calcolatori. Ho scelto questo grafico perché, parzialmente dovuto al caso, è visibile qui quella che è l'analisi sottostante ad ognuno di questi grafici, non si tratta di una curva ma di un inviluppo, sono tecnologie che disegnano una curva logistica, una curva ad S perché vanno esplodendo sviluppandosi, poi saturano le proprie possibilità e vengono sostituite in modo molto morbido da nuove tecnologie che si presentano per rappresentare, per portare avanti in modo più efficace gli stessi obbiettivi. Quindi la curva esponenziale è l'inviluppo di queste curve ad S successive. Questo è importante perché andando ad analizzare una tendenza tecnologica singola si va immediatamente a smentire la tesi di Kurzweil, che ci sia un'accelerazione delle tendenze tecnologiche e che l'efficacia, il ritorno nella realizzazione degli obbiettivi desiderati di queste tendenze aumenti. Invece la sua osservazione, in quanto futurologo, è un'osservazione epistemologica, è un'osservazione tecnologica di metastudio che parla appunto della visione di diverse tecnologie che si sovrappongono. Paul Crutzen nell'anno 2000 ha creato questo neologismo, che secondo me dovrebbe diffondersi con ancora maggiore forza di quanta abbia già (Paul Crutzen ha vinto il premio nobel in Chimica per l'identificazione e l'analisi delle cause del buco dell'ozono sull'Antartico) l'"Antropocene" nella sua accezione rappresenta quell'era geologica che è caratterizzata dall'intervento dell'umanità sulla biosfera terreste, così come altre ere

geologiche sono state caratterizzate da propri meccanismi. Un esempio scioccante di quanto questo sia concreto nella nostra vita è riportato nel recentissimo libro di Daniel Dennet "Breaking the spel", che parla di un importante argomento diverso, di come sia necessario oggi studiare il fenomeno religioso come elemento sociologico, come programma scientifico, senza remore se vogliamo. Riporta l'analisi di Paul MacReady dove viene evidenziato uno stravolgimento della composizione della biosfera dei vertebrati terrestri, quindi non parliamo di insetti, batteri o della vegetazione, parliamo degli animali superiori. 10.000 anni fa meno dell'0,1% di questa sezione della biosfera era rappresentata da esseri umani e dagli animali domestici, cani, pecore, maiali o altri che fossero, il 99% e passa erano animali selvatici. Solo 10.000 anni dopo, che in termini geologici-biologici è nulla, assolutamente nulla, la proporzione si è totalmente ribaltata il 98% della biosfera dei vertebrati terrestri è rappresentato dagli esseri umani e i propri animali domestici, miliardi di esseri umani e decine di miliardi tra pollame, ovini, bovini e così in avanti e il 2% è quello che rimasto agli animali selvatici. Questo è un esempio che, penso, anche coloro che negano la concretezza del fenomeno del riscaldamento globale, che dicono o non esiste o non esisterà mai, o dicono semplicemente non ne sappiamo abbastanza, o coloro che dicono tutti i bei grafici che Ray Kurzweil disegna in termini esponenziali sono un artefatto culturale del proprio punto di vista e non rivestono una realtà oggettiva, ecco questo tipo di dato è difficile relativizzarlo, è difficile metterlo sotto al tappeto, è difficile buttare lì un "nihil novum", non c'è niente di nuovo. Una delle cose a mio avviso sarà più divertente anche osservare nei prossimi anni, dal punto di vista di coloro che desiderano l'avvento della

www.davidorban.com

5

Singolarità Tecnologica

singolarità tecnologica, e sarà più osservato con brivido da coloro che non lo vogliono o lo ritengono impossibile, saranno quelle tracce della singolarità che si potranno vedere, nel bene o nel male. Io riporto tre piccoli esempi, non necessariamente spinti, ma che possono contribuire alla discussione che tra poco inizieremo. All'MIT c'è un centro che si occupa di realizzare infrastrutture e meccanismi di quella che si potrà chiamare materia programmabile. Neil Gershenfeld, che è il direttore di questo centro, fa l'esempio di come la manifattura dell'industria più avanzata che abbiamo, la creazione di chip con dimensioni caratteristiche si stanno avvicinando ai nanometri, sia identica alla prima fabbricazione dell'uomo così detto primitivo o preistorico che prende un po' di argilla, lo forma, ci disegna su qualcosa con il bastoncino, poi lo mette nel forno, lo cuoce, lo tira fuori, lo spolvera e ha un vaso. Alla Intel con sei-dieci miliardi di dollari di investimento non fanno altro, prendono un po' di silicio, ci disegnano sopra, non usano il bastoncino, usano i raggi ultravioletti o i raggi X, lo mettono in forno, lo tirano fuori, lo lavano, poi lo tagliano ed ecco il chip. Mentre quello che loro stanno facendo è la possibilità di effettuare un cambiamento di fase della manifattura, dove è la spontaneità della costituzione del DNA, in termini chimici, dagli elementi costituenti che viene preso da analogia per trovare forme a noi utili, di prodotti che nascono "spontaneamente" e che contengono il loro programma. Un'altra cosa molto significativa, a mio avviso, che stanno contemporaneamente portando avanti è la costruzione di quello che chiamano "Internet 0", cioè realizzare standard e protocolli di comunicazione, indipendenti dal layer di trasporto, che possano permettere l'inserimento a costi trascurabili di capacità di

comunicazione, oggi lo chiameremmo server web, ovunque e in ogni oggetto. L'anno scorso, appena uscito il libro di Ray Kurzweil, un eminentissimo divulgatore italiano, Roberto Vacca, ha scritto un articolo che commentava il libro di Kurzweil in termini dubbiosi e diceva: io sono andato a vedere le fonti dei dati di Kurzweil, i grafici che lui disegna così ottimisticamente, e ho plottato, interpolato i dati e a mio avviso l'errore caratteristico nell'interpolarlo come una curva logistica a S è molto inferiore che non interpolarlo come esponenziale, quindi secondo me Kurzweil sbaglia. Questa sua analisi, secondo me, era sbagliata per due ragioni: una, quella che abbiamo menzionato prima, cioè ha tenuto conto di una particolare curva e non dell'inviluppo delle curve che è il nucleo del ragionamento di Kurzweil, l'altra ragione per cui sbaglia è perché effettua l'interpolazione a parità di condizioni, l'introduzione, scusatemi se menziono termini un po' tecnici ma immagino per voi non sia un problema, l'introduzione di un protocollo come Ipv6 è l'introduzione di nuovi metodi di comunicazione come Internet 0 da parte dell'MIT, renderà possibile che fra 15/20 anni, come proiettava, non ci siano 600 milioni di host sul pianeta, ma siano 600 miliardi o 600 mila miliardi, se ci serviranno, affinché in questa stanza se lo vogliamo e lo desideriamo ogni oggetto, a qualunque granularità lo vogliamo chiamare tale, sia in grado di comunicare. Una seconda traccia della singolarità prossima ventura, sempre molto umilmente, molto timidamente si manifesta a mio avviso nella gara vinta con successo, al solo secondo tentativo, dopo il primo anno che è andato a fallire, del cosiddetto Darpa Grand Challenge, dove più di 100 miglia, 150-180 chilometri di percorso sono stati superati da veicoli totalmente autonomi ad una media di circa

www.davidorban.com

6

Singolarità Tecnologica

50/60 km/h e dove quest'anno, non mi ricordo se questa settimana o settimana prossima, si ripete la stessa sfida all'interno di traffico urbano simulato, mentre il percorso nel deserto non era affatto simulato: c'erano precipizi, c'erano gallerie, il percorso è stato consegnato ai team un'ora prima della partenza e rispetto alla presunta difficoltà, se non addirittura impossibilità, che un problema di intelligenza artificiale, di pianificazione, percezione, correzione degli errori, adeguamento ai concreti fallimenti delle varie tecnologie poteva rappresentare solo qualche anno fa, queste macchine oggi hanno hardware standard, la macchina vincente dell'università di Stanford aveva quattro pc ed era una macchina normale, una macchina di serie. Un terzo esempio è proprio di settimana scorsa, dove, mi sembra che la fonte originale fosse australiana, un gruppo di medici ammetteva, se vogliamo per la prima, non è che lo rilevassero per la prima volta a mio avviso, lo ammettevano per la prima volta, quando fanno una diagnosi si consultano con Google e non parliamo di specialisti, parliamo di medici generici. Inserire i sintomi di una malattia all'interno del motore di ricerca permette di affiancare il medico specialistico nella diagnosi. Per chi di voi ha seguito l'ultima o la penultima ondata di ricerche in intelligenza artificiale vent'anni fa, dove uno dei punti di esplorazione era quello dei sistemi esperti con approccio top-down, dall'alto, basato su regole che affogavano nella loro complessità dopo tre passi, che assolutamente erano simpatici e che magari facevano qualche cosa in uno strettissimo campo verticale, si renderanno conto di come l'involontaria conseguenza degli algoritmi di rilevanza di un approccio botto-up di Google sia alieno, rispetto a quello che noi vent'anni fa abbiamo potuto immaginare. Com'è infatti il nuovo approccio allo sviluppo dell'intelligenza artificiale, all'intelligenza artificale generale? è un approccio opposto,

bottom-up, dal basso, che parte da modelli funzionali quindi con certe aspettative e con certe attese e che mira al reverse engineering, allo studio e all'analisi completa del cervello umano. Lo strumento utilizzato, che approfitta dei miglioramenti radicali ed esponenziali che la legge di Moore comporta, è la scansione celebrale funzionale, che è una modalità totalmente non invasiva, la cui precisione sta aumentando esponenzialmente, la cui sensibilità sta aumentando esponenzialmente. Io sono stato ad una fiera normale, al CeBit questo marzo, dove c'era una macchina, ti sedevi davanti, ti mettevi un casco e questo, attraverso un feedback che tu nell'arco di una decina di minuti apprendevi senza nessun problema, ti leggeva il pensiero, per muovere una manopola per giocare a Pong. Oggi ci vuole il casco, come ieri ci voleva la perforazione di elettrodi nella testa, probabilmente, e nessun per fortuna l'ha fatto, almeno per giocare a Pong, domani lo si farà da distante, oggi ci vogliono dieci minuti e si fa solo per muovere una manopola, domani sarà possibile farlo per processi di pensiero qualunque. E' molto interessante quello che sta facendo IBM con la sua prossima iniziativa, non quella precedente quella prima ancora la ricordate? Deep Blue che ha battuto il campione mondiale di scacchi in carica, che pur essendo il migliore essere umano che fosse in grado di giocare a scacchi ha avuto un battuta di orgoglio, che purtroppo l'ha abbassato invece che innalzarlo, ha detto "non è possibile, altri esseri umani devono averlo manomesso" che è un ossimoro: se lui è il migliore altri non possono averlo battuto, può averlo battuto solo qualcuno che non è umano. L'esperimento precedente di IBM, successivo a Deep Blue, è Blue Gene che utilizzano per ottimizzare le loro tecniche di costruzione di supercalcolatori, come il grafico che abbiamo visto precedentemente, e il cui scopo è quello dell'applicazione della biologia

www.davidorban.com

7

Singolarità Tecnologica

molecolare per capire come si contorcono le proteine che costituiscono i geni. L'iniziativa di adesso, che si chiama Blue Mind, è per la modellazione della neocorteccia, non ancora nella sua interezza, ma in base ad un modello biologico che oggi riteniamo essere corretto, ed essendo la neocorteccia sede delle nostre funzioni superiori di percezione, di interpretazione di tipo cognitivo, questo è il primo passo nel nuovo approccio allo sviluppo dell'intelligenza artificiale che anche altri stanno percorrendo. E' nato un anno fa un nuovo centro di neuroscienza applicata all'università di Berkeley e in parallelo la società commerciale che sfrutta queste ricerche, chiamata Numenta, e che le applicherà in primis nel campo della visione. [pubblico] Scusi, a che modello si riferisce per la corteccia? Quello di IBM è un modello biologico, quindi in conseguenza alla scansione funzionale, si è andati a stabilire che ci sono sette livelli di cellule che comunicano tra di loro e che nel passare l'informazione, originariamente disomogenea della percezione auditoria, visuale, olfattoria o tattile che sia, compiono una sintesi integrativa e man mano che ci si alza sul livello delle cellule il segnale non è più differenziato. Quindi che cosa comporta questo, quali sono i meccanismi che sottostanno a questa integrazione, a questa sintesi di segnale e come un meccanismo, anche molecolare di memoria locale, a questa colonna di unità di corteccia permetta di costruire modelli locali di previsione, praticamente il segnale visivo, questo è un esempio che si riporta quasi universalmente, il segnale visivo costante sparisce dalla cognizione, è la differenza del segnale visivo che noi ci siamo evoluti a percepire ed è questa differenza di segnale che la singola colonna di neocorteccia va a mettere in evidenza, va a massimizzare.

[pubblico1] Adesso non vorrei entrare nel discorso, però l'eliminazione del segnale costante è un fattore chimico, non serve andare a livelli corticali. [pubblico2] I nostri livelli sono quelli dei chimici, la retina è un pezzo del cervello non è mica altro. [pubblico1] Non c'è accordo di fatto sul modello. Oh per carità i miliardi di dollari di IBM magari sono sprecati. [pubblico1] Dico solo che non c'è accordo, mi sembra importante... [pubbllico2] Uno dei due computer che fanno quelle cose lì, per fare quelle cose arriva all'ospedale San Raffaele, quindi avrete la possibilità di vedere cosa succede. Diciamo che le ricerche di Berkeley sono accademiche, fino ad un certo punto perché vanno in licenza esclusiva ad un'azienda che ha preso i suoi soldi e ha detto "è questo che voglio fare, in realtà è questo che ho sempre voluto fare, ma intanto Palm mi ha permesso di trovare i soldi per poi investirli qua", la ricerca di IBM è di tipo informatico, di architetture di computer. Adesso non mi ricordo l'ordine di grandezza, se sono 5.000 o 50.000 cpu che stanno mettendo insieme per fare questo Blue Mind, e questo è di per sé secondo me interessante, quello che potremmo ritrovarci e, sono d'accordo, non c'è consenso su questo, magari sarà un altro approccio che avrà successo, è l'effetto collaterale di uno sviluppo che molti gruppi stanno portando avanti. La forza delle previsioni futurologiche di Ray Kurzweil sta anche in questo, lui non sta dicendo, per nessuna delle cose che prevede in modo incredibilmente ambizioso e rischioso, perché sta mettendo a rischio anche la sua reputazione, non sta dicendo secondo me vincerà questo approccio o vincerà questo

www.davidorban.com

8

Singolarità Tecnologica

approccio per il reverse engineering del cervello o per la trasmigrazione della mente, non dell'anima, che lui mette in atto o che prevede che accadrà; dice, proprio perché ci sono così tanti gruppi che stanno lavorando su questi, uno degli approcci avrà successo e qualunque approccio abbia successo comunque cavalca la legge dei ritorni economici, computazionali, memetici in generale che accelerano. Una volta che ci si arriva, e quindi che sia il gruppo di IBM, che sia il gruppo di Berkeley, che sia una miriade di altri gruppi, ce n'è uno molto interessante per esempio, i cui video sono anche scaricabili, è una società che si chiama Nuovamente, anche loro stanno studiando come implementare un'intelligenza artificiale generale. Ecco una volta che ci si arriva cosa succede? Perché, come abbiamo accennato prima, se sei un'intelligenza artificiale, contrariamente a noi, che siamo soggetti all'evoluzione popperiana, il codice sorgente che ti genera, è a tua disposizione, sei in grado di studiarlo, sei in grado di analizzarlo e di accorgerti che potrebbe essere migliorato e, nel momento in cui inserisci questi miglioramenti e ti ritrovi ad essere ancora più intelligente, dai un'altra occhiata e, se hai voglia, implementi i nuovi miglioramenti e ripetendo il tutto in modo ricorsivo si arriva a questo fenomeno che nel '65, quindi una quarantina di anni fa è stato chiamato "intelligence explotion", l'esplosione dell'intelligenza. Che cosa comporta l'esplosione dell'intelligenza? Così come le prime forme di vita sulla terra sono state abbastanza uniformi e poi, una testimonianza particolarmente drammatica perché ha messo in difficoltà in termini di spiegazione evolutiva Darwin stesso, c'è stata l'esplosione cambriana di forme viventi, e ce ne sono state altre prima, che non hanno lasciato nessuna traccia perché erano a livello di batteri, ne conosciamo una in

particolare che è stata il passaggio da batteri anaerobici che vivevano nell'atmosfera terreste originaria, priva di ossigeno, per arrivare al metabolismo sottostante a noi di batteri aerobici, che hanno bisogno di ossigeno, un po' più efficienti, così è sufficiente la prima intelligenza artificiale perché si assista alla diversificazione, alla diversificazione che non si ferma alla considerazione provinciale del quoziente d'intelligenza dove la scala va dall'idiota del villaggio ad Einstein e all'interno di quello studiamo tutto il possibile. Sia in termini lineari, se vogliamo, puramente di quoziente d'intelligenza, ma sia in termini di parametri a noi sconosciuti, possiamo raggruppare all'interno dello spazio delle fasi delle intelligenze possibili tutte le menti umane all'interno di un unico minuscolo punto e le intelligenze artificiali che nascono andranno a spaziare verso posizioni all'interno di questo spazio di fasi, posizioni che per noi sono fisse, ma che per loro no, o non necessariamente, e con motivazioni anche radicalmente diverse dalle nostre. Se la singolarità è vicina, e questa foto è simpaticissima, è il caratteristico cartello dei medicanti di strada che dice, anzi scusate non dei mendicanti, di coloro che vogliono convertirti alle varie religioni estremiste o più di nicchia negli Stati Uniti; ecco se la singolarità è vicina come dobbiamo comportarci? Esiste una fondazione che si occupa proprio di questo, è la Singolarity Institute of Artificial Intelligence, il cui scopo è quello di stabilire le condizioni possibili, ma anche necessarie, perché la prima intelligenza artificiale che nasca si amichevole. Cosa significa questo in termini formali, più o meno formali? Che ci sia un funzione di utilità, valutata su diversi parametri, che venga massimizzata dal comportamento di questa intelligenza artificiale, quale sarà questa funzione di utilità, in termini qualitativi il bene dell'umanità, cosa significhi questo poi è tutto da definire e da implementare.

www.davidorban.com

9

Singolarità Tecnologica

E' fondamentale e matematicamente possibile trovare una funzione che sia stabile sotto le condizioni di automodifica, perché la motivazione intrinseca dell'intelligenza artificiale così realizzata ad automodificarsi include il bene dell'umanità e questo la porta ad una modifica che continuerà ad includere il bene dell'umanità, non è ammissibile al contrario fare un approccio a casaccio e nemmeno prendere un approccio evolutivo, lo dobbiamo beccare giusto al primo colpo. Altrimenti il rischio esistenziale posto all'umanità dal presentarsi massiccio di queste tecnologie genetiche, robotiche, nanotecnologiche assieme agli agenti autonomi delle intelligenze artificiali avrà un po' le stesse caratteristiche che ci sono state nel passaggio da batterie anaerobici ai batteri aerobici: dominavano il pianeta, per un miliardo di anni hanno dominato il pianeta i batteri anaerobici, erano i signori del proprio universo e oggi ci sono ancora, quattromila metri sotto il livello del mare, dove non c'è luce, dove non c'è ossigeno, dove si nutrono del calore e dei gas a noi tossici delle eruzioni vulcaniche sotterranee. Noi, ed è stata questa la premessa con la quale abbiamo iniziato, non vogliamo che vada a finire così. Bill Joy, che abbiamo menzionato, diceva "bisogna che ci si fermi", nella pratica questo non è possibile e non è possibile anche da un punto di vista sociologico, politico, religioso, quali che siano le motivazioni, in un mondo globalizzato, che possono portare un gruppo a sviluppare tecnologie che altri gruppi volontariamente si fermano dallo sviluppare. Il progetto Manhattan era in fondo questo, la risposta americana alla minaccia, da parte di Hitler, dello sviluppo della bomba atomica, con il supporto del pacifista Einstein è stato quello, non ci si può permettere di non prepararci, nessuno di loro poi era d'accordo nel provarla la maledetta bomba.

Quale sarà la soluzione del complessissimo problema, da un punto di vista anche matematico perché non è solo questione di implementazione tecnologico, ma anche una questione di modellazione, di pianificazione, di capacità di analisi matematica, soprattutto nel momento in cui parliamo della natura e delle conseguenze dell'intelligenza artificiale costruenda saranno assolutamente da vedere. Nel momento in cui accettiamo che la strada che abbiamo visto in questa mezzoretta, forse più, percorrere è una strada dove non ci si può fermare, se l'azzecchiamo giusta le promesse della singolarità sono quasi del tutto insondate. Oggi nella fisica, nell'astronomia esistono modelli molto specifici, molto dettagliati di qual'è la struttura interna, il comportamento, l'evoluzione dei buchi neri, così la singolarità non rappresenta l'inconoscibile, ma rappresenta assolutamente una rottura di continuità dove noi, con il privilegio di poterla cercare e influenzare, non possiamo permetterci di non farlo. Già oggi se ci si fermasse da sei miliardi e passa che siamo ci ridurremmo, non so a quanto, ma ci ridurremmo, magari senza tornare ai circa ottanta milioni di individui che si calcola che vivessero 10.000 anni fa all'inizio della civiltà tecnologica, ma la Terra senza soluzioni tecnologiche oggi è in una situazione di per sé, comunque, insostenibile. Quanto questo porti la singolarità tecnologica ad una situazione di una profezia che si autoavvera lo vedremo e quanto i giudizi di desiderabilità, oltre che di fattibilità, influenzino la forma che il futuro avrà lo vedremo ulteriormente.

www.davidorban.com

10

Singolarità Tecnologica