You are on page 1of 4

Un sondaggio della Ap-AOL News ha rivelato che, negli Stati Uniti, il 25% delle persone intervistate si

aspetta l'arrivo dell'Apocalisse nel 2007. Sei cittadini americani su dieci, invece, credono che il loro Paese,
nel 2007, sarà nuovamente bersaglio di un attentato. La stessa percentuale ritiene che i terroristi
impiegheranno armi biologiche o nucleari in qualche zona del mondo. Il 70%, infine, teme una nuova
catastrofe naturale come l'uragano Katrina e il peggioramento dell'effetto serra.

Secondo Martin Rees, astrofisico di fama internazionale, autore di


“Our Final Hour” (“Il Secolo Finale. Perché l'umanità rischia di
autodistruggersi nei prossimi cento anni”, Mondadori, 2004), la
probabilità che il genere umano distrugga sé stesso e il mondo
che lo circonda entro i prossimi cento anni è di circa il 50%.
Secondo Rees, i pericoli connessi alle neo-tecnologie si profilano
più gravi e meno controllabili di quelli, con cui ci siamo confrontati
per decenni, di una catastrofe nucleare: gli attacchi all'ambiente
provocati dalle attività umane hanno già causato danni ben
peggiori di quanto calamità naturali come terremoti, eruzioni e
impatti di asteroidi siano mai stati in grado di fare; i potenti virus
che l'uomo sta creando grazie all'ingegneria genetica possono
annientare milioni di persone; gli esperimenti con gli atomi
potrebbero innescare una reazione a catena in grado di
determinare la distruzione di ogni particella del cosmo.

La globalizzazione della scienza mette in mano a singoli individui


un potere che nei secoli passati apparteneva solo ai capi di stato.
Basterebbe un errore o un piccolo gruppo di criminali a trascinare
grandi parti dell'umanità, e perfino l'intera biosfera, in uno stato di
vulnerabilità estrema. Tutto questo accade proprio nel momento
in cui la scienza ci dice che la vita potrebbe avere un futuro
infinito, sopravvivendo, in forme diverse, anche alla morte del
sistema solare.

Rees dà al mondo solo il 50% di probabilità di non finire entro il 2100, in particolare per i rischi posti da quelli
che chiama “gli idioti del villaggio globale”, che potrebbero causare catastrofi biologiche per errore. Rees ha
addirittura scommesso, sul sito americano longbets.org - un sito che accetta le scommesse più diverse sul
futuro che si autodefinisce “un'arena per previsioni competitive e
responsabili” - che entro il 2020, “il bioterrore o il bioerrore” porteranno a
un milione di morti in un solo evento: “Entro il 2020 ci saranno migliaia,
se non milioni, di persone in grado di causare un disastro biologico. La
mia preoccupazione non sono solo le organizzazioni terroristiche, ma
idioti individuali che hanno la stessa mentalità di coloro che disegnano i
virus per il computer”.

Su Longbets.org si può scommettere sul cambiamento delle abitudini


degli americani alla guida da qui al 2010, e su come cambieranno, fino
alla espansione o no dell'universo. Mitchell Kapor, inventore di software,
ha scommesso che nel 2029 nessun computer sarà ancora in grado di
passare il Test di Turing (che ne misura l'intelligenza, ndr). Il fisico
Freeman Dyson scommette invece che la prima forma di vita
extraterrestre non verrà scoperta su un pianeta o su un satellite. John
Tierney, un giornalista del New York Times, ha puntato 200 dollari contro
la previsione di Rees, scommettendo che l'umanità sopravviverà anche
dopo il 2100.

Per evitare l'estinzione umana, Rees sostiene che la ricerca scientifica


deve diventare universalmente collaborativa e ad accesso aperto, sullo stile di Wikipedia. In termini di
esplorazione spaziale e sopravvivenza tramite la colonizzazione (ipotesi avanzata dal fisico Stephen
Hawking, ndr), Rees sostiene la soluzione del “libero mercato”.

Our Final Hour - Wikipedia


The Apocalypse Bet 09 agosto 2007

Hawking: Humans must colonize other planets 30 novembre 2006

PERCHÉ IL FUTURO NON HA BISOGNO DI NOI

Il pessimismo di Martin Rees è in linea con quello manifestato da Bill Joy, fonsdtore di Sun Microsystems,
nel suo celebre articolo “Perché il futuro non ha bisogno di noi” pubblicato da Wired nell'aprile del 2000, in
cui si affermava che le nuove tecnologie - l'ingegneria genetica, le nanotecnologie, la robotica - minacciano
di diventare le vere armi di distruzione di massa del ventunesimo secolo, liberamente reperibili su Internet, a
disposizione di singoli individui come di gruppi di terroristi (come anche di “terroristi di stato”, questo Joy non
lo diceva, ndr).

Wired 8.04: Why the future doesn't need us

Perchè il futuro non ha bisogno di noi di Bill Joy


THE SINGULARITY IS NEAR

«Nei prossimi 25 anni, l'intelligenza non-biologica eguaglierà la ricchezza e la raffinatezza dell'intelligenza


umana per poi superarla abbondantemente grazie a due fattori: la continua accelerazione del progresso
dell'informatica e la capacità [delle intelligenze non-biologiche - NdT] di condividere rapidamente il proprio
sapere. Integreremo nanorobot intelligenti nel nostro corpo, nei nostri cervelli e nell'ambiente, risolvendo
così problemi come l'inquinamento e la povertà, aumentando significativamente la nostra longevità,
permettendo realtà virtuali che comprendano tutti i sensi e la trasmissione di esperienze, nonché un
notevole incremento dell'intelligenza umana. Il risultato sarà la fusione della specie creatrice di tecnologie
con il processo evolutivo-tecnologico a cui essa ha dato vita».

Queste previsioni tecno-positiviste del futurologo Ray Kurzweil, tratte dal suo articolo “The Singularity is
Near”, sono state criticate da Roberto Vacca nell'insertodel Sole 24 Ore del 6 febbraio 2006 in un
articolodaltitolo “I limiti del tecnosviluppo”: [...] Kurzweil dà per scontato che i processi di crescita tecnologica
del passato sono tutti esponenziali. Quando la crescita rallenta, si presenta sempre un nuovo paradigma che
la fa riprendere. Ad esempio: i circuiti dei computer prima realizzati con relè, sono passati a tubi elettronici,
poi ai transistor, ai circuiti integrati e sono avviati a usare perfino singoli atomi [...] Kurzweil traccia un
parallelo plausibile, ma solo qualitativo, fra l'accelerazione dell'evoluzione biologica e quella dell'Information
Communication Technology: la prima impiegò miliardi, poi milioni di anni, millenni e decenni per produrre
vertebrati, primati, homo sapiens. La seconda, prima in decenni, poi in anni o mesi, è passata dai telefoni,
alla radio, alla tv, ai pc, al web.

È vero che il progresso accelera: la densità di transistor per chip, la velocità dei computer, le dimensioni
della memoria raddoppiano ogni 12-18 mesi. Dopo 30 anni, la legge di Moore funziona ancora: Kurzweil ne
deduce che anche oggi hardware, software e scienza crescono esponenzialmente. Non ci sarebbero limiti.
Qui osservo che è sempre stato smentito chi ha creduto di aver individuato processi esponenziali [...] Nel
nuovo mondo, dopo la singolarità, sarebbero indistinguibili uomini da macchine, realtà virtuale da quella
fisica. Potremmo assumere corpi e personalità diverse. Elimineremmo vecchiaia, malattie, povertà fame e
inquinamento. Ma la complessità estrema implica problemi critici. L'impiego di software difettoso può
causare disastri. La complessità che si riproduce da sola può condurre a errori imprevedibili.

Inoltre, la progettazione e la gestione dei sistemi di ultracomputer intelligenti sarebbero in mano a un'elite di
iper-tecnologi. Fra i tanti vantaggi tecnici ed economici, le iper-intelligenze ibride uomo-computer ci
darebbero anche una longevità estrema. Se non fosse riservata ai cittadini di prima classe, tornerebbe la
preoccupazione dell'esplosione demografica. Molti sarebbero esclusi per inadeguatezza o per motivi sociali.
Fra i tanti tagliati fuori sorgerebbero neo-luddisti ed eco-terroristi. Il controllo sociale delle innovazioni, già
arduo, lo diverrebbe ancor più. I problemi socio-economici richiedono studio e integrazione. Non si può
sperare che la tecnologia risolva tutto».

The Singularity Is Near - Wikipedia


I limiti del Tecnosviluppo
THE OTHER END

John Shirley, una delle voci più interessanti espresse dalla


fantascienza degli anni Ottanta - amico di William Gibson, Bruce
Sterling e Rudy Rucker, cyberpunk ante-litteram (il suo romanzo “La
Musica della Città Vivente” prefigurava nel 1980 uno scenario
metropolitano altamente informatizzato e connesso), neuromantico
della prima ora incluso in “Mirroshades” (l'antologia-manifesto curata
da Sterling) con un romanzo breve molto politicizzato e ambientato
nella scena rock del futuro, sceneggiatore per il cinema (suo è
l'adattamento dal fumetto del film culto “Il Corvo”), musicista rock - si è
sempre distinto dal resto della banda per il suo eclettismo. Dal fantasy
alla fantascienza, passando per l'horror, il thirller e il noir, sempre
colpendo nel segno, tanto da essere soprannominato “il Poe dell'era
postmoderna”.

Il suo nuovo romanzo, annunciato lo scorso ottobre, s'intitola “The


Other End”, annunciato in grande stile: “Vi è mai capitato di avere
voglia di fare un bel reboot al mondo ?”. Come spiega lo stesso Shirley
nella sua nota introduttiva, “The Other End” è un libro che nasce da un
profondo dissenso da quello che si va consumando giorno dopo giorno
nel mondo: guerre, carestie, disastri, terrorismo, schiavitù,
sfruttamento dell'infanzia e altri accidenti vari.

In un mondo senza speranza, condannato irreversibilmente alla catastrofe, il protagonista, Swift, un reporter
alla ricerca di una figlia misteriosamente scomparsa, si trova d'un tratto a fronteggiare la venuta dei
“Regolatori”. Ma chi siano, se angeli o alieni, e da dove vengano, nessuno riesce a capirlo. Non sembrano
intenzionati a operare la classica invasione e non rispecchiano le convinzioni cieche, dogmatiche e infantili,
di miliardi di credenti al mondo, ma si apprestano a compiere in ogni caso la loro missione: l'Armageddon, la
battaglia finale.

John Shirley's THE OTHER END


(Pubblicato su Ecplanet 06-04-2007)

Links

Long Bets

Sentient developments

Green Cross International

Singolarità tecnologica - Wikipedia

l'Uomo Macchina
INVASIONE MOLECOLARE

IL NOSTRO FUTURO POSTUMANO


VIAGGIO ALLUCINANTE

OLTRE LA LEGGE DI MOORE 3


Eco Apocalypse

Ultimatum Alla Terra

GLI ULTIMI TEMPI

APOCALISSE MAYA

COSMOGENESIS