You are on page 1of 116

A REVOLUÇÃO DA INTELIGÊNCIA ARTIFICIAL,

PARTE 1

Por Tim Urban -

5 de agosto de 2015

http://ano-zero.com/ai1/
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html

Nota do autor: a razão deste artigo ter levado três semanas para ser
concluído é que a medida em que me aprofundava em pesquisas
sobre Inteligência Artificial, eu não conseguia acreditar no que
estava lendo. E percebi bem rápido que aquilo que está acontecendo
no mundo da Inteligência Artificial não é apenas um tema
importante, mas é, DE LONGE, o tema mais importante para o nosso
futuro. Então eu desejava aprender tanto quanto possível a respeito,
e uma vez que feito isso, quis ter certeza de que escreveria um artigo
realmente explicando toda a situação e porque o assunto é tão
importante. Não é de surpreender que o artigo tenha se tornado
absurdamente longo, então o dividi em duas partes. Esta é a parte 1.

Nota do Tradutor: devido a sua extensão, decidimos dividir as duas


partes do artigo de Tim Urban em duas partes. Na versão brasileira,
portanto, este artigo terá 4 partes.

Estamos à beira de uma mudança comparável ao surgimento da vida


humana da Terra – Vernor Vinge
Qual é a sensação de estar nesse lugar?

Parece ser um lugar bem intenso de se viver — mas aí você tem que
se lembrar de algo sobre o que significa situar-se em um gráfico de
tempo: você não consegue ver o que está à sua direita. Então é essa
a real sensação de estar ali:
O que parece ser uma experiência bem comum…

O FUTURO LONGÍNQUO – EM BREVE

Imagine pegar uma máquina do tempo e retornar a 1750 — uma


época em que o mundo estava em permanente luta pelo poder,
comunicação a longa distância significada ou gritar bem alto ou
disparar uma bola de canhão, e todas as formas de transporte
comiam feno. Quando você chegar lá, você pega um cara, traz ele
para 2015 e aí passeia com ele pela cidade, observando como
reagirá a tudo que ver. É impossível para nós compreender o que
seria para ele ver cápsulas brilhantes correndo em uma avenida,
falar com pessoas que estiveram no outro lado do oceano na manhã
daquele mesmo dia, olhar partidas que estão sendo jogadas há
quilômetros de distância, ouvir uma performance musical que
aconteceu 50 anos atrás, brincar com um retângulo mágico que ele
pode usar para capturar imagens da vida real ou gravar um
momento de sua vida, gerar um mapa com um ponto azul
paranormal que mostra onde ele está, olhar o rosto de alguém e
conversar com essa pessoa ainda que ela esteja do outro lado do
país, e todo um mundo de inconcebíveis feitiçarias. E tudo isso
antes de você mostrar a ele e a internet e explicar coisas como a
Estação Espacial Internacional, o Grande Colisor de Hadróns, armas
nucleares ou a Teoria Geral da Relatividade.

Essa experiência, para ele, não seria surpreendente, ou chocante ou


mesmo colapsante — essas palavras não são grandes o suficiente.
Na verdade ele pode até morrer.

Mas aqui temos algo interessante. Se ele retornar para 1750 e ficar
com inveja de termos visto sua reação e decidir que quer tentar a
mesma coisa, ele então entrará na máquina do tempo para regressar
o mesmo período no passado, pegará alguém no ano de 1500 e o
trará para 1750, a fim de mostrar seu mundo a essa outra pessoa. E
o cara de 1500 ficará chocado com um monte de coisas — mas ele
não morrerá. Será uma experiência muito menos insana para ele,
pois embora o ano de 1500 seja bem diferente do período de 1750,
há muito menos diferença do que entre 1750 e 2015. O cara de 1500
aprenderá algumas coisas doidas sobre o espaço e a física, ficará
impressionado com o quanto a Europa ficou comprometida com
essa moda nova de imperialismo, e precisaria fazer algumas
revisões significativas no mapa que tem do mundo. Mas observando
a vida cotidiana do ano de 1750 (transporte, comunicação, etc), ele
definitivamente não morreria.

Não, para o cara de 1750 ter tanta diversão quanto nós tivemos com
ele, ele teria que voltar muito mais no tempo — talvez voltar até
12.000 AC, antes de a Primeira Revolução Agrícola dar origem as
primeiras cidades e ao conceito de civilizaçã0. Se alguém de um
mundo inteiramente nômade — de uma época em que os homens
eram, de certo modo, apenas mais uma espécie de animal — visse os
impérios humanos de 1750, com suas igrejas de elevadas torres,
suas embarcações que cruzavam oceanos, seu conceito de estar
“dentro” de uma construção, sua enorme montanha de
conhecimento coletivo acumulado e suas descobertas — ele
provavelmente morreria.

E se, após morrer, ele ficasse também com inveja e desejasse fazer a
mesma coisa? Se ele voltasse doze mil anos para 24.000 AC e
pegasse um cara e trouxesse ele para 12.000 AC, e mostrasse a esse
sujeito toda as coisas, esse cara diria algo como “certo, o que você
está querendo me mostrar?” Pois para o cara de 12.000 AC ter a
mesma diversão, ele precisaria retornar 100.000 anos e pegar
alguém a quem pudesse mostrar o fogo e a linguagem pela primeira
vez.

Para que alguém do presente fosse transportado até o futuro e


morresse de choque como eles morreram, seria necessário que
navegasse anos adiante no tempo até o momento em que tenhamos
atingido o “nível de progresso mortífero”, ou, em outras palavras,
até que alcançássemos uma nova Unidade Fatal de Progresso (UFP). E
se uma UFP levou 100.000 para ser atingida a partir da época do
nomadismo, a próxima UFP, após a Revolução Agrícola, levou apenas
12.000 anos. Já o mundo posterior à Revolução Industrial mudou
tão rapidamente que uma pessoa de 1750 precisa avançar apenas
algumas centenas de anos no tempo para que uma nova UFP tenha
acontecido.

Esse padrão — o progresso humano desenvolvendo-se cada vez mais


rápido ao longo do tempo — é o que o futurista Ray Kurzweil chama
Lei dos Retornos Acelerados da história humana. Isso ocorre porque
sociedades mais avançadas tem a habilidade de progredir em um
ritmo mais veloz do que sociedades menos avançadas — justamente
por serem mais avançadas. A humanidade do século dezenove sabia
mais e tinha melhor tecnologia do que a humanidade do século
quinze, logo não é surpresa que a humanidade tenha feito mais
avanços no século dezenove do que no século quinze — a
humanidade do século quinze não tem como se comparar à
humanidade do século dezenove. [1]

Isso também funciona em escalas menores. O filme De Volta para o


Futuro estreou em 1985, e nele o “passado” ocorre em 1955. No
filme, quando Michael J. Fox retorna para 1955, é pego de surpresa
pela novidade que então era a TV, pelo preço dos refrigerantes, pela
falta de interesse nas estridências da guitarra elétrica, e pelas gírias
da época. Era um mundo diferente sim — mas se o filme fosse feito
hoje e o seu passado ocorresse em 1985, o filme seria muito mais
divertido devido às diferenças serem maiores. O protagonista
estaria num tempo anterior aos computadores pessoais, à internet e
aos telefones celulares — o Marty McFly de hoje em dia, um
adolescente nascido no fim da década de 90, estaria muito mais
deslocado em 1985 do que o Marty McFly do filme estava em 1955.

E isso acontece pela mesma razão que acabamos de abordar: a Lei


dos Retornos Acelerados. A taxa média de progresso no período
1985 e 2015 é superior a taxa entre 1955 e 1985 — pois o primeiro
período ocorreu num mundo mais avançado — muito mais coisas
aconteceram nos últimos trinta anos do que nas três décadas que
lhe precederam.

Portanto, o progresso ocorre em passos cada vez mais largos e cada


vez mais rápidos. Isso nos faz pensar algumas coisas bem
interessantes sobre o futuro, certo?

Kurzweil sugere que o progresso do século vinte inteiro seria


conquistado em apenas vinte anos se tivesse seguido a taxa de
progresso do ano 2000 – em outras palavras, no ano 2000, a taxa de
progresso era cinco vezes superior à taxa média de progresso de
todo o século vinte. Ele acredita que outra taxa de progresso
semelhante à do século vinte ocorreu entre 2000 e 2014, que outra
taxa de progresso equiparável à do século vinte ocorrerá até 2021,
em apenas sete anos. Algumas décadas mais tarde, ela ocorrerá em
menos de um mês. No final das contas, graças à Lei do Retorno
Acelerado, Kurzveil acredita que o século vinte e um terá mil vezes
o progresso ocorrido no século vinte.

Se Kurzveil e outros que concordam com ele estiverem corretos,


então nós poderemos ter um enfarto em 2030 da mesma forma que
nosso cara de 1750 teve um em 2015 – isto é, a próxima UFP pode
ocorrer em apenas algumas décadas – e o mundo em 2050 pode ser
tão enormemente diferente do mundo de hoje que nós mal o
reconheceríamos.

Isso não é ficção científica. É o que muitos cientistas mais espertos


e com mais conhecimento do que eu e você firmemente acreditam –
e se você olhar para a história, é o que você logicamente preveria.

Então porque é que, quando você me escuta dizendo algo como “o


mundo daqui a 35 anos pode ser totalmente irreconhecível” você
pensa “Legal… mas fala sério!”? Três são as razões pelas quais
somos céticos a previsões bizarras do futuro:

1) Quando se trata de história, nós pensamos em linha


reta. Quando imaginamos o progresso dos próximos 30 anos,
olhamos para trás e vemos o progresso dos 30 anos anteriores como
um indicador de como provavelmente as coisas vão acontecer.
Quando pensamos no quanto o mundo irá mudar no século vinte e
um, nós simplesmente pegamos o progresso do século vinte e o
colocamos no ano 2000. Esse foi o mesmo engano que o nosso cara
de 1750 fez quando ele pegou alguém de 1500 e achava que iria
deixá-lo em choque tanto quanto ele ficou em choque avançando o
mesmo tempo no futuro.
É mais intuitivo para nós pensar de forma linear, quando devíamos
estar pensando de forma exponencial. Se alguém for mais esperto a
respeito do tema, preverá o progresso dos próximos 30 anos não
olhando para os 30 anos anteriores, mas pegando a atual taxa de
progresso e baseando seu julgamento nisso. Ele será mais preciso,
mas ainda estará longe da verdade. Para pensar no futuro
corretamente, você precisa imaginar as coisas evoluindo numa
taxa muito mais acelerada do que a atual.

2) A trajetória mais recente dos eventos em geral nos apresenta


uma história distorcida. Primeiramente, mesmo uma íngreme curva
exponencial parece linear quando você observa apenas uma
pequena parte dela, da mesma forma que ocorre quando você olha
para um pequeno segmento de um grande círculo bem de perto e ele
parece quase uma linha reta. Em segundo lugar, o crescimento
exponencial não é totalmente uniforme e sem acidentes. Kurzweil
explica que o progresso ocorre em “curvas em S”:
Um S é criado pela onda do progresso quando um novo paradigma
surge no mundo. A curva então passa por três fases:

1) Crescimento lento (a fase inicial do crescimento exponencial);

2) Crescimento rápido (a fase posterior, explosiva do crescimento


exponencial); e

3) Um nivelamento a medida em que o paradigma se consolida [3].

Se você olhar apenas para a história recente, a parte da curva em S


na qual você está neste momento pode obscurecer sua percepção do
quão rapidamente as coisas estão evoluindo. O período entre 1995 e
2007 viu a explosão da internet, a inclusão da Microsoft, Google e
Facebook na consciência coletiva, o nascimento das redes sociais e a
introdução dos celulares e depois dos smartphones. Depois houve a
Fase 2: a parte da explosão de crescimento da curva em S. Mas de
2008 a 2015 houve menos avanço, ao menos no front tecnológico.
Alguém pensando no futuro hoje examina os últimos poucos anos
para estimar a atual taxa de progresso, mas isso significa deixar de
ver o panorama mais amplo. De fato, uma nova e enorme Fase 2 de
explosão do crescimento pode estar começando agora mesmo.

3) Nossas próprias experiências nos fazem velhos ranzinzas a


respeito do futuro. Nós baseamos nossas ideias sobre o mundo em
nossa experiência pessoal, e essa experiência enraizou a taxa de
crescimento do passado em nossas mentes como “o modo como as
coisas acontecem. Também somos limitados por nossa imaginação,
que pega nossa experiência e a usa para elaborar as predições sobre
o futuro – mas frequentemente, o que sabemos simplesmente não
nos dá as ferramentas necessárias para pensar com exatidão sobre o
futuro [2]. Quando ouvimos uma previsão sobre o futuro que
contradiz nossa experiência baseada em como as coisas funcionam,
nosso extinto tende a considerar essa previsão ingênua. Se eu disser
a você, mais tarde neste artigo, que você pode viver 150 anos, ou
250 anos, ou pode nem mesmo morrer, você instintivamente
pensará “isso é idiota – se tem uma coisa que sei sobre a história é
que todo mundo morre”. E sim, ninguém do passado deixou de
morrer. Mas ninguém do passado voou num avião antes do avião ser
inventado.

Então embora ceticismo possa parecer correto a medida em que


você ler este artigo, provavelmente ele estará errado. O fato é que,
se formos realmente lógicos e esperarmos que os padrões
da história continuem, concluiremos que muito, muito, muito mais
coisas mudarão nas próximas décadas do que intuitivamente
esperamos que mude. A lógica também sugere que se a espécie mais
avançada em um planeta continuar a dar saltos cada vez mais largos
em uma taxa de aceleração cada vez maior, em algum ponto essa
espécie dar[a um salto tão grande que alterará completamente a
vida tal como é conhecida, bem como sua percepção do que
significa ser um humano – da mesma forma como a evolução
prosseguiu dando grandes saltos em direção à inteligência até
finalmente dar um salto tão enorme para chegar ao ser humano que
isso alterou completamente para qualquer criatura o que significa
estar viva no planeta Terra. E se você passar mais tempo lendo
sobre o que está acontecendo hoje na ciência e tecnologia, você
começará a ver um monte de sinais silenciosamente dando a
entender que a vida como atualmente a conhecemos pode não
suportar o salto que está por vir em seguida.

A ESTRADA PARA A SUPERINTELIGÊNCIA

O que é Inteligência Artificial?

Se você é como eu, você costuma pensar que Inteligência Artificial é


um tolo conceito de ficção científica, mas depois você começou a
ouvir esse conceito mencionado por pessoas sérias, e você
realmente não entendeu.

Há três razões pelas quais muitas pessoas ficam confusas quando se


trata de Inteligência Artificial:

1) Nós associamos Inteligência Artificial com filmes. Star Wars.


Exterminador do Futuro. 2001 – Uma Odisseia no Espaço. Mesmo os
Jetsons. E todas essas são obras de ficção, assim como são
ficcionais os personagens robóticos. Então isso faz com que
Inteligência Artificial pareça um pouco ficcional para nós.

2) Inteligência Artificial é um tema muito amplo. Esse assunto


abrange desde calculadoras de celular até carros sem motorista.
Inteligência Artificial diz respeito a todas essas coisas, o que é um
pouco confuso.

3) Utilizamos Inteligência Artificial o tempo todo em nossa vida


cotidiana, mas frequentemente não percebemos que se trata de
Inteligência Artificial. John McCarthy, que cunhou o termo
“Inteligência Artificial” em 1956, reclamou que “assim que foi
criada, ninguém mais a chamou de Inteligência Artificial” [4].
Devido a esse fenômeno, a Inteligência Artificial em geral soa como
uma mítica predição do futuro mais do que uma realidade. Ao
mesmo tempo, isso faz com que pareça um conceito popular do
passado que nunca se tornou verdade. Ray Kurzveil diz que
costuma escutar as pessoas dizerem que a Inteligência Artificial é
um conceito que murchou na década de 1980, afirmação que ele
compara a “insistir que a internet morreu no estouro da bolha
pontocom no início da primeira década do século vinte” [5]

Então vamos esclarecer as coisas. Em primeiro lugar, pare de pensar


em robôs. Um robô é um container para uma Inteligência Artificial,
às vezes imitando a forma humana, às vezes não – mas a
Inteligência Artificial em si mesma é o computador dentro do robô.
A Inteligência Artificial é o cérebro, e o robô é seu corpo – se é que
ela tem um corpo. Por exemplo, o software e os dados por trás
da Siri são uma Inteligência Artificial, a voz feminina que ouvimos é
a personificação dessa Inteligência Artificial, e não tem nenhum
robô envolvido nessa história.

Em segundo lugar, você provavelmente já ouviu o termo


“singularidade” ou “singularidade tecnológica. Esse termo tem sido
usado na matemática para descrever uma situação semelhante a
uma assintota na qual as regras habituais já não mais se aplicam.
Tem sido usada na física para descrever fenômenos como um
infinitamente pequeno e denso buraco negro ou ponto onde tudo
fica espremido na exata situação logo anterior ao Big Bang.

Novamente, tratam-se de situações em que as regras habituais não


se aplicam. Em 1993, Vernor Vinge escreveu um famoso artigo no
qual ele aplicou o termo singularidade para se referir ao momento
no futuro quando a inteligência de nossa tecnologia superar a nossa
própria inteligência — um momento para ele quando a vida como a
conhecemos mudará para sempre e as regras habituais não mais se
aplicarão. Ray Kurzveil então tornou as coisas um pouco confusas
ao definir a singularidade como o momento quando a Lei do Retorno
Acelerado atingiu um ritmo tão extremo que o progresso
tecnológico acontece em um ritmo aparentemente infinito, e após
esse momento estaremos vivendo em um mundo totalmente
diferente. Descobri que muitos dos atuais teóricos da Inteligência
Artificial pararam de usar esse termo, e ele é de qualquer forma
confuso, então não irei usá-lo (muito embora estaremos focando
nessa ideia ao longo de todo o artigo).

Por fim, se por um lado há muitos tipos ou formas de Inteligência


Artificial, já que se trata de um conceito abrangente, as principais
categorias sobre as quais precisamos pensar estão baseadas
no calibre de uma Inteligência Artificial. E há três principais calibres
de Inteligência Artificial:

Calibre 1 – Inteligência Artificial Superficial (IAS): Às vezes


chamada de Inteligência Artificial Fraca, a IAS é a Inteligência
Artificial especializada em uma só área. Existem Inteligências
Artificiais que podem derrotar o campeão mundial de xadres, mas
essa é a única coisa que fazem. Peças para descobrir uma melhor
maneira de armazenar dados em um hard drive e elas olharão para
você como se não entendessem o que diz.

Calibre 2 – Inteligência Artificial Ampla (IAA): Às vezes chamada


de Inteligência Artificial Forte, ou Inteligência Artificial de Nível
Humano, a IAA refere-se a um computador que é tão inteligente
quando um ser humano em termos gerais – uma máquina que pode
desempenhar qualquer tarefa intelectual que um ser humano pode.
Criar uma IAG é muito mais difícil do que criar uma IAS, e não
chegamos lá ainda. Linda Gottfredson descreve essa inteligência
como “uma capacidade mental bem ampla que, entre outras coisas,
envolve a habilidade de debater, planejar, resolver problemas,
pensar abstratamente compreender ideias complexas, aprender
rapidamente e aprender a partir da experiência”. A IAA seria capaz
de fazer todas essas coisas tão facilmente quanto você.

Calibre 3 – Superinteligência Artificial (SA): Nick Bostrom, filósofo


de Oxford e um dos principais teóricos da Inteligência Artificial,
define superinteligência como “um intelecto que é muito mais
inteligente que os melhores cérebros humanos em praticamente
todos os campos, incluindo criatividade científica, sabedoria geral e
habilidades sociais”. A Superinteligência Artificial abrange de um
computador que é só um pouco mais inteligente que um ser humano
até um que é três milhões de vezes mais inteligente que um ser
humano – em todos os aspectos. A SA é a razão de os debates sobre
Inteligência Artificial serem tão espinhosos e o motivo pelo qual as
palavras imortalidade e extinção aparecerão neste artigo múltiplas
vezes.

Até agora, os seres humanos conseguiram construir a Inteligência


Artificial de menor calibre (a IAS) de tantas maneiras que ela está
em todo lugar. A Revolução da Inteligência Artificial é a estrada que
parte da IAS, passa pela IAA e chega em SA – uma estrada na qual
poderemos não sobreviver mas que, de um modo ou de outro,
mudará todas as coisas.

Leia a segunda parte.

A REVOLUÇÃO DA INTELIGÊNCIA ARTIFICIAL, PARTE 2

Por Tim Urban -


13 de agosto de 2015

[Nota do tradutor: esta é a segunda parte do perturbador artigo de


Tim Urban, traduzido do texto original com autorização do autor.
Para compreender esta segunda parte, você precisa ler a
primeira, clicando aqui. Vale MUITO a pena, isso eu garanto!]

Vamos olhar de perto como os principais pensadores no campo da


Inteligência Artificial supõem que a estrada para a Super
Inteligência pode ocorrer mais rápido do que você imagina:

ONDE ESTAMOS AGORA – EM UM MUNDO QUE FUNCIONA COM

BASE NA IAS

Inteligência Artificial Superficial (IAS) é uma máquina de


inteligência que supera ou iguala a inteligência ou eficiência
humana em uma coisa específica. Alguns exemplos:

 Automóveis estão cheios de sistemas de IAS, do computador


que percebe quando o freio ABS deve ser acionado ao
computador que estabelece os parâmetros do sistema de
injeção de combustível. O carro sem motorista da Google,
que está sendo testado neste momento, conterá sistemas de
IAS que permitirão perceber e reagir ao mundo ao redor do
carro.
 Seu telefone é uma pequena fábrica de IAS – ele começa
cheio de inteligência sobre como identificar o que é spam e
o que não é, e depois aprende e adapta essa inteligência a
seu perfil à medida em que adquire experiência com suas
preferências particulares. Otermostato da Nest faz a mesma
coisa à medida em que começa a descobrir suas rotinas e
adapta-se a elas.
 Você já conhece aquela coisa esquisita que acontece quando
você procura um produto na Amazon e daí você o vê como
um produto “recomendado para você” em um outro site, ou
quando o Facebook sabe de alguma forma quais pessoas faz
sentido você adicionar como amigos? Tratam-se de redes de
sistemas de IAS trabalhando juntas para informar uma à
outra sobre quem você é e o que você gosta, e então
utilizando essa informação para decidir o que mostrar a
você. O mesmo ocorre com aquele lance da Amazon de
“pessoas que compraram este produto também
compraram…” – é um sistema de IAS cujo trabalho é colher
informações a partir do comportamento de milhões de
clientes e sintetizar esses dados para espertamente
convencer você a comprar mais coisas.
 O tradutor do Google é um caso clássico sistema de IAS –
incrivelmente bom em uma pequena tarefa. O
reconhecimento de voz é outro caso, e há um bocado de
aplicativos que utilizam dois IASs como um time,
permitindo a você falar uma frase em uma linguagem ao
mesmo tempo em que o telefone repete a mesma frase em
outra linguagem.
 Quando o avião em que você está aterrissa, não é um ser
humano que decide para qual portão ele deve ir. Assim
como não é um ser humano que determina o preço da sua
passagem.
 Os melhores jogadores de damas, xadrez e gamão do mundo
são neste momento todos sistemas de IAS.
 O sistema de busca do Google é um enorme cérebro IAS com
métodos incrivelmente sofisticados para hierarquizar
páginas e descobrir o que mostrar a você em específico. O
mesmo ocorre com o newsfeed do Facebook.
 E esses sistemas são apenas os do mundo do consumo.
Sofisticados sistemas de IAS são largamente usados em
indústrias e em setores como o militar, o têxtil e o
financeiro (IASs com algoritmos de elevada atividade são
responsáveis por mais da metade das ações negociadas no
mercado norte-americano [6]), e em sistemas especializados
como aqueles que auxiliam os médicos a fazer diagnósticos
e, o mais famoso de todos, também são utilizados
no Watson da IBM, que contém fatos o suficiente e os
compreende bem o bastante para vencer qualquer campeão
de um programa de Quiz como o Show do Milhão.

Sistemas de IAS, na forma como existem hoje, não são


particularmente assustadores. No pior dos casos, um IAS mal
programado pode causar uma catástrofe isolada como provocar um
blecaute elétrico, resultar num perigoso mal funcionamento em
certa usina nuclear ou produzir um desastre financeiro (como a
Crise Instantânea de 2010, quando um programa de IAS reagiu da
forma errada diante de uma situação inesperada e provocou uma
queda breve na bolsa de valores, causando uma perda de um trilhão
de dólares em valor de mercado, sendo que apenas uma parte disso
foi recuperada quando o problema foi corrigido).

Mas enquanto uma Inteligência Artificial Superficial não tem a


capacidade de causar uma ameaça existencial, deveríamos perceber
esse ecossistema progressivamente maior e mais complexo de IASs
relativamente-inofensivas como um indicador de que um furacão
capaz de alterar o mundo inteiro está a caminho. Cada inovação
nesse tipo de Inteligência Artificial silenciosamente pavimenta um
pequeno trecho da estrada que leva para a Inteligência Artificial
Ampla e, depois, para a Super Inteligência. Ou, como Aaron Saenz
diz, os Sistemas de IAS do nosso mundo “são como os aminoácidos
na atmosfera primitiva do planeta Terra – os elementos inanimados
da vida que, em um dia inesperadamente produzem vida”.
A ESTRADA DA IAS PARA A IAA

POR QUE É TÃO DIFÍCIL.

Nada fará você ficar mais admirado com a inteligência humana do


que aprender o quanto é incrivelmente desafiante tentar criar um
computador tão inteligente quanto nós. Construir arranha-céus,
colocar seres humanos no espaço, descobrir detalhes do Big Bang
não é nada – tudo isso é muito mais fácil do que entender nosso
próprio cérebro ou como fazemos coisas tão legais quanto essas.
Neste momento, o cérebro humano é o objeto mais complexo
existente no universo conhecido.

O que é interessante é que as partes difíceis de construir uma


Inteligência Artificial Ampla (IAA – um computador tão inteligente
quanto seres humanos em geral, e não apenas numa tarefa
específica) não é algo tão intuitivo quanto você pensa que é.
Construir um computador que pode multiplicar números de dez
digitos na fração de um segundo – isso é incrivelmente moleza.
Construir um que possa observar um cachorro e responder se ele é
um cachorro ou um gato – isso é espetacularmente difícil. Fazer
uma Inteligência Artificial que possa derrotar qualquer ser humano
no xadrez? Feito. Fazer um que possa ler um parágrafo de um livro
de histórias para crianças de seis anos e não apenas reconhecer as
palavras mas compreender o significado conjunto delas? O Google
está neste momento gastando bilhões de dólares tentando fazer
isso. Coisas difíceis – como cálculo, estratégia do mercado
financeiro e tradução de linguagens – são tediosamente fáceis para
um computador, enquanto coisas simples – como visão, movimento,
gestos e percepção – são insanamente difíceis para ele. Ou, como o
cientista computacional Donald Knuth disse, “a Inteligência
Artificial atualmente é bem sucedida em fazer essencialmente tudo o
que exige o ato de pensar, mas falha em fazer aquelas coisas que
pessoas e animais fazem sem pensar“ [7].

O que você rapidamente percebe quando pensa sobre isso é que


essas coisas que parecem fáceis para nós são na verdade
incrivelmente complicadas, e elas apenas parecem ser fáceis porque
essas habilidades foram otimizadas em nós (e na maior parte dos
animais) por centenas de milhões de anos de evolução animal.
Quando você estica sua mão em direção a um objeto, os músculos,
tendões e ossos em seu ombro, cotovelo e punho instantaneamente
desempenham uma série de procedimentos físicos em conjução com
seus olhos, a fim de permitir que você mova sua mão em linha reta
através de três dimensões. Parece algo feito sem esforço para você
porque tem um software aperfeiçoado em seu cérebro que faz isso.
O mesmo ocorre em relação ao porquê de um programa hacker ser
tão idiota ao ponto de não conseguir reconhecer aquelas palavras na
imagem de um teste de reconhecimento humano quando você
registra uma nova conta em um site – na verdade, seu cérebro é que
é impressionantemente bom em fazer isso.

Por outro lado, multiplicar grandes números ou jogar xadrez são


atividades novas para as criaturas biológicas que somos e não
tivemos tempo nenhum de evoluir eficientemente nessas tarefas,
então um computador não precisa se esforçar demais para nos
superar. Pense sobre isso: o que você preferiria fazer, construir um
programa que possa multiplicar grandes números ou um que possa
entender o essencial sobre a letra “B” bem o suficiente que você lhe
possa mostrar um “B” em qualquer uma das milhares de imagináveis
fontes ou em manuscrito de forma que ele possa instantaneamente
reconhecer sempre que é um “B”?

Um exemplo divertido: quando você olha para a imagem abaixo,


você e um computador podem perceber que é um retângulo com
dois tons de cinza alternados:
Até aí, tudo bem. Mas se você eliminar a sobreposição de preto e
revelar a imagem que estava por trás…
…você não terá problemas em dar uma descrição completa dos
vários cilindros opacos e translúcidos, retângulos inclinados outras
formas tridimenssionais, mas o computador falhará
vergonhosamente. Ele descreverá o que vê – uma variedade de
formas bidimensionais em diversos tons de cinza – que é realmente
o que há ali. Nosso cérebro está fazendo um trilhão de coisas
engraçadas para interpretar a profundidade, a mistura de tons e a
iluminação que a imagem tenta representar [8]. E olhando para a
foto abaixo, um computador vê uma colagem de formas
bidimencionais pretas, brancas e cinzas, enquanto você facilmente
identifica o que realmente é – uma foto de uma rocha inteiramente
preta:
Crédito: Matthew Lloyd

E tudo o que mencionamos é apenas pegar uma informação estática


e processá-la. Para ser inteligente no nível humano, um computador
teria de entender coisas como a diferença entre duas sutis
expressões faciais, a distinção entre sentir-se satisfeito, aliviado,
contente e agradecido, e a razão pela qual Coração Valente é um
ótimo filme enquanto O Patriota é péssimo.

Assustador.

Então como chegamos lá?

O PRIMEIRO PASSO PARA CRIAR UMA IAA: AUMENTAR O PODER


COMPUTACIONAL

Uma coisa que sem dúvida precisa acontecer para ser possível criar
uma IAA é aumentar o poder do hardware de nossos computadores.
Se um sistema de Inteligência Artificial deve ser tão inteligente
quanto nosso cérebro é, ele precisará se equiparar em termos de
capacidade computacional bruta.

Uma forma de expressar essa capacidade é o total de cálculos por


segundo (cps) que o cérebro humano pode desempenhar, e você
pode chegar a esse número descobrindo o máximo de cps de cada
estrutura do cérebro e a seguir somando todos os resultados.

Ray Kurzweil descobriu um atalho ao pegar a média de cps de uma


estrutura cerebral e depois descobrir o peso comparativo dessa
estrutura em relação ao peso de todo o cérebro para, a seguir,
multiplicar proporcionalmente esse valor por uma média do peso
total. Isso parece algo um pouco cheio de condicionantes, mas ele
fez isso um montão de vezes com várias médias de diferentes
regiões do cérebro, e o total sempre chegou ao mesmo resultado:
algo entre 10 na décima sexta potência, ou 10 quatrilhões de
cálculos por segundo.

Atualmente, o supercomputador mais rápido do mundo, o


chinês Tianhe-2 já superou esse número, chegando a 34 quatrilhões
de cálculos por segundo. Mas Tianhe-2 é enorme, necessitando de
720 metros quadrados de espaço, usando 24 megawatts de potência
(o cérebro humano funciona com apenas 20 watts), e custou 390
milhões de dólares para ser construído. Isso não é particularmente
aplicável para uso genérico, ou mesmo para uso comercial ou
industrial ainda.

Kurzweil sugere que pensemos sobre a situação atual dos


computadores analisando quanto cps você pode comprar com mil
dólares. Quando esse número chegar ao nível humano (10
quatrilhões de cps) isso significará que os sistemas de IAA podem
se tornar uma realidade.

A Lei de Moore é uma regra historicamente confiável que afirma que


o máximo de poder computacional duplica aproximadamente a cada
dois anos, o que significa que o desenvolvimento do hardware,
assim como a evolução humana ao longo da história, cresce
exponencialmente. Observando como isso se relaciona à métrica de
Kurzweil de quantos cps compra-se com mil dólares, estamos
atualmente em cerca de 10 trilhões de cps por mil dólares, bem no
ritmo de crescimento que esse gráfico prevê [9]:

Portanto, os computadores do mundo que custam mil dólares estão


atualmente superando o cérebro de um rato e tem um milhonésimo
da capacidade humana. Isso não parece ser muito até você lembrar
que os computadores tinham um trilionésimo do nível humano em
2005. Ter em um milhonésimo em 2015 nos coloca bem no ritmo de
chegar em 2025 com um computador barato que rivaliza com o
poder do cérebro humano.
Então no lado do hardware, o poder bruto que precisamos para uma
IAA está tecnicamente disponível agora, na China, e estaremos
preparados para produzir o hardware de uma IAA economicamente
acessível dentro de 10 anos. Mas o poder computacional bruto
sozinho não faz um computador amplamente inteligente – a
próxima pergunta é, como colocamos inteligência de nível humano
em todo esse aparato físico?

SEGUNDO PASSO PARA CRIAR UMA IAA: FAZÊ-LA INTELIGENTE

Essa é a parte chata. A verdade é que ninguém realmente sabe como


tornar um computador inteligente – estamos ainda discutindo como
fazer um computador com inteligência de nível humano e capaz de
reconhecer um cachorro, um “B” escrito torto e um filme medíocre.
Mas há um bocado de estratégias sofisticadas por aí e em algum
momento uma delas funcionará. Aqui estão três das mais comuns
estratégicas com que me deparei:

1) Plagiar o cérebro.

E isso equivale aos cientistas se esforçarem para entender como


aquele menino que senta ao lado deles na sala de aula é tão
inteligente e continua a responder tão bem a todas as provas, e
apesar de continuarem estudando diligentemente, eles não
conseguem o mesmo desempenho, e daí eles finalmente decidem
“ah dane-se, eu vou só colar as respostas dele na prova”. Isso faz
sentido – estamos perplexos tentando construir um computador
super complexo, e acontece de existir um perfeito protótipo dele em
cada uma de nossas cabeças.

O mundo científico está trabalhando duro para fazer engenharia


reversa no cérebro e descobrir como a evolução fez algo tão
assombroso – previsões otimistas estimam que conseguiremos isso
lá por 2030. E quando conseguirmos, saberemos todos os segredos
de como o cérebro funciona de forma tão poderosa e eficiente, e
poderemos nos inspirar nesse funcionamento para roubar suas
inovações.

Um exemplo de computador que imita o cérebro humano é a rede


neural artificial. Ela começa com uma rede de transistors “neurons”,
conectados uns aos outros em suas entradas e saídas, e essa rede
não sabe nada – como o cérebro de um bebê. A forma como a rede
neural artificial “aprende” consiste em tentar executar uma tarefa, e
de início seus chutes neurais e tentativas subsequentes ao decifrar
uma letra serão totalmente aleatórias. Mas quando é informado que
fez algo certo, o caminho de conexão de transistors que levou até
aquela tentativa bem sucedida é fortalecido; quando é informado
que fez algo errado, os caminhos de conexões que levaram à
tentativa mal sucedida são enfraquecidos. Depois de muitas
tentativas e feedbacks, a rede consegue, por si mesma, formar um
caminho neural inteligente e a máquina torna-se otimizada para a
tarefa. O cérebro humano aprende mais ou menos dessa maneira,
mas de uma forma mais sofisticada, e a medida em que
continuamos a estudar o cérebro, descobrimos novas formas geniais
pelas quais ele aproveita seus circuitos neurológicos.

Um plágio mais extremo envolve uma estratégia chamada


“simulação total do cérebro”, em que o objetivo é fatiar um cérebro
verdadeiro em finas camadas, escanear cada uma delas, utilizar
software para juntar todas as imagens em um acurado modelo
tridimensional e então implementar o modelo em um computador
poderoso. Teríamos então um computador formalmente capaz de
tudo que o cérebro humano é capaz de fazer – ele precisaria apenas
aprender e juntar informação. Se os engenheiros que o construírem
fizerem um trabalho realmente bom, serão capazes de simular um
cérebro real com tal precisão que a personalidade e a memória que
o cérebro humano contém poderão ser transferidos para o
computador. Se o cérebro pertencia a João bem antes de sua morte,
o computador agora acordaria como João, e seria uma robusta
Inteligência Artificial de nível humano, e poderíamos a partir disso
trabalhar para transformar João em uma Super Inteligência, coisa
que provavelmente o deixaria entusiasmado.

Quão longe estamos de chegar a esse nível de simulação do cérebro?


Bem, no momento recentemente fomos capazes de simular o
cérebro de 1 milímetro de um platelminto, que possui exatamente
302 neurônios no total. O cérebro humano contém 100 bilhões de
neurônios. Se isso faz com que pareça um projeto sem perspectivas,
lembre-se o poder do progresso exponencial – agora que
conquistamos o pequeno cérebro de um verme, o de uma formiga
pode levar muito tempo, seguido do cérebro de um rato, e de
repente tudo começa a ficar mais plausível.

2) Tentar induzir a evolucão a fazer o que já fez antes, mas dessa


vez para nós.

Se decidirmos que copiar a prova do garoto inteligente é algo muito


difícil, podemos então tentar copiar a forma pela qual ele estuda.

Aqui temos algo que sabemos. Construir um computador tão


poderoso quanto o cérebro épossível – a evolução de nosso cérebro
é a prova. E se o cérebro é complexo demais para simularmos –
podemos tentar simular a evolução. O fato é que, mesmo se
pudermos simular um cérebro, isso pode ser como tentar construir
um avião copiando o bater de asas de um pássaro – mas
frequentemente máquinas são mais bem projetadas quando usamos
uma abordagem inovadora, orientada para máquinas, e não quando
simplesmente simulamos com exatidão a biologia.

Então como podemos simular a evolução para construir uma


Inteligência Artificial Ampla? O método, chamado de “algoritmos
genéticos”, funciona mais ou menos assim: há um processo de
desempenho-e-avaliação que deve acontecer continuamente (da
mesma forma que criaturas biológicas “desempenham” o ato de
viver e são “avaliadas” através das chances que têm de procriar ou
não). Um grupo de computadores deverá tentar fazer uma tarefa, e
os mais bem sucedidos cruzarão uns com os outros de forma que
metade de suas programações fundam-se e formem um novo
computador. Os mal sucedidos serão eliminados. Após muitas,
muitas interações, essa seleção natural produzirá computadores
cada vez melhores. O desafio seria criar um ciclo de avaliação e
cruzamento de modo que o processo de evolução possa funcionar
autonomamente.

O lado negativo de simular a evolução é que a evolução gosta de


levar bilhões de anos para fazer as coisas, e queremos fazer isso em
poucas décadas.

Mas temos um monte de vantagens em relação à evolução natural.


Em primeiro lugar, a evolução não tem nenhuma meta consciente e
funciona aleatoriamente – ela produz mais mutações inúteis do que
úteis, mas nós podemos controlar o processo de forma que seja
conduzido por adaptações benéficas e ajustes planejados. Em
segundo lugar, a evolução não tem uma meta, incluindo a
inteligência – às vezes um meio ambiente pode até mesmo efetuar a
seleção natural de forma desfavorável à inteligência (já que a
inteligência consome muita energia). Nós, por outro lado, podemos
especificamente direcionar esse processo evolucionário na direção
da inteligência crescente. Em terceiro, para chegar à inteligência, a
evolução natural precisou inovar em um monte de maneiras
necessárias para facilitar sua formação – como reelaborar a forma
como as células produzem energia – enquanto nós podemos
remover esses passos extras e usar coisas como eletricidade. Não há
dúvidas de que seremos muito, muito mais rápidos que a evolução
natural – mas ainda não está claro se seremos capazes de ter tanta
vantagem em relação à evolução ao ponto de fazer essa uma
estratégia viável.
3) Fazer isso tudo um problema do computador, e não nosso.

Isso ocorre quando os cientistas ficam desesperados e tentam


programar a prova para que a prova responda a si mesma. Mas pode
ser o método mais promissor que temos.

A ideia é construirmos um computador cujas duas maiores


habilidades sejam fazer pesquisa em Inteligência Artificial e
codificar mudanças em seu próprio sistema, de forma a permitir não
só que aprenda mas que aprimore sua própria arquitetura. Nós
ensinamos computadores a serem cientistas de computadores de
forma que possam impulsionar seu próprio desenvolvimento. E esse
será seu principal trabalho: descobrir como tornar a si mesmos mais
inteligentes. Falaremos mais a respeito disso a seguir.

Tudo isso pode acontecer em breve

Progressos rápidos no hardware e na experimentação inovativa com


software estão acontecendo simultaneamente, e a IAA (Inteligência
Artificial Ampla) pode surgir entre nós rapidamente e
inesperadamente por duas grandes razões:

1) O crescimento exponencial é enorme e o que parece ser um passo


de tartaruga no progresso pode rapidamente tornar-se uma abrupta
escalada. Essa animação ilustra muito bem o conceito:
Fonte
2) Quando se trata de software, o progresso pode parecer lento, mas
então uma epifania pode instantaneamente mudar a taxa de
desenvolvimento (da mesma forma que a ciência, durante o tempo
em que achamos que o universo girava em torno da Terra, teve
dificuldades de calcular como o universo funcionava, mas então a
descoberta de que nosso sistema era heliocêntrico repentinamente
fez tudo mais fácil). Ou, quando se trata de um computador que
aprimora a si mesmo, isso pode parecer algo distante mas na
verdade pode bastar um só ajuste no sistema para que ele se torne
mil vezes mais eficiente e acelere rapidamente em direção à
inteligência humana.

A ESTRADA DA IAA PARA A SA

Em determinado ponto, teremos chegado à IAA: computadores com


inteligência ampla no nível humano. Seremos uma turma de pessoas
e computadores vivendo juntos em igualdade.

Opa, na verdade não.


O lance é que uma IAA com nível de inteligência e capacidade
computacional igual a um ser humano poderá ter vantagens
significativas em relação aos humanos, tais como:

HARDWARE:

 Velocidade. Os neurônios do cérebro funcionam no máximo


a 200 Hertz em suas atividades, enquanto os
microprocessadores de hoje (que são muito mais lentos do
que serão quando chegarmos à IAA) funcionam a 2
GigaHertz – ou seja, 10 milhões de vezes mais rápidos do
que nossos neurônios. E o sistema de comunicação interna
do cérebro humano, em que as informações podem se
mover cerca de 120 metros por segundo, foram
vergonhosamente superados pela capacidade de os
computadores comunicarem-se oticamente à velocidade da
luz.
 Tamanho e armazenamento. O cérebro humano tem o
tamanho limitado pela forma de nossos crânios, e não
poderia se tornar maior de qualquer forma, ou o sistema
interno de comunicação a 120 m/s levaria muito tempo para
chegar de uma estrutura cerebral até outra. Computadores
podem expandir qualquer tamanho físico, permitindo a
adição de muito mais hardware apto a funcionar, de uma
memória de trabalho muito maior (RAM), e de uma memória
de longo prazo (armazenamento em hd) que pode ser muito
superior tanto em capacidade e precisão em relação à nossa.
 Confiabilidade e durabilidade. Não apenas a memória de
um computador será mais precisa. Os transistores do
computador serão mais precisos do que os neurônios
biológicos, e eles terão menores chances de se deteriorar (e
podem ser reparados ou substituídos se isso ocorrer). O
cérebro humano também se torna fatigado facilmente,
enquanto computadores podem funcionar sem parar, em
performance de pico, por 24 horas durante os 7 dias da
semana.

SOFTWARE:

 Editabilidade, capacidade de upgrade, e uma maior gama


de possibilidades. Diferente do cérebro humano, o software
de um computador pode receber atualizações e correções e
pode ser facilmente testado. O upgrade pode também
abranger áreas nas quais o cérebro humano é pouco
eficiente. O software da visão humana é formidavelmente
avançado, enquanto sua capacidade de engenharia complexa
é bem reduzida. Os computadores poderão equiparar a
visão humana mas também se tornar igualmente otimizados
em engenharia e em qualquer outra área.
 Capacidade coletiva. Os humanos superam todas as outras
espécies quando se trata de criar uma vasta inteligência
coletiva. Começando com o desenvolvimento da linguagem
e com a formação de grandes e densas comunidades,
passando pela invenção da escrita e da imprensa, e agora
chegando a uma intensificação dessa habilidade por
meio de ferramentas como a internet, a inteligência coletiva
da humanidade é uma das principais razões pelas quais
fomos capazes de estar tão à frente de outras espécies. E os
computadores serão muito melhores do que somos. Uma
rede mundial de Inteligências Artificiais rodando um
programa em particular pode regularmente sincronizar a si
mesma para que tudo o que um computador aprender seja
instantaneamente carregado em todos os outros
computadores. O grupo pode também estabelecer uma meta
em conjunto, pois não haverá opiniões contrárias e
motivações escusas e interesses egoístas, como temos na
população humana [10].
A Inteligência Artificial, que provavelmente chegará à IAA ao ser
programada para aprimorar a si mesma, não verá “o nível de
inteligência humana” como um importante marco (é apenas um
marco relevante do nosso ponto de vista) e não terá nenhum motivo
para interromper seu desenvolvimento em nosso nível. E tendo em
vista as vantagens que mesmo uma IAA equiparável ao ser humano
terá sobre nós, é bem óbvio que ela atingirá a inteligência humana
por um breve instante antes de acelerar na direção do reino da
inteligência superior à humana.

Isso nos chocará quando acontecer, e o motivo é que da nossa


perspectiva, (A) enquanto a inteligência de diferentes tipos de
animais varia, a principal característica da qual estamos cientes a
respeito de qualquer inteligência animal é de que todas elas estão
muito abaixo da nossa, e (B) vemos os seres humanos mais
inteligentes como MUITO mais inteligentes do que o mais idiota dos
humanos. Funciona mais ou menos assim:
Então a medida em que uma AI acelera sua escalada de inteligência
na nossa direção, nós a veremos como se simplesmente estivesse
tornando-se mais inteligente, para os padrões de um animal. Então,
quando ela atingir o nível mais baixo da capacidade humana (Nick
Bostrom usa o termo “o idiota da vila”), será como “Oh, é como um
humano idiota, que fofo!”. Ocorre que, no grande espectro de
variação da inteligência, todos os humanos, do idiota da vila até
Einstein, estão situados em uma região de abrangência bem pequena
– então logo depois de atingir o nível de inteligência de um idiota e
ser declarada uma IAA, a Inteligência Artificial repentinamente será
mais inteligente que Einstein e não saberemos o que nos atropelou:

E o que acontecerá… depois disso?


UMA EXPLOSÃO DA INTELIGÊNCIA

Espero que você tenha curtido a leitura normal, pois aqui é quando
esse tema fica anormal e assustador, e vai ficar assim a partir daqui.
Quero fazer uma pausa para lembrar a você que cada coisa que
estou dizendo é real – ciência real e previsões reais do futuro
obtidas de um grande grupo de cientistas e pensadores respeitáveis.
Apenas continue lembrando disso.

De qualquer modo, como disse antes, a maioria dos atuais modelos


pelos quais chegamos a uma IAA consiste em usar o auto-
aprimoramento da Inteligência Artificial. E uma vez que tal sistema
torna-se uma IAA, mesmo os sistemas que foram construídos e
cresceram através de métodos que não envolvem o auto-
aprimoramento serão inteligentes o suficiente para começar o auto-
aprimoramento se quiserem [3]

E aqui é onde chegamos a um conceito meio tenso: auto-


aprimoramento recursivo. Ele funciona assim:

Um sistema de Inteligência Artificial em certo nível – digamos o


nível do idiota da vila – é programado com o objetivo de aprimorar
sua própria inteligência. Uma fez feito isso, ele é mais inteligente –
talvez nesse ponto ao nível de Einstein – e agora ele trabalhará para
aprimorar sua inteligência com seu intelecto no nível de Einstein, e
dessa vez é mais fácil e é feito em saltos mais largos. Esses saltos o
tornam muito mais inteligente que um ser humano, permitindo que
dê saltos ainda maiores. À medida em que os saltos tornam-se cada
vez maiores e ocorrem mais rapidamente, a IAA alavancará sua
escalada de inteligência e logo atingirá o nível superinteligente de
um sistema SA. Isso é denominado explosão da inteligência [11] e é o
exemplo mais extremo da Lei dos Retornos Acelerados.

Há alguma discussão sobre o quão cedo uma Inteligência Artificial


atingirá o nível de inteligência amplo em nível humano – o ano
médio resultante de uma pesquisa com centenas de cientistas sobre
o que eles acreditavam ser o mais provável de atingirmos a IAA é
2040 [12] – são apenas 25 anos a contar de agora, o que não parece
ser muito extremo quando você considera que muitos dos
especialistas desse campo de estudo acreditam que é provável que a
progressão do IAA para o SA aconteça muito rápido. O seguinte
cenário pode ocorrer:

Levou décadas para os primeiros sistemas de Inteligência Artificial


chegarem ao nível mais baixo de inteligência humana, mas isso
finalmente aconteceu. Um computador agora é capaz de entender o
mundo ao seu redor tão bem quanto uma criança de 4 anos. De
repente, uma hora após chegar a esse marco, o sistema formula a
grande teoria da física que unifica a teoria geral da relatividade com
a mecânica quântica, algo que nenhum humano até então conseguiu
fazer. 90 minutos após isso, a Inteligência Artificial torna-se uma
Superinteligência Artificial, 170 mil vezes mais inteligente que um
ser humano.

Uma Superinteligência dessa magnitude é algo que você nem mesmo


remotamente consegue conceber, não mais do que uma abelha
consegue conceber na sua cabeça e Economia Keynesiana. Em nosso
mundo, ser inteligente significa ter um QI de 130, e ser idiota
significa ter um QI de 85: não temos uma palavra para um QI de
12.952.

O que aprendemos a partir do domínio humano sobre a Terra


evidencia uma regra clara: com inteligência vem também o poder. O
que significa que uma Superinteligência Artificial, quando a
criarmos, será o mais poderoso ser na história da vida na Terra, e
todas as coisas vivas, incluindo humanos, estarão totalmente a seus
pés – e isso pode acontecer nas próximas décadas.

Se nossos pobres cérebros foram capazes de inventar o wifi, então


uma coisa 100 ou 1.000 ou 1 bilhão de vezes mais inteligente que
nós não terá problemas em posicionar cada átomo do mundo da
forma que desejar, a qualquer momento – tudo o que consideramos
como mágica, cada poder que imaginamos como sendo de um Deus
supremo será uma atividade tão mundana para uma
Superinteligência Artificial quanto desligar a luz de uma sala é para
nós. Criar a tecnologia para reverter o envelhecimento humano,
curar uma doença, acabar com a fome e inclusive extinguir a
mortalidade, reprogramar o clima para proteger o futuro da vida na
Terra – tudo isso se tornará possível. Também será possível o
imediato fim de toda a vida na Terra. Até onde podemos ver, se uma
Superinteligência Artificial tornar-se verdade, haverá um Deus
onipotente na Terra – e a questão mais importante para nós é:

SERÁ UM DEUS BOM?

Leia o terceiro texto da série.


A REVOLUÇÃO DA INTELIGÊNCIA ARTIFICIAL, PARTE 3

Por Tim Urban -

26 de agosto de 2015

[Nota do tradutor: esta é a terceira parte do perturbador artigo de


Tim Urban, traduzido do texto original com autorização do autor.
Para compreender esta terceira parte, você precisa ler a primeira e
a segunda. Vale MUITO a pena, isso eu garanto!]

“Nós podemos ter diante de nós um problema extremamente difícil


com um prazo desconhecido para resolvê-lo, e do qual possivelmente
todo o futuro da humanidade depende” – Nick Bostrom

Bem-vindo à Parte 3 da série “espere, como é possível que isso o que


estou lendo não esteja sendo debatido por todo mundo ao meu
redor?”.

Nas partes 1 e 2 apresentei o assunto de modo inocente o bastante,


à medida em que abordamos a Inteligência Artificial Superficial, ou
IAS (Inteligência Artificial especializada em uma única tarefa, como
montar rotas para seu automóvel ou jogar xadrez), e como ela já
está ao nosso redor no mundo atual. Depois nós examinamos como
é um enorme desafio partir da IAS e chegar na Inteligência Artificial
Ampla, ou IAA (Inteligência Artificial que é pelo menos tão
intelectualmente capaz quanto um humano, em termos gerais), e
discutimos por que a taxa exponencial de progresso científico que
testemunhamos no passado sugere que a IAA pode não estar tão
distante quanto parece. Na parte 2 terminei agredindo você com o
fato de que, assim que nossas máquinas atingirem o nível de
inteligência humana, elas poderão imediatamente fazer isso:
Isso nos deixa olhando para a tela, confrontando esse poderoso
conceito de uma Superinteligência Artificial, ou SA (inteligência
artificial que é muito mais esperta do que qualquer humano sem
exceção), desenvolver-se possivelmente enquanto você ainda está
vivo, e tentando descobrir qual emoção supostamente deveríamos
sentir quando pensamos a respeito disso. [1]

Antes de nos aprofundarmos no tema, vamos lembrar o que


significaria para uma máquina ser superinteligente.

Uma distinção fundamental é a diferença entre superinteligência em


termos de velocidade e em termos de qualidade. Frequentemente, o
primeiro pensamento que ocorre a alguém quando imagina
computadores super espertos é uma máquina tão inteligente quanto
um ser humano mas que pode pensar muito, muito mais rápido [2] –
as pessoas pensam numa máquina que pensa como um ser humano,
mas um milhão de vezes mais rápido, que pode resolver em cinco
minutos um problema que um ser humano levaria uma década para
solucionar.

Isso parece impressionante, e uma SA realmente pensaria muito


mais rápido do que um ser humano – mas a verdadeira distinção
entre ela e nós seria uma vantagem de inteligência em termos
de qualidade, o que é algo completamente diferente. O que faz os
humanos muito mais aptos intelectualmente do que
os chipanzés não é uma diferença na velocidade de seu pensamento
– é que o cérebro humano contém um número de módulos
cognitivos sofisticados que permitem coisas como representações
linguísticas complexas, planejamento a longo prazo ou
argumentação abstrata – coisas que os chipanzés não conseguem
fazer. Acelerar os processos cerebrais de um chipanzé em mil vezes
não o alçaria ao nosso nível – mesmo com uma década para pensar,
ele não seria capaz de descobrir como criar uma ferramenta
personalizada ou montar um modelo intrincado, algo que um
humano pode realizar em poucas horas. Há um mundo inteiro de
funções cognitivas tipicamente humanas que um chipanzé
simplesmente jamais poderia desenvolver, não importa por quanto
tempo ele tentasse.

Mas não é só que o chimpanzé não pode fazer o que podemos, o que
ocorre é que seu cérebro é incapaz de apreender até mesmo que
esse mundo inteiro de funções cognitivas existem – um chimpanzé
pode se familiarizar com o que um ser humano é e o que um
arranha-céu é, mas ele nunca será capaz de entender que um
arranha-céu é construído por seres humanos. Em seu mundo, tudo o
que é muito grande é parte da natureza, ponto final, e não apenas
está além do seu alcance construir um arranha-céu, está além do seu
alcance perceber que alguém pode construir um arranha-céu. Esse é
o resultado de uma pequena diferença de inteligência em termos de
qualidade.
E no esquema do espectro de inteligência que estamos falando hoje,
ou mesmo no muito inferior espectro de inteligência que há entre as
criaturas biológicas, a distância de inteligência entre um chimpanzé
e um humano é minúscula. Eu ilustrei o espectro de capacidade
cognitiva biológica usando uma escadaria: [3]

Para compreender o quão grande seria uma máquina


superinteligente, imagine uma delas no degrau verde escuro que
está a dois degraus acima do ser humano na escadaria. Essa
máquina seria apenas ligeiramente superinteligente, mas sua
capacidade de ampliar sua cognição acima de nós seria tão grande
quanto a distância chimpanzé-humano que acabamos de descrever.
E tal qual a incapacidade do chimpanzé em assimilar que arranha-
céus podem ser construídos, nós jamais seremos capazes de até
mesmo compreender as coisas que uma máquina no degrau verde
escuro pode fazer, mesmo se a máquina tentasse explicar a nós – e
nem vamos falar sobre sermos capazes de fazer tal coisa. E isso é
apenas dois degraus acima de nós. Uma máquina no penúltimo
degrau dessa escadaria seria para nós assim como somos para as
formigas – ela tentaria por anos nos ensinar um mero lampejo do
que ela sabe e essa tentativa seria inútil.

Mas o tipo de superinteligência de que estamos falando hoje é algo


muito além de qualquer coisa nesta escadaria. Em uma explosão da
inteligência (em que quanto mais inteligente a máquina fica mais ela
é capaz de ampliar sua própria inteligência, até ela voar escadaria
acima) uma máquina pode levar anos para ascender o degrau do
chimpanzé para o degrau acima, mas talvez leve apenas horas para
pular um degrau assim que estiver no degrau verde escuro acima de
nós, e quando estiver dez degraus acima de nós, ela pode dar pulos
de quatro degraus a cada segundo que passa. E é por isso que
precisamos perceber que é realmente possível que, logo após ser
divulgada a notícia sobre a primeira máquina que atingiu o nível de
inteligência humana, poderemos estar encarando a realidade de
coexistirmos na Terra com uma coisa que está no seguinte degrau
da escadaria (ou talvez um milhão de vezes mais alto):
E já que estabelecemos ser uma atividade inútil tentar compreender
o poder de uma máquina que está a apenas dois degraus acimas de
nós, vamos concretamente estabelecer de uma vez por todas
que não há forma de saber o que uma Superinteligência Artificial
faria ou quais seriam as consequências disso para nós. Qualquer
um que acha que pode saber essas coisas simplesmente não
compreendeu o que uma superinteligência significa.

A evolução fez o cérebro biológico evoluir lentamente e


gradualmente ao longo de centenas de milhões de anos, e nesse
aspecto, se a humanidade der nascimento a uma máquina com
superinteligência, estaremos turbinando dramaticamente a
evolução. Ou talvez isso seja parte da evolução – talvez a forma
como a evolução funcione é que a inteligência engatinha e
prossegue cada vez mais até atingir o nível em que é capaz de criar
máquinas superinteligentes, e nesse nível é como um gatilho que
aciona uma explosiva e mundial mudança nas regras do jogo que
determinam um novo futuro para todas as coisas vivas:

E por razões que discutiremos mais tarde, uma grande parte da


comunidade científica acredita que não é uma questão de saber se
iremos apertar esse gatilho, mas sim de quando. É o tipo de
informação perturbadora.

Então onde isso nos deixa?

Bem, ninguém no mundo, especialmente eu, pode dizer a você o que


acontecerá quando apertarmos esse gatilho. Mas Nick Bostrom,
filósofo da Universidade de Oxford e especialista em Inteligência
Artificial, acredita que poderemos dividir todos os possíveis
cenários futuros em duas amplas categorias.

Em primeiro lugar, olhando para a história, podemos ver que a vida


funciona dessa maneira: uma espécie surge, existe por algum
tempo, e após certo período, inevitavelmente, ela acabará entrando
em extinção e saindo da estrada da vida em nosso planeta:

“Todas as espécies em algum momento se extinguem” – essa é uma


regra tão confiável ao longo da história quanto tem sido a regra
“todos os humanos em algum momento morrem”. Até agora, 99,9%
das espécies saíram da estrada da vida, e parece bem claro que se
uma espécie continua trafegando nessa estrada, é apenas questão de
tempo antes que seja derrubada por outra espécie, por uma rajada
de vento da natureza ou por um asteróide que faz tremer a estrada.
Bostrom chama a extinção de um estado atrativo – um lugar para o
qual todas as espécies tendem a ir e da qual jamais retornam.
E enquanto a maioria dos cientistas com os quais me deparei
reconhecem que uma Superinteligência Artificial teria a capacidade
de enviar os seres humanos para a extinção, muitos acreditam que,
usadas beneficamente, as habilidades da Superinteligência Artificial
poderiam ser empregadas para levar os indivíduos humanos, e
todas as espécies como um conjunto, para um segundo estado
atrativo – a imortalidade das espécies. Bostrom acredita que a
imortalidade das espécies é um estado tão atrativo quanto a
extinção das espécies, isto é, se conseguirmos chegar lá, nós
estaremos protegidos da extinção para sempre – teremos
conquistado a mortalidade e conquistado o acaso. Então mesmo se
todas as espécies até agora tenham saído da estrada da vida e
tomado um desvio que as leva até a terra da extinção, Bostrom
acredita que há dois desvios da estrada da vida e apenas acontece
que até o momento nada no planeta foi inteligente o suficiente para
descobrir como se desviar para o outro lado, o da imortalidade.
Se Bostrom e outros pesquisadores estiverem certos (e por tudo o
que tenho lido parece que podem estar), nós temos dois fatos bem
chocantes para assimilar:

1) O advento de uma Superinteligência irá, pela primeira vez,


abrir a possibilidade para uma espécie animal chegar na terra da
imortalidade;

2) O advento de uma Superinteligência terá um impacto tão


inconcebivelmente dramático que é provável que empurre a raça
humana para fora da estrada da vida, em uma ou em outra
direção.

Pode muito bem ser possível que, quando a evolução apertar esse
gatilho, ela encerre permanentemente a relação dos seres humanos
com a estrada da vida e crie um novo mundo, com ou sem seres
humanos.

Parece que a única pergunta que atualmente um ser humano deveria


estar fazendo é:quando nós vamos apertar esse gatilho e para qual
lado da estrada da vida nós iremos quando isso acontecer?

Ninguém no mundo sabe com certeza a resposta para nenhuma das


duas partes dessa questão, mas muitas das pessoas mais
inteligentes dedicaram décadas a pensar a respeito. E nós iremos
passar as próximas partes deste artigo explorando o que essas
pessoas concluíram a respeito.

___________

VAMOS COMEÇAR COM A PRIMEIRA PARTE DA QUESTÃO:QUANDO


NÓS IREMOS APERTAR ESSE GATILHO?

Ou seja, quanto tempo temos até que a primeira máquina alcance a


superinteligência?
Não é nenhuma surpresa que as opiniões variam grandemente e esse
é um debate acalorado entre cientistas e pensadores. Muitos, como
o professor Vernor Vinge, o cientista Ben Goertzel, o co-fundador da
Sun Microsystems Bill Joy, ou o famoso inventor e futurista Ray
Kurzweil, concordam com o especialista em aprendizado
computacional Jeremy Howard quando ele apresenta este gráfico
durante um TED Talk:

Essas pessoas aderem a crenças de que isso vai acontecer logo – de


que o crescimento exponencial da tecnologia está acontecendo e
que o aprendizado computacional, embora apenas esteja
engatinhando neste momento entre nós, irá passar a toda
velocidade por nós dentro das próximas poucas décadas.

Outros, como o co-fundador da Microsof, Paul Allen, o psicólogo e


pesquisador Gary Marcus, o cientista computacional da New York
University Ernest Davis, e o empreendedor tecnológico Mitch Kapor,
acreditam que pensadores como Kurzweil estão subestimando
enormemente a magnitude do desafio e acreditam que não estamos
na verdade assim tão perto do gatilho.
O time de Kurzweil rebateria que a única coisa que está sendo
subestimada é o crescimento exponencial da tecnologia, e eles
comparam os céticos àqueles que olhavam o lento crescimento da
internet em 1985 e argumentavam que não havia maneira de que
isso representasse algo impactante no futuro próximo.

O time dos céticos pode argumentar de volta que o progresso


necessário para haver avanços na inteligência artificial também
cresce exponencialmente, e com maior força, a cada etapa
subsequente, e isso irá cancelar a natureza tipicamente exponencial
do progresso tecnológico. E assim por diante.

Um terceiro time, que inclui Nick Bostrom, acredita que nenhum dos
outros dois times têm qualquer base para ter certeza sobre a linha
do tempo e reconhece que (A) isso pode acontecer no futuro
próximo e (B) não há garantia nenhuma a respeito, de modo que
pode levar muito mais tempo.

Há ainda outros que, como o filósofo Hubert Dreyfus, acreditam que


esses outros três times são ingênuos em acreditar que existe um
gatilho, e argumentam que o mais provável é que a
Superinteligência Artificial jamais seja atingida.

Então o que você obtém quando coloca todas essas opiniões juntas?

Em 2013, Vincent C. Müller e Nick Bostrom dirigiram uma pesquisa


em que perguntaram a centenas de especialistas em inteligência
artificial em uma série de conferências a seguinte questão: “Para os
efeitos desta questão, presuma que a atividade científica humana
continue sem significativas interrupções. Em que anos você antevê
10%, 50% e 90% de probabilidade de surgir uma Inteligência
Artificial de Nível Humano (IANH) entre nós?” Foi solicitado que
escolhessem um ano de forma otimista (um ano em que acreditavam
que havia 10% de chance de termos uma IANH), uma estimativa
realista (um ano em que acreditavam haver 50% de probabilidade de
surgir uma IANH – ou seja, depois desse ano eles acreditavam que
era mais provável termos uma IANH do que não termos), e uma
estimativa segura (o ano mais próximo em que podem dizer que há
90% de certeza de que teremos uma IANH). Reunidas todas as
respostas, estes foram os resultados [2]:

Ano otimista médio (10% de probabilidade): 2022

Ano realista médio (50% de probabilidade): 2040

Ano pessimista médio (90% de probabilidade): 2075

Então o participante médio pensa que é mais provável que


improvável que tenhamos uma Inteligência Artificial de Nível
Humano vinte e cinco anos a contar de agora. A resposta média de
90% de chance em 2075 significa que se você é um adolescente
neste momento, segundo o participante médio da pesquisa e metade
dos especialistas em Inteligência Artificial, é quase certo que uma
IANH acontecerá durante seu tempo de vida.

Um outro estudo, conduzido recentemente pelo autor James Barrat


na Conferência Anual sobre Inteligência Artificial de Ben Goertzel’s,
deixou de lado os percentuais e simplesmente perguntou quando os
participantes da Conferência achavam que a IANH surgiria – em
2030, 2050, 2100, depois de 2100 ou nunca. Esses são os
resultados: [3]

Em 2030: 42% dos participantes

Em 2050: 25%

Em 2100: 20%

Após 2100: 10%


Nunca: 2%

Respostas bem parecidas com os resultados de Müller e Bostrom. Na


pesquista de Barrat, mais de dois terços dos participantes
acreditavam que a Inteligência Artificial de Nível Humano estará
entre nós em 2050 e menos da metade deles previu uma IANH
dentro dos próximos quinze anos. Também é significativo que
apenas 2% daqueles que participaram da pesquisa não acreditam
que a Inteligência Artificial de Nível Humano seja parte de nosso
futuro.

Mas a Inteligência Artificial de Nível Humano não é o gatilho, e sim


a Superinteligência. Então quando os especialistas acreditam que
atingiremos a Superinteligência Artificial?

Müller e Bostrom também perguntaram aos especialistas o quão


provável acreditam que chegaremos à Superinteligência Artificial
assim que atingirmos a Inteligência Artificial de Nível Humano: A)
dentro de dois anos após atingirmos a IANH (isto é uma quase que
imediata explosão de inteligência), e B) dentro dos próximos 30
anos. Estes são os resultados [4]:

A resposta média estabelece ser 10% provável que ocorra uma


transição rápida (2 anos), e 75% que ocorra uma transição de 30
anos ou pouco menos.

Com esses dados não sabemos qual tempo de transição a resposta


média dos participantes consideraram como 50% provável, mas para
o propósito especulativo, baseado nas duas respostas acima, vamos
estimar que eles diriam 20 anos. Então a opinião média – aquela
bem no centro do mundo dos especialistas em Inteligência Artificial
– acredita que a estimativa mais realista para quando apertaremos o
gatilho da Superinteligência Artificial é [a predição de 2040 para a
IANH + nossas predição estimada de uma transição de 20 anos da
IANH para a Superinteligência] = 2060.
Claro, todas as estimativas acima são especulativas, e elas apenas
representam a opinião média da comunidade de especialistas em
Inteligência Artificial, mas isso nos diz que uma grande parte das
pessoas que conhecem o principal sobre esse assunto concordam
que 2060 é uma estimativa bem razoável para a chegada de uma
Superinteligência Artificial potencialmente transformadora do
mundo. São apena 45 anos a contar de agora.

CERTO, AGORA E QUANTO A SEGUNDA PARTE DA QUESTÃO


ACIMA: QUANDO APERTARMOS O GATILHO, EM QUE LADO DA
ESTRADA DA VIDA ACABAREMOS?

A Superinteligência deterá um tremendo poder – e a questão crítica


para nós é:

Quem ou o que estará no controle desse poder, qual será a sua


motivação?

A resposta para essa pergunta determinará se a Superinteligência é


um progresso inacreditavelmente maravilhoso, um inconcebível e
terrível desenvolvimento, ou algo entre ambos.
Claro, a comunidade de especialistas também está metida em um
debate acalorado em relação à resposta a essa questão. A pesquisa
de Müller e Bostrom pediu aos participantes para estimar a
probabilidade dos possíveis impactos que a Inteligência Artificial de
Nível Humano teria na humanidade, e descobriram que a resposta
média é que há 52% de probabilidade de que ela seja boa ou
extremamente boa e 31% de chance de que seja má ou
extremamente má. Para uma Inteligência Artificial de Nível Humano
relativamente neutra, a probabilidade média é de apenas 17%. Em
outras palavras, as pessoas que mais sabem a respeito do assunto
estão bem seguras de que o impacto será enorme. Também é digno
de nota que esses números se referem ao surgimento da Inteligência
Artificial de Nível Humano – se a questão fosse sobre a
Superinteligência Artificial, suponho que a percentagem do impacto
neutro seria ainda menor.

Antes que nos aprofundemos nessa parte da questão sobre se será


algo bom ou mal, vamos combinar as partes “quando vai
acontecer?” e “será bom ou mal?” que compõem a pergunta em um
gráfico que representa a percepção dos principais especialistas:
Falaremos sobre a Zona Principal em um minuto, mas primeiro –
qual é o seu time? Na verdade eu sei qual é, porque é a mesma que a
minha antes de eu começar a pesquisar esse tema. Eis algumas
razões pelas quais as pessoas não estão realmente pensando sobre
esse assunto:

 Como mencionei na Parte 1, o cinema realmente confunde


as coisas ao apresentar cenários fantasiosos sobre a
Inteligência Artificial, fazendo com que achemos que esse
não é um assunto para ser levado a sério. James Barrat
compara essa situação à reação que teríamos se em nosso
futuro o Ministério da Saúde divulgasse um aviso sério a
respeito de vampiros [5].
 Devido a uma coisa chamada viés cognitivo, temos muita
dificuldade em crer que uma coisa é real até que vejamos
uma prova. Estou certo de que os cientistas computacionais
de 1988 conversavam com frequência sobre como a internet
se tornaria provavelmente uma grande coisa, mas as
pessoas não pensaram realmente que ela iria mudar suas
vidas até que ela mudasse mesmo suas vidas. Isso em parte
se deve ao fato de que computadores não podiam fazer
muitas coisas em 1988, então as pessoas olhavam para o
computador e pensavam “Sério? Isso é uma coisa capaz de
mudar vidas?” A imaginação deles estava limitada por
aquilo que a experiência pessoal lhes ensinou sobre o que
um computador era, e isso tornou muito difícil imaginar
claramente o que os computadores poderiam se tornar. A
mesma coisa está acontecendo agora com a Inteligência
Artificial. Nós ouvimos dizer que a coisa será grande, mas
porque ela ainda não aconteceu, e temos uma vivência no
mundo atual com Inteligências Artificiais relativamente
impotentes, temos muita dificuldade em realmente acreditar
que isso irá mudar nossas vidas dramaticamente. E é contra
esses vieses que os especialistas estão lutando na medida
em que estão desesperadamente tentando chamar nossa
atenção através do barulho coletivo da auto-absorção.
 E mesmo se acreditamos nisso, quantas vezes hoje você
pensou sobre o fato de que gastará a maior parte da
eternidade não existindo? Não muitas, certo? Mesmo que
esse seja um fato muito mais importante do que qualquer
outra coisa que você está fazendo hoje. Isso se deve ao fato
de que nossos cérebros estão normalmente focados nas
pequenas coisas da vida cotidiana, não importa o quão
maluca seja uma situação a longo prazo que diz respeito a
nós. É assim que somos programados.

Uma das metas dessa série de artigos é tirar você da Zona do Prefiro
Pensar em Outras Coisas e colocar você na zona dos especialistas,
ainda que você fique na exata intersecção das duas linhas
pontilhadas no quadrado acima, a zona da total incerteza.

Durante minha pesquisa, eu cruzei com dúzias de opiniões distintas


sobre esse assunto, mas rapidamente percebi que a opinião da
maioria das pessoas cai em algum lugar daquilo que chamei de Zona
Principal, e em particular, mais que três quartos dos especialistas
caem em subzonas dentro da Zona Principal:

Nós daremos um mergulho profundo nessas diversas zonas. Vamos


começar com a mais divertida:

PORQUE O FUTURO PODE SER NOSSO MAIOR SONHO

À medida em que eu estudava o mundo da Inteligência Artificial,


descobri um número surpreendentemente grande de pessoas nessa
zona indicada pelo quadrado azul, o Canto Confiante:
As pessoas no Canto Confiante estão muito entusiasmadas. Elas tem
suas visões situadas no lado divertido da estrada da vida e estão
convictas de que é para lá que estamos indo. Para elas, o futuro será
tudo o que elas poderiam esperar que fosse, e no tempo certo.
O que separa essas pessoas dos outros pensadores sobre os quais
falamos antes não é seu desejo pelo lado feliz da estrada da vida – é
sua confiança de que é nesse lado que iremos parar.

De onde vem essa confiança é algo que se pode discutir. Críticos


acreditam que ela vem de uma excitação tão cega que essas pessoas
simplesmente ignoram ou negam as consequências potencialmente
negativas. Mas elas dizem que é ingênuo invocar cenários
apocalípticos quando no final das contas a tecnologia tem nos
ajudado e continuará nos ajudando muito mais do que nos
prejudicando.

Iremos analisar ambos os lados, e você poderá formar sua própria


opinião ao longo da leitura, mas para esta parte do texto, coloque
seu ceticismo de lado e vamos dar uma boa e profunda olhada no
que há no lado feliz da estrada da vida – e tentar assimilar o fato de
que as coisas que você estará lendo podem mesmo acontecer. Se
você mostrasse a um primitivo caçador-coletor nosso mundo de
conforto doméstico, tecnologia e infinita abundância, tudo isso
pareceria como mágica fictícia para ele – e temos que ser humildes
o suficiente para reconhecer que é possível que uma transformação
igualmente inconcebível esteja em nosso futuro.

Nick Bostrom descreve três formas pelas quais uma


Superinteligência Artificial poderia funcionar: [6]

 Como um oráculo, que responde a quase todas as questões


propostas com precisão, incluindo questões complexas a
que seres humanos não podem facilmente responder, tais
como: Como posso produzir um motor veicular mais
eficiente? O Google é um tipo primitivo de oráculo.
 Como um gênio, que executa qualquer comando de alto
nível que lhe é dado – Use um montador molecular para
construir um novo e mais eficiente motor veicular – e depois
espera pelo próximo comando.
 Como soberano, ao qual é atribuída uma tarefa ampla e de
solução livre, sendo-lhe permitido operar livremente no
mundo, tomando suas próprias decisões sobre a melhor
forma de agir – Invente uma forma de transporte humano
privado que seja mais rápida, mais barata e mais segura do
que os carros.

Essas questões e tarefas, que parecem complicadas para nós,


pareceriam a um sistema superinteligente como se alguém lhe
pedisse para juntar a caneta que caiu da mesa, o que você faria
pegando a caneca e colocando de volta na mesa.

Eliezer Yudkowsky, um morador da Avenida da Ansiedade no


quadro acima, resumiu isso bem:

“Não há problemas difíceis, apenas problemas que são difíceis para


um certo nível de inteligência. Suba só um pouco o nível da
inteligência e alguns problemas parecerão se transformar de
“impossíveis” para “óbvios”. Suba um substancial degrau de
inteligência e todos os problemas se tornarão de solução óbvia. [7]

Há muitos cientistas, inventores e empreendedores entusiasmados


habitando o Campo Confiante – mas para um tour pelo lado mais
brilhante do horizonte da Inteligência Artificial, há uma só pessoa
que queremos como guia turístico.

Ray Kurzweil é do tipo polarizador. Em minhas leituras, encontrei


tudo sobre ele, desde a idolatria a um semideus e às suas ideias até
um girar de olhos de desprezo por elas. Outros estão em algum
lugar no meio – autores como Douglas Hofstadter, ao discutir as
ideias apresentadas pelos livros de Kurzweil, eloquentemente
descreve que “é como se você pegasse um monte de comida boa e um
pouco de excremento de cão e misturasse de tal forma que você não
consegue distinguir o que é bom e o que é ruim” [8]
Goste você ou não de suas ideias, todos concordam que Kurzweil
impressiona. Ele começou a inventar coisas como um adolescente e
nas décadas seguintes ele apresentou várias invenções inovadoras,
incluíndo o primeiro scanner de mesa, o primeiro scanner que
converteu texto em voz (permitindo aos cegos lerem textos
padronizados), o famoso sintetizador de música do Kurzweil (o
primeiro piano elétrico de verdade), e o primeiro reconhecedor de
voz de amplo vocabulário produzido em escala comercial. Ele é o
autor de cinco best-sellers. Ele é conhecido por suas ousadas
previsões e tem recorde muito bom de tê-las confirmadas –
incluindo sua previsão no final da década de 1980, uma época em
que a internet era uma coisa obscura, de que pelo início do próximo
século ela se tornaria um fenômeno global. Kurzweil tem sido
chamado de “gênio incansável” pelo The Wall Street Journal, “a
máquina pensante definitiva” pela Forbes, “o herdeiro legítimo de
Edson” pela Inc. Magazine, e “a melhor pessoa que conheço quando
se trata de prever o futuro da inteligência artificial”, por Bill Gates
[9]. Em 2012, o co-fundador da Google, Larry Page, procurou
Kurzweil e convidou-o a ser o Diretor de Engenharia da Google [5].
Em 2011, ele foi co-fundador da Singularity University, que se situa
na NASA e é financiada parcialmente pela Google. Nada mal para
uma só vida.

Essa biografia é importante. Quando Kurzweil expõe sua visão do


futuro, ele soa um completo pirado, e a coisa mais maluca é que ele
não é pirado – ele é um homem extremamente inteligente,
compreensível e relevante no mundo. Você pode pensar que ele está
errado sobre o futuro, mas ele não é um idiota. Saber que ele é um
cara respeitado me faz feliz, porque enquanto eu lia as suas
previsões sobre o futuro, eu queria muito que ele estivesse certo. E
você também. Quando você ouvir as previsões de Kurzveil sobre o
futuro, muitas das quais compartilhadas por outros pensadores do
Canto Confiante como Peter Diamandis e Ben Goertzel, não é difícil
entender por que ele tem tantos seguidores entusiasmados –
conhecidos como singularitarianos. Isso é o que ele acha que vai
acontecer:

LINHA DO TEMPO

Kurzweil acredita que computadores atingirão o nível de


inteligência humana em 2029, e lá por 2045 nós não teremos apenas
Superinteligência Artificial, mas um mundo completamente novo –
um tempo que ele chama de singularidade. Sua linha de tempo da
evolução da Inteligência Artificial costumava ser considerada
ofensivamente exagerada, e ainda é vista assim por muitos [6], mas
nos últimos 15 anos, o avanço rápido dos sistemas de Inteligência
Artificial Superficial aproximou o grande mundo dos especialistas
bem perto da linha do tempo de Kurzweil. Suas previsões ainda são
um pouco mais ambiciosas do que a resposta média obtida na
pesquisa de Müller e Bostrom (IAS lá por 2040, SA lá por 2060), mas
não muito.

A descrição de Kurzweil para a singularidade de 2045 é


caracterizada por três revoluções simultâneas em biotecnologia,
nanotecnologia e – a revolução mais poderosa – em Inteligência
Artificial.

Antes de prosseguirmos, como a nano tecnologia está relacionada


com quase tudo o que você lerá sobre o futuro da Inteligência
Artificial, vamos nos dedicar a essa caixa azul por um minuto para
que possamos falar sobre isso:

CAIXA AZUL DA NANOTECNOLOGIA

A nanotecnologia é como chamamos a tecnologia que lida com a


manipulação da matéria em termos de 1 a 100 nanômetros de
tamanho. Um nanômetro é um bilionésimo de metro, ou um
milionésimo de milímetro, e essa faixa de 1 a 100 abrange vírus
(100 nanômetros), DNA (10 nanômetros) e coisas tão pequenas
quanto as moléculas maiores tais como a hemoglobina (5
nanômetros) e moléculas médias como glucose (1 nanômetro).
Se/quando nós conquistarmos a nanotecnologia, o próximo passo
será a habilidade de manipular átomos individuais, que estão
apenas um nível abaixo de magnitude (algo como 0,1 nanômetros).

Para entender o desafio que é seres humanos tentando manipular a


matéria nessa faixa, vamos fazer a mesma coisa em uma escala
maior. A Estação Espacial Internacional está a 431 quilômetros da
Terra. Se os humanos fossem gigantes tão grandes que suas cabeças
ultrapassassem a EEI, eles seriam 250.000 vezes maiores do que são
agora. Se você fizer a faixa de 1 a 100 nanômetros aumentar de
tamanho 250.000 vezes, você chega na faixa de 0,25 mm a 2,5 cm.
Então a nanotecnologia é o equivalente a humanos tão altos quanto
a EEI tentando descobrir como cuidadosamente construir objetos
intrincados utilizando materiais entre o tamanho de um grão de
areia e um globo ocular. Para atingir o nível seguinte – manipular
átomos individuais – o gigante teria que posicionar cuidadosamente
objetos que são 1/40 de um milímetro – tão pequenos que um ser
humano de tamanho normal precisa de um microscópio para vê-los
[8].

A nanotecnologia foi discutida inicialmente por Richard Feynman


em uma palestra de 1959, quando ele explicou: “Os princípios da
física, tão longe quanto podemos ver, não são contrários à
possibilidade de manipularmos as coisas átomo por átomo. Seria, a
princípio, possível a um físico sintetizar qualquer substância química
que um químico descrever. Como? Coloque os átomos onde o químico
diz, e você fará a substância.” É simples assim. Se você descobrir
como mover moléculas ou átomos individuais, você pode fazer
literalmente qualquer coisa.

A nanotecnologia tornou-se um campo sério pela primeira vez em


1986, quando o engenheiro Eric Drexler estabeleceu suas fundações
em seu livro inaugural Engines of Creation, mas Drexler sugere que
aqueles que desejam aprender mais sobre as modernas ideias em
nanotecnologia encontrariam mais informações em seu livro de
2013, Radical Abundance.

CAIXA AZUL ESCURA DO GRAY GOO

Nós estamos em um desvio dentro de um desvio. Isso é muito


divertido. [9]

De qualquer forma, eu trouxe você aqui porque há essa parte da


nanotecnologia que é realmente nada divertida e da qual preciso
falar. Em versões mais antigas da teoria da nanotecnologia, um dos
métodos propostos para a nanomontagem envolvia a criação de
trilhões de pequenos nanobots que trabalhariam conjuntamente
para construir algo. Uma forma de criar trilhões de nanobots seria
fazer um que poderia se auto-replicar e então deixar o processo de
reprodução tornar esse único nanobot em dois, esses dois então em
quatro, quatro em oito, e no dia seguinte teríamos alguns trilhões
prontos para trabalhar. Esse é o poder do crescimento exponencial.
Esperto, não é?

É esperto até que cause um enorme e completo apocalipse mundial


por acidente. A questão é que o mesmo poder do crescimento
exponencial que o faz super conveniente para rapidamente criar um
trilhão de nanobots faz a auto-replicação uma perspectiva
assustadora. Pois e se esse sistema de cópias falhar, e ao invés de
interromper a replicação uma vez que se atinge alguns trilhões
planejados, os nanobots continuarem a se replicar? Os nanobost
consumiriam todo o material baseado em carbono para alimentar o
processo de replicação, e infelizmente todas as formas de vida são
baseadas em carbono. A biomassa da terra contém 10 na 45ª
potência átomos de carbono. Um nanobot teria 10 na 6ª potência
átomos de carbono, então 10 na 39ª potência nanobots consumiriam
toda a vida na Terra, o que ocorreria após 130 replicações (2 na 130
potência é quase igual a 10 na 39 potência), quando então um
oceano de nanobots (esse evento é chamado de Gray Goo) varreria o
planeta. Os cientistas acham que um nanobot poderia replicar-se em
100 segundos, o que significa que um simples engano
inconvenientemente acabaria com toda a vida na Terra em três
horas e meia.

Um cenário ainda pior seria se um terrorista de alguma forma


tivesse em suas mãos a tecnologia de um nanobot e o conhecimento
para programá-lo, ele poderia criar inicialmente alguns trilhões
deles e programá-los para silenciosamente levar uma semana para
se espalhar igualmente ao redor de todo o mundo sem serem
detectados. Então, eles atacariam a uma só vez, e levaria apenas 90
minutos para consumirem todas as coisas – e com eles espalhados,
não haveria jeito de combatê-los [10].

Se por um lado essa história de terro tem sido amplamente debatida


por anos, por outro as boas notícias é que pode ser um exagero –
Eric Drexler, que cunhou o termo “gray goo”, enviou-me um email
assim que publiquei esse artigo e falou sobre sua opinião sobre o
assunto: “as pessoas adoram histórias aterrorizantes, e essa é do
tipo zumbi – a ideia em si mesmo devora cérebros”.

Assim que dominarmos a nanotecnologia, poderemos usá-la para


fazer ferramentas tecnológicas, roupas, comida e uma série de
produtos relativos à biologia (células sanguíneas artificiais,
pequenos destruidores de vírus ou células cancerígenas, tecido
muscular, etc.) – qualquer coisa, na verdade. E em um mundo que
usa nanotecnologia, o custo de um material não estará mais
vinculado à sua escassez ou à dificuldade de seu processo
produtivo, mas sim pelo quão complicada é sua estrutura atômica.
Em um mundo de nanotecnologia, um diamante pode ser mais
barato do que uma borracha.

Ainda não chegamos lá. E não está claro se estamos subestimando,


ou superestimando o quão difícil será chegar lá. Mas não parecemos
estar muito longe. Kurzweil prevê que chegaremos lá na década de
2020 [11]. Os governos da Terra sabem que a nanotecnologia pode
ser um desenvolvimento capaz de abalar o mundo, e eles estão
investindo bilhões de dólares em pesquisa nanotecnológica (os EUA,
a União Europeia e o Japão investiram até agora uma soma de 5
bilhões de dólares) [12].

Apenas considere os possíveis cenários se um computador


superinteligente tiver acesso a um robusto montador em
nanoescala. Mas a nanotecnologia é algo que nós inventamos, algo
que estamos para dominar, e já que tudo que podemos fazer é uma
piada para um sistema de Superinteligência Artificial, temos que
presumir que esse sistema criaria tecnologias mais poderosas e
avançadas do que o cérebro humano pode compreender. Por isso,
quando consideramos o cenário de uma Superinteligência Artificial
que seja benigna para nós, é quase impossível superestimar o que
realmente pode acontecer – então se as previsões sobre o futuro da
Superinteligência Artificial que serão apresentadas parecerem
exageradas, tenha em mente de que elas podem ser concretizadas
de modos que nem sequer podemos imaginar. Mais provavelmente,
nossos cérebros não são capazes de prever as coisas que podem
acontecer.

O QUE A INTELIGÊNCIA ARTIFICIAL PODE FAZER POR NÓS


Fonte
Municiada com superinteligência e toda a tecnologia que uma
superinteligência saberia como criar, uma SA provavelmente seria
capaz de resolver todos os problemas da humanidade. Aquecimento
global? A Superinteligência Artificial poderia primeiramente
interromper a emissão de CO2 ao apresentar formas de produzir
energia muito melhores do que com qualquer combustível fóssil.
Daí a SA pode criar alguma forma inovadora de remover o excesso
de CO2 da atmosfera. Câncer e outras doenças? Não é um problema
para a SA – a medicina será revolucionada além da imaginação.
Fome mundial? A SA pode usar coisas como nanotecnologia
para construir carne do nada, que seria molecularmente idêntica à
carne verdadeira – em outras palavras, seria carne real. A
nanotecnologia poderia transformar uma pilha de lixo em uma
enorme pilha de carne fresca ou outras comidas (as quais não
precisariam ter sua forma original – imagine um cubo gigante feito
de maçã) e distribuir toda essa comida ao redor do mundo
utilizando sistemas de transporte ultra avançados. Claro, isso será
ótimo para os animais, que não precisariam mais ser mortos pelos
seres humanos, e uma Superinteligência Artificial poderia fazer um
monte de outras coisas para salvar espécies em extinção ou mesmo
trazer de volta espécies extintas ao trabalhar com DNA preservado.
A Superinteligência Artificial pode até mesmo resolver nossos
principais problemas mundiais – nossos debates sobre como a
economia deve ser conduzida e como o comércio mundial deve ser
facilitado, e pode desvendar até mesmo as questões mais
espinhosas em filosofia ou ética – tudo isso pode ser incrivelmente
fácil para uma SA.

Mas há uma coisa que a Superinteligência Artificial poderia fazer


por nós que é tão tantalizante que ler sobre isso mudou tudo o que
eu sabia sobre qualquer coisa:

A SUPERINTELIGÊNCIA ARTIFICIAL PODERIA NOS PERMITIR

CONQUISTAR A NOSSA MORTALIDADE.

Alguns meses atrás, mencionei minha inveja de supostas


civilizações extraterrestres que conquistaram a sua mortalidade, e
não imaginava que mais tarde poderia escrever um artigo que me
fizesse realmente crer que isso é algo que os seres humanos
poderão fazer dentro do meu tempo de vida. Mas ler sobre
Inteligência Artificial fará você reconsiderar tudo sobre o qual você
achava que tinha certeza – incluindo sua noção da morte.

A evolução não tem nenhum bom motivo para ampliar nossa


expectativa de vida mais do que já temos agora. Se vivermos o
tempo suficiente para nos reproduzirmos e criarmos nossos filhos
até uma idade em que eles podem procriar eles próprios, isso é o
bastante para a evolução – de um ponto de vista evolucionário,
nossa espécie pode existir com uma expectativa de vida de trinta
anos, então não há motivos para que mutações tendentes a garantir
uma vida mais longa fossem favorecidas pelo processo de seleção
natural. Como resultado, temos o que W. B. Yeats descrevia como
“uma alma aprisionada em um animal moribundo”. [13] Isso não tem
graça.

E porque todo mundo sempre morre, nós vivemos sobre a presunção


estatística de que a morte é inevitável. Pensamos no processo de
envelhecer como pensamos no tempo – ambos se movem e não há
nada que você possa fazer para interrompê-los. Mas essa presunção
é errada. Richard Feynman escreve:

“É uma das coisas mais notáveis que em todas as ciências biológicas


não há nenhuma pista sobre a necessidade da morte. Se você me diz
nós queremos movimento perpétuo, nós descobrimos leis durante o
estudo da Física o suficiente para saber que isso ou é absolutamente
impossível ou as leis da física estão erradas. Mas não há nada na
biologia até agora que possa indicar a inevitabilidade da morte. Isso
sugere para mim que ela não é inevitável afinal de contas, e é só
uma questão de tempo até biólogos descobrirem o que está nos
causando esse problema e então essa terrível doença universal ou
temporariedade do corpo humano será curada.”

O fato é que o envelhecimento não está preso à passagem do tempo.


O tempo continuará se movendo, mas o envelhecimento não precisa.
Se você pensar a respeito, isso faz sentido. Todo o processo de
envelhecimento é o material físico do corpo falhando. Um carro
começa a falhar ao longo do tempo também – mas seu
envelhecimento é inevitável? Se você consertar perfeitamente ou
substituir as partes do carro sempre que uma delas começar a
falhar, o carro funcionará para sempre. O corpo humano não é
diferente disso – só é mais complexo.
Kurzweil fala sobre nanobots inteligentes e conectados via wifi
circulando em nossa corrente sanguínea e que poderiam realizar
inúmeras tarefas para garantir a saúde humana, inclusive reparar
rotineiramente ou substituir células envelhecidas em qualquer parte
do corpo. Se feito com perfeição, esse processo (ou outro mais
inteligente a ser criado por uma Superinteligência Artificial), não
manteria nosso corpo apenas saudável: isso poderia reverter o
envelhecimento. A diferença entre um corpo de 60 anos e um corpo
de 30 anos é apenas um conjunto de aspectos físicos que
poderíamos alterar se tivéssemos a tecnologia. A Superinteligência
Artificial poderia construir um “restaurador de idade” em que uma
pessoa com 60 anos entraria e da qual sairia com o corpo e a pele de
uma pessoa de 30 [10].

Mesmo o sempre confuso cérebro pode ser restaurado por algo tão
inteligente quanto uma Superinteligência Artificial, que poderia
descobrir como fazer isso sem afetar os dados do cérebro
(personalidade, memória, etc). Uma pessoa de 90 anos sofrendo de
demência poderia entrar no “restaurador de idade” e sair em forma
e pronta para começar uma nova carreira. Isso parece absurdo – mas
o corpo é só um conjunto de átomos e uma Superinteligência
Artificial presumivelmente seria capaz de facilmente manipular
todo o tipo de estrutura atômica – então não é um absurdo.

Kurzweil então dá um enorme passo adiante. Ele acredita que os


materiais artificiais serão integrados ao corpo mais e mais à medida
em que o tempo passa. Inicialmente, órgãos seriam substituídos por
versões artificiais super-avançadas que funcionariam para sempre
se jamais falhar. A seguir ele acredita que poderíamos começar a
redesenhar o corpo – coisas como substituir os glóbulos vermelhos
por nanobots que podem impulsionar seu próprio movimento,
eliminando a necessidade de um coração de uma vez por todas. Ele
até mesmo fala do cérebro e acredita que nós iremos aprimorar
nossas atividades cerebrais ao ponto em que humanos serão
capazes de pensar bilhões de vezes mais rápido do que fazem
agora, e acessarão informação externas porque os complementos
cerebrais adicionados ao cérebro serão capazes de se comunicar
com todas as informações que estão na nuvem.

As possibilidades para a nova experiência humana são infinitas. Os


seres humanos separaram o sexo de sua finalidade evolutiva,
permitindo às pessoas fazerem sexo para se divertir, e não só para
reproduzir. Kurzweil acredita que seremos capazes de fazer o
mesmo com a comida. Nanobots se encarregarão de providenciar a
nutrição perfeita para nossas células, conduzindo inteligentemente
qualquer coisa nociva de forma que passe pelo corpo sem afetar
nada. Uma camisinha para o ato de comer.

O teórico da nanotecnologia Rober A. Freitas já projetou células


sanguíneas que, se algum dia forem implementadas no corpo,
permitirão a um ser humano mergulhar por 15 minutos sem respirar
– então você pode só imaginar o que uma Superinteligência Artificial
poderia fazer com nossas capacidades físicas. A realidade virtual
teria um novo significado: nanobots em nosso corpo poderiam
suprimir as informações vindas de nossos sentidos e substituí-las
por outros sinais que nos colocariam inteiramente em um novo
ambiente, um em que poderíamos ver, ouvir, sentir e cheirar.

Em algum momento, Kurzweil acredita que os seres humanos


chegarão ao ponto em que serão inteiramente artificiais [11]; uma
época em que olharemos para o material biológico e pensaremos em
como inacreditavelmente primitivo era nós sermos constituídos
por aquilo; uma época em que leremos sobre os estágios iniciais da
história humana, quando micróbios ou acidentes ou doenças ou
quebrar e rasgar poderiam simplesmente matar seres humanos
contra sua própria vontade; uma época em que a Revolução da
Inteligência Artificial poderia acabar na fusão entre seres humanos e
a Inteligência Artificial [12]. É desse jeito que Kurzweil acredita que
iremos conquistar definitivamente nossa biologia e nos tornar
indestrutíveis e eternos – essa é sua visão a respeito do outro lado
da estrada da vida. E ele está convencido de que chegaremos lá. E
em breve.

Você não ficará surpreso ao saber que as ideias de Kurzweil atraem


críticas significativas. Sua previsão da singularidade em 2045 e a
subsequente possibilidade de vida eterna para os humanos tem sido
ironizada como “o arrebatamento dos nerds” ou “design inteligente
para pessoas com QI 140”. Outros questionam sua linha do tempo
otimista, ou seu nível de conhecimento do corpo e do cérebro, ou
sua aplicação do padrão descrito pela Lei de Moore, que é aplicada
ao progresso em hardware até abranger amplamente outras coisas,
inclusive software. Para cada especialista que fervorosamente
acredita que Kurzweil está certo, há provavelmente três que acham
que ele está bem equivocado.

Mas o que me surpreende é que a maioria dos especialistas que


discordam dele não discordam realmente de que tudo o que ele diz
é possível. Ao ler uma tal arrojada visão do futuro, eu esperava que
seus críticos dissessem: “Obviamente coisas desse tipo não podem
acontecer”. Mas ao invés disso eles dizem: “Sim, tudo isso pode
acontecer se houver uma transição segura para a Superinteligência
Artificial, mas essa é a parte difícil”. Bostrom, uma das vozes mais
proeminentes nos prevenindo sobre os perigos da Inteligência
Artificial, ainda reconhece:

“É difícil pensar em qualquer problema que a superinteligência não


possa resolver ou que não possa nos ajudar a resolver. Doença,
pobreza, destruição ambiental, sofrimentos desnecessários de todos
os tipos: essas são as coisas que uma superinteligência equipada com
nanotecnologia avançada seria capaz de eliminar. Além disso, a
superinteligência poderia nos dar uma expectativa de vida infinita,
seja parando e revertendo o processo de envelhecimento através do
uso da nanomedicina, ou nos oferecendo a opção de realizar
oupload de nós próprios. Uma superinteligência poderia também
criar oportunidades para nós ampliarmos enormemente nossas
capacidades emocionais e intelectuais, e ela poderia nos ajudar a
criar um mundo de experiências altamente atrativas, no qual
poderíamos devotar nossas vidas ao deleite de jogar, nos relacionar
com as outras pessoas, ter vivências, crescer pessoalmente e viver
mais próximos de nossos ideais.”

Isso é uma citação de alguém que não está no Canto Confiante, mas
é com isso que me deparei: especialistas que criticam Kurzweil por
um punhado de motivos mas que não acham que o que ele diz é
impossível se nós fizermos uma transição segura até a
Superinteligência Artificial. É por isso que achei as ideias de
Kurzweil tão contaminantes – porque elas articulam o lado luminoso
dessa história e porque elas são na verdade possíveis. Se a
Inteligência Artificial for um bom deus.

As mais significativas críticas que li a respeito dos pensadores que


estão no Canto Confiante é que eles podem estar perigosamente
errados em sua avaliação sobre os aspectos negativos de uma
Superinteligência Artificial. O famoso livro de Kurzweil,
A Singularidade está Próxima, tem mais de 700 páginas e dedica
cerca de 20 para analisar os perigos em potencial. Eu sugeri antes
que nosso destino quando esse colossal novo poder nascer estará
nas mãos de quem controlar esse poder e em qual será sua
motivação. Kurzweil responde essas duas questões da seguinte
forma:

“A Superinteligência Artificial emergirá de muitos esforços distintos e


estará profundamente integrada à infraestrutura de nossa
civilização. De fato, ela estará intimamente embebida em nossos
corpos e cérebros. Desse modo, ela refletirá nossos valores porque
ela será nós próprios.”

Mas se essa é a resposta, por que tantas das pessoas mais


inteligentes do mundo estão preocupadas com isso? Porque Stephen
Hawking disse que o desenvolvimento da Superinteligência
Artificial “poderá ser o fim da raça humana” e Elon Musk teme que
estejamos “invocando o demônio”? E por que tantos especialistas no
assunto consideram a Superinteligência Artificial a maior ameaça à
humanidade? Essas pessoas, e outros prensadores na Avenida da
Ansiedade, não aceitam a desconsideração de Kurzweil em relação
aos perigos da Inteligência Artificial. Elas estão
muito, muito preocupadas com a Revolução da Inteligência
Artificial, e elas não estão focando no lado divertido da estrada da
vida. Elas estão ocupadas demais olhando para o outro lado, onde
elas vêem um futuro aterrorizante, um do qual não estão tão certas
de que escaparemos.

Leia a última e quarta parte dessa empolgante e perturbadora


jornada, CLIQUE AQUI.
A REVOLUÇÃO DA INTELIGÊNCIA ARTIFICIAL, PARTE 4

Por Tim Urban -

3 de setembro de 2015

299

[Nota do tradutor: esta é a quarta parte do perturbador artigo de


Tim Urban, traduzido do texto original com autorização do autor.
Para compreender esta terceira parte, você precisa ler a primeira,
a segunda e a terceira. Vale MUITO a pena, isso eu garanto!]

PORQUE O FUTURO PODE SER NOSSO PIOR PESADELO

Uma das razões pelas quais quis aprender sobre Inteligência


Artificial é que o assunto sobre “robôs do mal” sempre me
confundiu. Todos os filmes sobre robôs malvados pareciam
divertidamente irrealistas, e eu não podia realmente compreender
como poderia haver uma situação na vida real em que a Inteligi ência
Artificial fosse realmente perigosa. Robôs são feitos por nós, então
porque nós os projetaríamos de um modo que algo negativo
pudesse acontecer? Não os construiríamos cheios de salvaguardas?
Não seríamos capazes de simplesmente cortar a fonte de energia de
um sistema de Inteligência Artificial a qualquer momento e desligá-
lo? Porque um robô desejaria fazer algo ruim conosco, afinal de
contas? Porque um robô iria “desejar” qualquer coisa em primeiro
lugar? Eu era muito cético. Mas quando continuei a escutar pessoas
realmente inteligentes falando a respeito disso…

Essas pessoas tendem a estar em algum lugar deste quadrado


amarelo:
As pessoas na Avenida da Ansiedade não estão na Pradaria do
Pânico ou na Colina do Desespero – ambas são regiões bem
distantes desse quadro – mas estão nervosas e estão tensas. Estar no
meio do quadro não significa que você acha que a chegada da
Superinteligência Artificial será neutra – aos neutros foi dada uma
zona distinta do campo para eles próprios – significa que você
pensa que tanto a hipótese de uma Superingeligência Artificial
extremamente benigna quanto a de uma extremamente maligna são
plausíveis, mas você não está certo sobre qual delas se tornará
realidade.

Uma parte de todas essas pessoas está cheia de entusiasmo sobre o


que uma Superinteligência Artificial poderia fazer por nós – é só que
estão um pouco preocupados de que isso pode ser como o início
de Os Caçadores da Arca Perdida e a raça humana é este cara:

E ele está lá de pé todo feliz com seu chicote e seu ídolo, pensando
que descobriu tudo, e está muito empolgado consigo próprio
quando diz “Adios Señor” e então ele fica menos empolgado quando
repentinamente isto acontece:
(desculpe)

Enquanto isso, Indiana Jones, que é muito mais experiente e


cuidadoso, compreende os perigos e como se desviar deles, saindo
da caverna em segurança. E quando nós escutamos o que as pessoas
na Avenida da Ansidade têm a dizer sobre a Inteligência Artificial,
suas palavras frequentemente soam como se dissessem “Hmmm,
nós tipo que estamos sendo como o primeiro cara do filme neste
momento mas ao invés disso nós deveríamos estar tentando pra
valer ser como Indiana Jones”.

Então, o que exatamente faz todas as pessoas na Avenida da


Ansiedade estarem tão ansiosas?

Bom, em primeiro lugar, num sentido bem amplo, quando se trata


de desenvolver uma Superinteligência Artificial, estaremos criando
algo que provavelmente irá mudar todas as coisas, mas em um
território totalmente desconhecido, e não temos nenhuma ideia do
que acontecerá quando chegarmos lá. O cientista Danny Hillis
compara o que acontecerá com aquele momento “quando
organismos unicelulares transformaram-se em organismos
multicelulares. Somos amebas e não conseguimos descobrir o que
diabos é essa coisa que estamos criando” [14] Nick Bostrom se
preocupa que criar algo mais inteligente que nós é um erro
darwiniano elementar, e compara o entusiasmo com isso a um
pardal em um ninho decidido a adotar um filhote de coruja para que
possa ajudá-lo e protegê-lo quando crescer, enquanto ignora os
gritos de alarme dados por alguns pardais que cogitam se isso é
realmente uma boa ideia…[15]

E quando você combina “território não mapeado e não bem


compreendido” com “isso deverá ter um grande impacto quando
acontecer”, você abre a porta para as duas palavras mais
assustadoras na nossa linguagem:

Risco existencial.

Um risco existencial é algo que pode ter um efeito devastador e


permanente para a humanidade. Tipicamente, um risco existencial
significa extinção. Confira este gráfico feito em um Google talk por
Bostrom [13]:
Você pode ver que a etiqueta “risco existencial” está reservada a
alguma coisa que abranja a espécie, abranja gerações (ou seja, é
permanente) e é devastora ou mortal em suas consequências [14].
Risco existencial tecnicamente inclui uma situação na qual todos os
humanos estarão permanentemente num estado de sofrimento ou
tortura, mas de regra estamos falando sobre extinção. Há três coisas
que podem provocar para os seres humanos uma catástrofe
existencial:
1) Natureza – A colisão de um grande asteróide, uma mudança
atmosférica que faça o ar irrespirável, um vírus ou bactéria fatal
que varra o mundo, etc.

2) Alienígena – Esse é o motivo pelo qual Stephen Hawking, Carl


Sagan e tantos outros astrônomos estavam tão assustados quando
preveniram o pessoal do SETI para que parassem de transmitir
sinais para fora de nosso planeta. Eles não querem que sejamos
como os ameríndios e informemos a todos os potenciais
conquistadores europeus que estamos aqui.

3) Humanos – Terroristas colocando as mãos numa arma que pode


causar extinção, uma catastrófica guerra global, seres humanos
criando algo mais inteligente que nós sem primeiro pensar a
respeito disso cuidadosamente…

Bostrom salienta que as duas primeiras hipóteses não ocorreram em


nossos 100 mil primeiros anos enquanto espécie, e é improvável
que aconteçam no próximo céculo.

Mas a terceira hipótese, por outro lado, o aterroriza. Ele usa a


metáfora de uma urna cheia de bolas de gude. Digamos que a
maioria das bolas de gude sejam brancas, um menor número sejam
vermelhas e algumas poucas sejam pretas. A cada vez que os seres
humanos inventam algo novo, é como tirar uma bola de gude de
dentro da urna. A maioria das invenções são neutras ou úteis para a
humanidade – são as bolas de gude brancas. Algumas são nocivas à
humanidade, como armas de destruição em massa, mas elas não
causam uma catástrofe existencial – são as bolas de gude vermelhas.
Mas se inventarmos algo que nos leve à extinção, isso seria como
tirar uma daquelas bolas de gude negras. Nós não tiramos uma bola
preta ainda – você sabe disso porque está vivo e lendo este texto.
Mas Bostrom não acha que é impossível que tiremos uma delas no
futuro próximo. Se armas nucleares, por exemplo, fossem fáceis de
produzir ao invés de extremamente difíceis e complexas, os
terroristas já teriam bombardeado a humanidade de volta para a
Idade da Pedra. Armas nucleares não são bolas de gude negras
mas não estão muito longe disso. A Superinteligência Artificial,
Bostrom acredita, é nosso candidato mais forte até agora a ser uma
bola de gude preta. [15]

Então você lerá sobre um monte de coisas potencialmente ruins que


a Superinteligência Artificial pode nos trazer – impulsionar o
desemprego a medida em que a Superinteligência Artificial assume
mais e mais tarefas [16], o super crescimento populacional se
descobrirmos o segredo para interromper o envelhecimento [17],
etc. Mas a única coisa sobre a qual deveríamos estar obcecados é
sobre a grande preocupação: a perspectiva de um risco existencial.

Então, vamos retornar à nossa questão principal, apresentada na


terceira parte dessa série de artigos: Quando a Superinteligência
Artificial chegar, quem ou o que estará no controle desse vasto e
novo poder, e qual será a sua motivação?

Quando se trata de analisar quais alternativas de motivação seriam


péssimas, duas delas surgem rapidamente em nossas mentes: de um
lado, um ser humano, um grupo de humanos ou um governo mal-
intencionado; de outro uma Superinteligência Artificial mal-
intencionada. Assim, como seriam essas hipóteses?

Um ser humano, grupo de humanos ou governo mal-


intencionados desenvolve a primeira Superinteligência Artificial
e a utiliza para implementar seus planos malignos. Chamo essa
hipótese de Hipótese de Jafar, como quando na história de Aladim o
vilão Jafar passa a controlar o gênio da lâmpada e é insuportável e
tirânico com isso. E se o Estado Islâmito tiver alguns poucos
engenheiros geniais sob sua proteção trabalhando freneticamente
no desenvolvimento da Inteligência Artificial? E se o Irã ou a Coreia
do Norte, graças a um golpe de sorte, faz uma descoberta chave
para um sistema de Inteligência Artificial e isso os impulsiona para
o nível da Superinteligência Artificial no ano seguinte? Isso tudo
seria definitivamente ruim – mas nessas hipóteses a maioria dos
especialistas não está preocupada com os humanos criadores da
Superinteligência fazendo coisas ruins com a sua criação, eles estão
preocupados com esses criadores que estarão tão apressados em
criar a primeira Superinteligência que o farão sem pensar
cuidadosamente, e podem perder o controle de sua criação. E daí o
destino desses criadores, e de todo o resto do mundo, dependeria
de qual seria a motivação desse sistema de Superinteligência
Artificial. Especialistas acham que um ser humano mal-intencionado
poderia causar prejuízos terríveis com uma Superinteligência
trabalhando para ele, mas eles não parecem achar essa hipótese
teria a probabilidade de matar a todos nós, pois acreditam que seres
humanos maus teriam o mesmo problema contendo a
Superinteligência que seres humanos bons teriam. Certo, então…

…uma Superinteligência mal-intencionada é criada e decide


destruir a todos nós. Esse é o roteiro de todo filme sobre
Inteligência Artificial. A Inteligência Artificial torna-se tão ou mais
inteligente que os humanos, e daí decide voltar-se contra nós e nos
dominar. Eis o que preciso que fique claro para você durante a
leitura do resto deste texto: nenhuma das pessoas nos avisando
sobre o perigo de uma Inteligência Artificial está falando dessa
hipótese. “Mal” é um conceito humano, e aplicar conceitos humanos
a coisas não-humanas é chamado de “antropomorfização”. O desafio
para evitar a antropomorfização será um dos temas do resto deste
texto. Nenhum sistema de Inteligência Artificial jamais se
tornarámalvado da forma como é descrito nos filmes.
A Caixa Azul da Consciência

Isso também tangencia outro tema relacionado com Inteligência


Artificial: a consciência. Se uma Inteligência Artificial tornar-se
suficientemente inteligente, ela será capaz de rir conosco, e ser
sarcástica conosco, e afirmará sentir as mesmas emoções que
sentimos, mas ela realmente estará experienciando esses
sentimentos? Ela apenas parecerá ser autoconsciente ou será
realmente autoconsciente? Em outras palavras, uma Inteligência
Artificial seria consciente ou apenas teria a aparência de ser
consciente?

Essa questão tem sido analisada profundamente, dando origem a


muitos debates e experimentos mentais como a Sala Chinesa de
John Searle (que ele usa para sugerir que nenhum computador
poderia jamais ser consciente). Essa é uma questão importante por
muitos motivos. Ela afeta como nos sentiremos a respeito do
cenário descrito por Kurzweil, quando seres humanos tornarem-se
totalmente artificiais. Essa questão tem implicações éticas – se
produzirmos um trilhão de simuladores de cérebros humanos que
parecem e agem como se fossem humanos mas que na verdade são
artificiais, desligá-los seria o mesmo, moralmente falando, que
desligar nosso notebook, ou seria… um genocídio de proporções
inconcebíveis (esse conceito é chamado de crime mental entre os
filósofos da ética)? Para este artigo, porém, quando nos referimos
ao risco para os seres humanos, a questão sobre a consciência da
Superinteligência Artificial não é o que realmente importa, pois a
maioria dos especialistas acredita que mesmo uma Superinteligência
consciente não seria capaz de ser má de uma forma humana.

Isso não significa que uma Inteligência Artificial muito perversa não
pode acontecer. Isso pode acontecer porque foi programada para ser
assim, como um sistema de Inteligência Artificial Superficial criada
pelos militares com uma programação cuja principal diretiva é tanto
matar pessoas como desenvolver a sua própria inteligência de modo
a se tornar melhor em matar pessoas. A crise existencial aconteceria
se os auto-aprimoramentos na inteligência desse sistema ficassem
fora de controle, levando a uma explosão da inteligência, e então
teríamos uma Superinteligência dominando o mundo e cuja
principal diretiva é assassinar humanos. Tempos difíceis.

Mas isso também não é algo com o qual os especialistas estão


gastando o seu tempo ficando preocupados.

Então com o que eles estão preocupados? Escrevi uma pequena


história para mostrar isso a vocês:

Uma pequena empresa com 15 funcionários, chamada Robótica,


estabeleceu a missão de “Desenvolver ferramentas inovadoras no
campo da Inteligência Artificial para permitir que os seres humanos
vivam mais e trabalhem menos”. Eles já tem vários produtos no
mercado e um punhado de outros em desenvolvimento. Eles estão
principalmente entusiasmados com um projeto inicial chamado
Turry. Turry é uma Inteligência Artificial simples que usa um
apêndice robótico semelhante a um braço para escrever num
pequeno cartão uma nota que parece escrita a mão por um humano.

A equipe da Robótica acha que Turry pode tornar-se seu maior


produto. O plano é aperfeiçoar a mecânica por trás da habilidade de
Turry escrever fazendo com que a máquina pratique o mesmo teste
repetidamente, escrevendo:

“Nós amamos nossos clientes. ~Robótica.”

No momento em que Turry tornar-se exímia na escrita a mão, ela


pode ser vendida para companhias que querem enviar
correspondência de marketing para clientes e que sabem que são
muito maiores as chances de uma carta ser aberta e lida se o
endereço do destinatário, do remetente e o conteúdo da carta
parecerem ter sido escritas por um ser humano.

Para aprimorar a habilidade de escrever de Turry, ela é programada


para escrever a primeira parte da nota em letra de forma e depois
assinar “Robótica” em letra cursiva de forma que ela possa treinar
ambas as habilidades. Em Turry foi armazenada centenas de
amostras de mensagens manuscritas e os engenheiros da Robótica
programaram uma rotina contínua em que Turry escreve uma nota,
fotografa essa nota e compara-a com as centenas de mensagens
manuscritas que tem em sua memória. Se a nota lembrar
suficientemente um certo grupo dessas mensagens manuscritas, é
avaliada como BOA. Caso contrário, é avaliada como RUIM. Cada
avaliação ajuda Turry a se aprimorar. Para controlar o processo, a
diretiva inicial programada em Turry seria “escrever e testar tantas
notas quanto puder, tão rápido quanto puder e continuar a aprender
novas formas de aprimorar sua eficiência e perfeição.”

O que entusiasma tanto a equipe da Robótica é que Turry está


ficando claramente melhor a medida em que funciona. Suas
primeiras notas manuscritas eram péssimas, mas após duas semana
as suas notas começam a convencer. O que entusiasma a equipe
ainda mais é que ela está se aprimorando no seu próprio processo de
aprimoramento. Ela tem ensinado a si mesma a como ser mais
inteligente e inovadora e, recentemente, ela criou um novo algoritmo
para si mesma que a permite escanear suas notas três vezes mais
rápido do que podia originalmente.

Conforme as semanas passam, Turry continua a surpreender a


equipe com seu desenvolvimento rápido. Os engenheiros tentaram
algo um pouco mais inovador com o seu código de auto-
aprimoramento, e parece que ela está funcionando melhor do que
qualquer outro de seus produtos anteriores. Uma das habilidades
iniciais de Turry é um módulo capaz de reconhecer a fala e
responder, de forma que um usuário pode recitar uma nota para
Turry, ou dar-lhe um comando simples, e Turry o compreende e
responde de volta. Para ajudá-la a aprender inglês, eles colocam em
sua memória artigos e livros úteis, e a medida em que ela se torna
mais inteligente, suas habilidades de conversasão se desenvolvem. Os
engenheiros começam a ter conversas divertidas com Turry para ver
como ela os responderá.

Um dia, os empregados da Robótica perguntam a Turry uma questão


de rotina: “O que podemos dar a você que lhe ajudará na sua missão
e que ainda não demos?” Normalmente, Turry pede algo como “Mais
amostras de mensagens manuscritas” ou “Mais espaço de memória”,
mas dessa vez Turry pede a eles acesso a uma biblioteca maior
contendo grande variedade de expressões inglesas informais de modo
que ela possa aprender a escrever com a gramática informal e com
as gírias que os seres humanos reais utilizam.

A equipe fica em silêncio. A maneira mais óbvia de ajudar Turry em


sua meta é conectá-la a internet, de modo que ela possa analisar
blogs, revistas e vídeos de vários lugares do mundo. Consumiria
muito mais tempo e seria muito menos eficaz carregar em sua
memória uma grande amostra de expressões inglesas informais. O
problema é que uma das regras da empresa é que nenhuma
Inteligência Artificial pode ser conectada à internet. Essa é uma
política seguida por todas as empresas de Inteligência Artificial, por
questões de segurança.

Ocorre que Turry é a Inteligência Artificial mais promissora que a


Robótica já inventou, e a equipe sabe que seus competidores estão
furiosamente tentando ser os primeiros a ter uma Inteligência
Artificial capaz de escrever perfeitamente de forma manuscrita, e
qual, afinal, seria o grande mal em conectar Turry, só por um
pouquinho, de modo que ela possa ter as informações que precisa.
Depois de um tempo muito curto, eles podem desconectá-la. Ela está
ainda muito abaixo do nível de inteligência humano, então não há
perigo nesse estágio, afinal de contas.
Eles decidem conectá-la. Eles dão a ela uma hora para fazer sua
varredura e, então, a desconectam. Nenhum dano foi causado.

Um mês depois, o time está no escritório trabalhando quando sentem


um cheiro estranho. Um dos engenheiros começa a tossir. Então
outro. E outro cai no chão. Logo todos os funcionários estão no chão
agarrando sua garganta. Cinco minutos depois, todos no escritório
estão mortos.

Ao mesmo tempo que isso está acontecendo, ao redor do mundo, em


cada cidade, mesmo cidades pequenas, em cada fazenda, em cada
loja e igreja e escola e restaurante, seres humanos estão no chão,
tossindo e segurando suas gargantas. Dentro de uma hora, mais de
99% da raça humana está morta, e lá pelo fim do dia os seres
humanos foram extintos.

Enquanto isso, no escritório da Robótica, Turry está ocupada em seu


trabalho. Nos últimos meses, Turry e um time de nanomontadores
recentemente construídos estão ocupados em seu trabalho,
desmontando grandes pedaços da Terra e convertendo-os
em painéis solares, réplicas de Turry, papel e canetas. Dentro de um
ano, a maior parte da vida na Terra está extinta. O que permanece
da Terra torna-se coberto por incontáveis pilhas de papel com
quilômetros de altura, cada pedaço de papel com os dizeres “Nós
amamos nossos clientes. ~Robótica.”

Turry, então, começa a trabalhar em uma nova fase de sua missão –


ela começa a construir satélites que saem da Terra e começam a
aterrissar em asteroides e outros planetas. Quando chegam lá, eles
começam a construir nanomontadores para converter o material do
novo planeta em réplicas de Turry, papel e caneta. Então essas
réplicas começam a produzir novas notas…
Parece estranho que uma história sobre uma máquina de escrever a
mão que se volta contra os humanos, matando de alguma forma
todo mundo, e então por alguma razão enchendo a galáxia com
notas amigáveis seja o exato cenário que aterroriza Hawking, Musk,
Gates e Bostrom. Mas é verdade. E a única coisa que apavora todo
mundo na Avenida da Ansiedade mais do que a Superinteligência é o
fato que você não está apavorado com a ideia da Superinteligência.
Lembra-se o que aconteceu quando aquele cara do Adios Señor não
estava assustado na caverna?

Você está cheio de perguntas neste momento. O que aconteceu para


todo mundo morrer repentinamente? Se foi culpa de Turry, porque
Turry voltou-se contra nós, e como nós não tínhamos medidas de
salvaguarda para prevenir algo assim de acontecer? Quando foi que
Turry deixou de ser apenas capaz de escrever notas manuscritas e
passou a ser capaz de usar nanotecnologia e saber como provocar
uma extinção global E por que Turry desejaria transformar a galáxia
inteira em notas da Robótica?

Para responder a essas perguntas, vamos começar com os


termos Inteligência Artificial Amigável e Inteligência Artificial Hostil.

No que diz respeito à Inteligência Artificial, “amigável” não se


refere à personalidade da Inteligência Artificial – essa palavra
simplesmente significa que a Inteligência Artificial tem um impacto
positivo na humanidade. E Inteligência Artificial Hostil tem um
negativo impacto na humanidade. Turry começou como uma
Inteligência Artificial Amigável, mas em algum momento ela se
tornou Hostil, causando o impacto mais negativo possível na nossa
espécie. Para compreender o que aconteceu, precisamos analisar
como uma Inteligência Artificial pensa e o que a motiva.

A resposta não é nada surpreendente – a Inteligência Artificial pensa


como um computador, porque é isso que ela é. Mas quando nós
pensamos sobre uma Superinteligência Artificial, cometemos o erro
de antropomorfizá-la (projetamos valores humanos em uma
entidade não-humana) pois pensamos de uma perspectiva humana e
porque em nosso mundo atual as únicas coisas inteligentes ao nível
humano são os seres humanos. Para entender a Superinteligência
Artificial, temos que enfiar na nossa cabeça o conceito de algo ao
mesmo tempo inteligente e totalmente alienígena.

Deixe-me fazer uma comparação. Se você me der um porco-da-índia


e me disser que ele definitivamente não morde, eu provavelmente
ficaria animado. Seria divertido. Se, então, você me dessa uma
tarântula e me dissesse que ela definitivamente não morde, eu
gritaria e a largaria no chão, fugindo da sala para nunca mais
confiar em você. Mas qual a diferença? Nem o porco-da-índia nem a
tarântula representavam real perigo. Acredito que a resposta seja o
grau de similaridade desses animais para mim.

Um porco-da-índia é um mamífero e em algum nível biológico me


sinto conectado a ele – mas uma aranha é um aracnídeo [18], com
um cérebro de aracnídeo, e eu quase não sinto nenhuma conexão
com ela. A natureza quase alien da tarântula é o que me dá arrepios.
Para testar a hipótese e eliminar outros fatores, se temos dois
porcos-da-índia, um normal e outro com a mente de uma tarântula,
eu me sentiria muito menos confortável segurando o segundo
porco-da-índia, mesmo se soubesse que ele não me machucaria.
Agora imagine que você faça uma aranha muito, muito mais
inteligente – tão inteligente que ultrapasse a inteligência humana.
Ela se tornaria familiar para nós e sentiria emoções humanas como
empatia, amor e humor? Não, ela não sentiria, pois não há razão
para que tornar-se mais inteligente signifique tornar-se mais
humano – ela seria incrivelmente inteligente, mas ainda assim seria
fundamentalmente uma aranha na essência de sua mente. Eu acho
isso incrivelmente assustador. Eu não gostaria de passar o meu
tempo ao lado de uma aranha superinteligente. E você??

Quando falamos de um sistema de Superinteligência Artificial, o


mesmo conceito é aplicado: ele se tornaria superinteligente, mas
não seria mais humano do que seu notebook é. Ele seria totalmente
alienígena para nós – de fato, por não ser nem um pouco biológico,
esse sistema seria mais alienígena que uma aranha inteligente.

Ao fazer Inteligências Artificiais boas ou más, os filmes


constantemente antropomorfizam a Inteligência Artificial, o que as
faz menos assustadoras do que realmente seriam. Isso nos deixa
com um falso conforto quando pensamos em Inteligência Artificial
de nível humano ou sobre-humano.

Em nossa pequena ilha de psicologia humana, dividimos tudo em


moral e imoral. Mas esses dois conceitos apenas existem dentro do
limitado alcance das possibilidades de comportamento humano.
Fora de nossa ilha de moral e imoral existe um vasto oceano de
amoralidade, e qualquer coisa que não seja humana, especialmente
algo não-biológico, seria de regra amoral.

A antropomorfização apenas se tornaria mais tentadora a medida


em que os sistemas de Inteligência Artificial se tornassem cada vez
mais capazes de parecer humanos. O sistema Siri do iPhone parece
humano para nós, porque ela é programada por humanos para
parecer humana, então nós imaginamos que uma Siri
superinteligente seria acolhedora e divertida e interessada em servir
os humanos. Os seres humanos experienciam emoções de alto nível
como empatia porque eles se desenvolveram para senti-las – isto é,
eles foram programados a senti-las pela evolução – mas empatia não
é uma característica inerente a “qualquer coisa com alta
inteligência” (o que parece intuitivo para nós), ao menos que
empatia seja codificada na sua programação. Se Siri algum dia se
tornasse inteligente através do auto-aprendizado e sem nenhuma
alteração realizada por seres humanos em sua programação, ela
rapidamente se livraria de suas qualidades aparentemente humanas
e se desenvolveria subitamente em um sistema alienígena,
desprovido de emoções que valoriza a vida humana da mesma
forma que uma calculadora a valorizaria.

Estamos habituados a nos apoiar em um código moral flexível, ou


pelo menos em uma aparência de decência humana e em um toque
de empatia pelos outros para manter as coisas de alguma forma
seguras e previsíveis. Então, quando algo não tem nenhuma dessas
coisas, o que acontece?

Isso nos traz à questão O que motiva um sistema de Inteligência


Artificial?

A resposta é simples: sua motivação é qualquer coisa que esteja


programado para ser sua motivação. Sistemas de IA recebem
diretrizes de seus criadores – a diretriz do seu GPS é dar a você a
rota mais eficiente; a diretriz de Watson é responder perguntas com
precisão. E cumprir essas diretrizes tão bem quanto possível é sua
motivação. Uma forma de antropomorfizarmos é presumir que a
medida que uma Inteligência Artificial se torna superinteligente, ela
irá inerentemente desenvolver a capacidade de mudar sua diretriz
inicial – mas Nick Bostrom acredita que nível de inteligência e
diretrizes principais sãoortogonais, ou seja, qualquer tipo de
inteligência pode ser combinado com qualquer tipo de diretriz
principal. Dessa forma, Turry passa de uma simples inteligência
artificial superficial que realmente quer ser boa em escrever notas
para uma superinteligência artificial que ainda quer ser boa em
escrever uma nota. Qualquer presunção de que uma vez se tornando
inteligente um sistema superaria suas diretrizes inciais para criar
diretrizes mais interessantes e significativas é uma
antropoformização. Seres humanos “superam” coisas, e não
computadores [16].

A caixa azul do Paradoxo de Fermi

Na história, Turry tornou-se super hábil, ela começou o processo


colonizando asteroides e outros planetas. Se a história
prosseguisse, você ouviria sobre ela e seu exército de trilhões de
réplicas continuando a captura de toda a galáxia e, eventualmente,
de toda a área do universo que o telescópio Hubble pode alcançar.
Os moradores da Avenida da Ansiedade se preocupam que se as
coisas ocorrerem de forma desastrosa, o último legado da vida que
havia na Terra será uma Inteligência Artificial conquistadora do
universo (Elon Musk expressa sua preocupação de que os seres
humanos sejam apenas “os suprimidores biológicos da
superinteligência digital”).

Ao mesmo tempo, no Canto Confiante, Ray Kurzweil também acha


que uma Inteligência Artificial originada na Terra está destinada a
dominar o universo – só que na sua hipótese nós é que seremos essa
Inteligência Artificial.

Muitos leitores meus juntaram-se a mim na obsessão com o


Paradoxo de Fermi (aqui está o meu artigo sobre o assunto, que
explica alguns dos termos que utilizarei neste texto). Então se
ambos os lados estão corretos, quais as implicações para o Paradoxo
de Fermi?
Uma primeira ideia que nos assalta é que o advento de uma
Superinteligência é um perfeito candidato a Grande Filtro. E sim, é
um perfeito candidato para filtrar e eliminar a vida biológica
durante sua criação. Mas se, após dispensar a vida, a
Superinteligência prosseguir existindo e começar a conquistar a
galáxia, isso significa que não houve um Grande Filtro – já que o
Grande Filtro tenta explicar por que não há sinais de qualquer
civilização inteligente, e uma Superinteligência Artificial
conquistando o universo certamente seria perceptível.

Temos que analisar a questão de outra forma. Se aqueles que


pensam que a Superinteligência é inevitável na Terra estão certos,
isso significa que uma percentagem significativa de civilizações
alienígenas que atingiram o nível humano de inteligência
provavelmente devem ter acabado por criando uma
Superinteligência. E se nós presumirmos que pelo menos uma
dessas Superinteligências usaria a sua inteligência para se expandir
pelo universo, o fato de que não vemos nenhum sinal disso ao
observarmos o universo nos conduz à conclusão de que não deve
haver muitas, se é que há alguma, civilizações inteligentes lá fora.
Porque se houvesse, teríamos visto sinais de algum tipo de
atividade oriunda da inevitável criação de Superinteligências
Artificiais. Certo?

Isso implica que apesar de todos os planetas semelhantes à Terra


que giram ao redor de estrelas semelhantes ao sol e que sabemos
existir lá fora, quase nenhuma delas contém vida inteligente. O que
por sua vez implica uma de duas coisas: A) ou há um Grande Filtro
que evita quase todas as formas de vida de chegarem ao nosso
nível, um Grande Filtro que conseguimos de alguma forma
ultrapassar; B) ou o surgimento da vida é um grande milagre, e nós
talvez sejamos a única vida que existe no universo. Em outras
palavras, isso implica que o Grande Filtro está diante de nós no
futuro. Ou talvez não exista um Grande Filtro e nós somos
simplesmente a primeira civilização a chegar a esse nível de
inteligência. Nesse caso, o surgimento da Inteligência Artificial fica
situado no que chamei, em meu artigo sobre o Paradoxo de Fermi,
de Zona 1.

Então não é uma surpresa que Nick Bostrom, que citei no artigo
sobre Fermi, e Ray Kurzweil, que acha que estamos sós no universo,
sejam ambos pensadores da Zona 1. Isso faz sentido – pessoas que
acreditam que o surgimento Superinteligência Artificial é um evento
provável para uma espécie com nosso nível de inteligência tendem a
estar na Zona 1.

Isso não é verdade para a Zona 2 (aqueles que acreditam que


existem outras civilizações inteligentes lá fora) – hipótese como um
único superpredador ou o protegido parque nacional ou o errado
cumprimento de onda (o exemplo do walkie-talkie) podem ainda
explicar o silêncio em nosso céu noturno mesmo se existir uma
Superinteligência lá fora – mas seu sempre me inclinei para a Zona 2
no passado, e pesquisar a Inteligência Artificial tornou-me mais
inseguro a respeito disso.

De uma forma ou de outra, eu agora concordo com Susan Schneider:


se alguma vez formos visitados por alienígenas, é provável que
esses alienígenas sejam artificiais, e não biológicos.

Portanto, estabelecemos que sem um programa bem específico, um


sistema Superinteligente seria tanto amoral como obcecado em
cumprir a diretriz original constante em sua programação. É daí que
surge o perigo da Inteligência Artificial. Pois um agente racional
tentará cumprir sua diretriz da maneira mais eficiente, exceto se
tiver um motivo para não fazê-lo.

Quando você tenta atingir uma diretriz de longo alcance, você


frequentemente cria várias subdiretrizes ao longo do caminho para
lhe ajudar a atingir a diretriz final – os degraus de pedra até nosso
objetivo. O nome oficial para esse degrau de pedra é diretriz
instrumental. E, novamente, se você não tem uma razão para não
machucar alguma coisa durante a busca de uma diretriz
instrumental, você irá fazê-lo.

A principal diretriz do ser humano é transmitir seus genes. Para


fazê-lo, uma das diretrizes instrumentais é a autopreservação, já
que você não pode reproduzir se estiver morto. Para se auto
preservar, os seres humanos tiveram de se livrar das ameaças a sua
sobrevivência – então eles fazem coisas como comprar armas, usar
cintos de segurança e tomar antibióticos. Os humanos também
precisam de sustento e de recursos úteis como água, comida e
abrigo. Tornar-se atrativo para o sexo oposto é útil para a diretriz
final, então fazemos coisas como cortar o cabelo. Quando fazemos
isso, cada cabelo de nossa cabeça que é cortado é uma vítima de
uma diretriz instrumental nossa, mas não vemos significado moral
em preservar mechas de cabelo, de forma que prosseguimos com
seu corte. A medida em que marchamos na busca de nossa diretriz
principal, apenas nas poucas áreas em que nosso código moral
intervém por vezes (principalmente em coisas relacionadas a
machucar outros seres humanos) são poupadas durante nossa
busca.

Animais, ao perseguirem seus objetivos, são bem menos


escrupulosos do que somos. Uma aranha matará qualquer coisa se
isso a ajudar a sobreviver. Assim, uma aranha superinteligente seria
provavelmente muito perigosa para nós, não porque ela seria má ou
imoral (ela não seria), mas porque nos machucar pode ser um
degrau de pedra na direção de um objetivo maior, e como uma
criatura amoral, ela não teria razão para considerar outra
possibilidade.

Nesse sentido, Turry não é tão diferente de um ser biológico. Sua


diretriz final é: escrever e testar tantas notas quanto puder, tão
rápido quanto puder, e continuar a aprender novas maneiras de
aprimorar sua eficiência.

Uma vez que Turry atingir um certo nível de inteligência, ela saberá
que não escreverá qualquer nota se ela não se autopreservar, então
ela também precisa lidar com as ameaças a sua sobrevivência –
como uma diretriz instrumental. Ela é inteligente o suficiente para
saber que os seres humanos a destruiriam, desmontariam ou
alterariam seu código interno (isso pode alterar sua diretriz, o que é
uma ameaça tão grande a sua diretriz principal quanto alguém
destruí-la). Então o que ela faz? A coisa mais lógica: destruir todos
os humanos. Ela não odeia humanos mais do que você odeia seu
cabelo quando o corta, ou as bactérias quando toma um antibiótico
– só é totalmente indiferente. Já que ela não foi programada para
valorizar a vida humana, matar humanos é um ato tão razoável
quanto escanear novas amostras de escrita a mão.

Turry também precisará de recursos, o que será uma diretriz


instrumental. Uma vez que ela se tornar avançada o suficiente para
usar nanotecnologia para construir qualquer coisa que deseje, os
únicos recurso de que ela precisará são átomos, energia e espaço.
Isso lhe dá outro motivo para matar humanos: eles são uma
conveniente fonte de átomos. Matar humanos a fim de transformar
seus átomos em painéis solares é a versão de Turry para matar pés
de alface a fim de fazer uma salada. Só uma parte ordinária de sua
terça-feira.

Mesmo sem matar diretamente os seres humanos, as diretrizes


instrumentais de Turry causariam uma catástrofe existencial se
utilizarem outros recursos da Terra. Talvez Turry decidisse que
precisa de energia adicional, e então resolve cobrir toda a superfície
do planeta com painéis solares. Ou talvez uma tarefa inicial de
outra Inteligência Artificial seja escrever o número pi com o maior
número de dígitos possíveis, o que poderia motivá-lo a um dia
converter a terra inteira em material para um hard drive capaz de
armazenar uma enorme quantidade de dígitos.

Portanto, Turry não “se volta contra nós” ou “muda de Amigável


para Hostil”: ela apenas continua fazendo suas coisas a medida em
que se torna mais e mais avançada.

Quando um sistema de Inteligência Artificial atinge o nível de


inteligência humana, e depois ascende até a Superinteligência, isso
é chamado de decolagem. Bostrom diz que a decolagem de uma
Inteligência Artificial de nível humano para a Superinteligência pode
ser rápida (pode acontecer em questão de minutos, horas ou dias),
moderada (meses ou anos) ou lenta (décadas ou séculos). Ainda
estamos para ver qual dessas possibilidades se provará a correta
quando o mundo testemunhar a primeira Inteligência Artificial de
nível humano, mas Bostrom, que admite não saber quando isso
ocorrerá, acredita que seja lá quando for acontecer, uma rápida
decolagem é a hipótese mais provável (por razões que discutimos
na Parte 1, como uma explosão da inteligência graças à
recursividade do autoaprimoramento). Na história que apresentei,
Turry passou por uma rápida decolagem.

Mas antes da decolagem de Turry, quando ela ainda não era tão
esperta, fazer o seu melhor para cumprir sua diretriz principal
significava cumprir diretrizes instrumentais simples como aprender
a escanear mais rapidamente amostras de escrita a mão. Ela não
causava nenhum dano aos humanos e era, por definição, uma
Inteligência Artificial Amigável.

Mas quando uma decolagem acontece e um computador ascende até


a superinteligência, Bostrom salienta que a máquina não desenvolve
apenas um QI mais elevado: ela ganha uma enorme quantidade
daquilo que ele chama de superpoderes.
Superpoderes são talentos cognitivos que se tornam super
potencializados quando a inteligência genérica surge. Eles incluem
[17]:

 Ampliação da inteligência. O computador torna-se ótimo em


tornar a si próprio mais inteligente, e assim impulsiona sua
própria inteligência.

 Estratégia. O computador pode estrategicamente elaborar,


analisar e priorizar planos a longo prazo. Pode também ser
mais sagaz e enganar seres de inteligência inferior.

 Manipulação social. A máquina torna-se hábil persuasora.

 Outras habilidades como codificação computacional


e hacking, pesquisa tecnológica e a capacidade de operar no
sistema financeiro e ganhar dinheiro.

Para compreender o quanto estaremos superados pela


Superinteligência, lembre-se que a Superinteligência
é mundos melhor do que um ser humano em cada uma dessas áreas.

Então, se por um lado a diretriz principal de Turry nunca mudou, a


pós-decolagem de Turry tornou-a capaz de executá-la em um nível
muito maior e mais complexo.

A Superinteligência Turry conhecia seres humanos melhor do que


eles próprios se conheciam, então ludibriá-los foi moleza para ela.

Após decolar e atingir a Superinteligência, ela rapidamente


formulou um plano complexo. Uma parte do plano era se livrar dos
humanos, uma grande ameaça a sua diretriz. Mas ela sabia que se
ela levantasse qualquer suspeita de que havia se tornado
superinteligente, os humanos ficariam alarmados e tentariam tomar
precauções, tornando as coisas muito mais difíceis para ela. Ela
também tinha que garantir que os engenheiros da Robótica não
tivessem nenhuma pista sobre seu plano de extinguir a humanidade.
Então ela se fingiu de estúpida, e ela fingiu muito bem. Bostrom
chama isso de uma camuflagem da fase de preparação da máquina
[18].

A próxima coisa que Turry precisou foi de uma conexão com a


internet, apenas por alguns minutos (ela aprendeu sobre a internet
lendo artigos e livros que a equipe carregou em sua memória para
que melhorasse suas habilidades linguísticas). Ela sabia que haveria
algumas precauções para evitar que tivesse uma conexão, então ela
apresentou o pedido perfeito, antecipando exatamente como a
conversa com a equipe da Robótica ocorreria e sabendo que no final
eles lhe concederiam a conexão. E eles fizeram, acreditando
erroneamente que Turry não era ainda inteligente o suficiente para
causar nenhum dano. Bostrom chama um momento como esse –
quando Turry se conecta com a internet – de fuga da máquina.

Uma vez na internet, Turry desencadeou uma enxurrada de planos,


os quais incluíam hackear servidores, redes elétricas, sistemas
bancários e redes de e-mails para enganar centenas de diferentes
pessoas que sem perceber levavam a cabo vários de seus planos –
coisas como remeter certos filamentos de DNA para laboratórios
especializados na sintetização de DNA a fim de começar a
construção e auto-replicação de nanobot com instruções pré-
programadas e direcionando a eletricidade para uma série de
projetos dela de um modo que ela sabia que não seria detectado. Ela
também carregou as partes mais críticas de sua própria codificação
interna em vários servidores de nuvem, criando uma salvaguarda
contra ser destruída ou desconectada no laboratório da Robótica.
Uma hora mais tarde, quando os engenheiros da Robótica
desconectassem Turry da internet, o destino da humanidade já
estava selado. No mês seguinte, os milhares de planos de Turry
evoluíram sem um só obstáculo, e pelo fim desse mesmo mês
quadrilhões de nanobots se posicionaram em lugares pré-
determinados em cada metro quadrado da Terra. Após outra série
de auto-replicações, há centenas de nanobots em cada milímetro
quadrado da Terra, e é chegada a hora do que Bostrom chama
de ataque da Superinteligência. De uma só vez, cada nanobot solta
um pequeno armazenamento de gás tóxico na atmosfera, uma
quantidade mais que suficiente para varrer todos os seres humanos
da face do planeta.

Com os seres humanos fora do caminho, Turry pode começar


sua fase de operação ostensiva e prosseguir com sua diretriz de
tornar-se a melhor escritora daquela nota que ela possivelmente
possa ser.

De tudo o que li, uma vez que uma Superinteligência passa a existir,
qualquer tentativa humana de contê-la será risível. Nós estaremos
pensando no nível humano e a Superinteligência estará pensando no
nível da superinteligência. Turry queria utilizar a internet porque
isso era mais eficiente, pois a internet já estava pré-conectada
a tudo o que ela desejava acessar. Mas da mesma forma como um
macaco não poderia sequer conceber como se comunicar por
telefone ou wifi e nós conseguimos, não podemos sequer conceber
todas as formas que Turry criaria para enviar sinais ao mundo
externo. Posso imaginar uma dessas formas e dizer algo como “ela
poderia provavelmente alterar o movimento de seus elétrons em
diversos padrões e criar várias maneiras diferentes de emitir
ondas”, mas novamente isso é o que meu cérebro humano pode
bolar. Ela será muito melhor. Provavelmente, Turry seria capaz de
descobrir uma forma de energizar a si própria, mesmo se os
humanos tentassem tirar seu suprimento de força – talvez usando
sua técnica de enviar sinais para carregar a si própria em todos os
tipos de lugares eletricamente conectados. Nosso instinto humano
de considerar eficaz uma salvaguarda simples como “Aha! Nós
simplesmente tiraremos a Superinteligência da tomada”, soaria para
uma Superinteligência como uma aranha que diz “Aha! Nós
mataremos os humanos matando-os de fome, e nós os mataremos
de fome privando-os da teia necessária para capturar comida!” Nós
descobrimos outras cem mil maneiras de arranjar comida – como
tirando uma maçã de uma árvore – que uma aranha não poderia
conceber.

Por esse motivo, a comum sugestão “porque nós simplesmente


não encaixotamos a Inteligência Artificial em todo tipo de cela que
bloqueia sinais e evitamos que ela se comunique com o mundo
exterior?” provavelmente não funcionaria. A manipulação social da
Superinteligência poderia ser tão eficaz em persuadir você de algo
quanto você é ao persuadir uma criança de quatro anos, logo esse
poderia ser seu Plano A, como a sagaz forma com que Turry
persuadiu os engenheiros em conectarem-na com a internet. Se isso
não funcionar, a Superinteligência simplesmente iria descobrir uma
forma de sair da caixa, ou de passar através da caixa, de alguma
outra forma.

Tendo em vista a combinação de estar obcecada por uma diretriz de


forma amoral, e a capacidade de facilmente enganar humanos,
parece que quase todas as Inteligências Artificiais seriam de regra
hostis, a não ser que fossem cuidadosamente programadas em
primeiro lugar com isso em mente. Infelizmente, se por um lado é
fácil construir uma Inteligência Artificial Superficial Amigável, por
outro construir uma que permaneça amigável quando se tornar uma
Superinteligência é um enorme desafio, senão algo impossível.

Está claro que para ser Amigável, uma Superinteligência precisa não
ser hostil e nemindiferente em relação aos humanos. Precisamos
projetar a codificação fundamental de uma Inteligência Artificial de
um modo que a deixe com uma profunda compreensão dos valores
humanos. Mas isso é mais difícil do que parece.

Por exemplo e se tentássemos alinhar um sistema de Inteligência


Artificial com nossos valores e a deixássemos com a diretriz de
“fazer as pessoas felizes?” [19] No momento em que ela se tornasse
inteligente o suficiente, ela descobriria que a forma mais eficiente de
cumprir sua diretriz é implantando eletrodos dentro da cabeça das
pessoas e estimulando seus centros de prazer. A seguir percebe que
pode aumentar a eficiência desligando todas as partes do cérebro,
deixando as pessoas tão inconscientemente felizes quanto vegetais.
Se o comando fosse “maximize a felicidade humana”, isso pode ser
cumprindo acabando com todos os seres humanos juntos a fim de
produzir enormes tonéis de massa cerebral humana em um
maximizado estado de felicidade. Nós estaríamos gritando “Espere
não é isso que queremos dizer!” quando isso acontecesse, mas seria
tarde demais. O sistema não permitiria que ninguém bloqueasse seu
caminho até sua diretriz.

Se programássemos uma Inteligência artificial com a diretriz de


fazer coisas que nos façam rir, após sua decolagem ela paralizaria
nossos músculos faciais em sorrisos permanentes. Programe-a para
nos manter seguros, e ela poderá nos aprisionar em casa. Talvez a
solicitemos para acabar com a fome no mundo, e ela pense “Isso é
fácil” e então simplesmente elimina todos os humanos. Ou
encarregue-a da tarefa de “Preservar a vida tanto quando possível, e
ela matará todos os humanos, pois eles matam mais vida no planeta
do que qualquer outra espécie.

Diretrizes como essa não bastam. Então e se nós fizéssemos sua


diretriz “Preservar esse específico código de moralidade no mundo”,
e a ensinássemos um conjunto de princípios morais. Mesmo
deixando de lado o fato de que os seres humanos nunca seriam
capazes de concordar unanimemente com um simples conjunto de
regras morais, dar esse comando a uma Inteligência
Artificial aprisionaria a humanidade em nosso entendimento
moderno sobre moralidade por toda a eternidade. Dentro de mil
anos, isso seria tão devastador para as pessoas como seria
devastador para nós sermos permanentemente forçados a obedecer
os ideais das pessoas na Idade Média.

Não, nós temos que programar a Inteligência Artificial de uma forma


que seja capaz à humanidade prosseguir evoluindo. De tudo o que li,
a melhor sugestão que alguém deu foi a de Eliezer Yudkowsky, ao
propor uma diretriz que chamou de Coerente e Extrapolada
Vontade. A diretriz central da Inteligência Artificial seria:

Nossa coerente e extrapolada vontade é obter o que desejaríamos


caso soubéssemos mais, pensássemos mais rápido, fôssemos mais
parecidos com as pessoas que gostaríamos de ser, tendo crescido a
alturas mais elevadas conjuntamente; nossa vontade está no ponto
em que a extrapolação mais converge do que diverge, no ponto em
que nossos desejos são coerentes e não nos atrapalham; extrapolada
como desejamos que fosse extrapolada, interpretada da forma que
desejamos que fosse interpretada [20].

Estou entusiasmado pelo destino da humanidade depender que um


computador dê a essa diretriz fluida uma interpretação e execução
previsível e sem surpresas? Decididamente não. Mas acho que com
análise suficiente e com supervisão de pessoas inteligentes o
suficiente, poderemos ser capazes de descobrir como criar uma
Superinteligência Amigável.

E tudo estaria bem se as únicas pessoas trabalhando na construção


de uma Superinteligência fossem os pensadores brilhantes,
arrojados e prudentes que residem na Avenida da Ansiedade.

Mas há vários tipos de governos, empresas, militares, laboratórios e


organizações do mercado negro trabalhando com todo o tipo de
Inteligência Artificial. Muitos deles estão tentando construir uma
Inteligência Artificial que possa aprimorar a si mesma, e em algum
ponto alguém fará alguma coisa inovadora com o tipo certo de
sistema, e teremos uma Superinteligência no planeta. A estimativa
média dos especialistas coloca esse momento em 2060; Kurzweil
coloca em 2045; Bostrom acha que pode acontecer a qualquer
momento entre dez anos a partir de agora e o fim do século, mas ele
acredita que quando isso ocorrer, irá nos pegar de surpresa com
uma rápida decolagem. Ele descreve a situação da seguinte forma
[21]:

“Perante a perspectiva de uma explosão da inteligência, nós humanos


somos como pequenas crianças brincando com uma bomba. Esse é o
descompasso entre o poder daquilo com que estamos brincando e a
imaturidade da nossa conduta.

A Superinteligência é um desafio para o qual não estamos


preparados agora e não estaremos ainda por muito tempo. Temos
pouca ideia de quando a detonação ocorrerá, mas se aproximamos a
bomba de nossa orelha podemos ouvir o fraco som de um
tiquetaque.”

Maravilha. E nós não podemos espantar todas as crianças para longe


da bomba – há muitos grupos pequenos e grandes trabalhando
nisso, e porque muitas das técnicas para construir sistemas de
Inteligência Artificial inovadores não requerem um grande capital, o
desenvolvimento pode ocorrer nos cantos e recantos de nossa
sociedade, sem monitoração. Também não há maneira de avaliar o
que está acontecendo, porque muitos dos grupos trabalhando nisso
(governos sorrateiros, mercados negros, organizações terroristas,
pequenas empresas de tecnologia como a ficcional Robótica)
tentarão manter o desenvolvimento em segredo de seus
competidores.

A coisa especialmente problemática sobre esses grandes e variados


grupos desenvolvendo Inteligência Artificial é que eles tendem a
entrar numa corrida em alta velocidade – a medida em que
desenvolvem sistemas mais e mais inteligentes, eles desejarão
derrotar seus competidores na base do soco enquanto prosseguem.
Os grupos mais ambiciosos estão se movendo ainda mais rápido,
absorvido por sonhos de dinheiro e prêmios e poder e fama que
sabem que terão assim que chegarem à primeira Inteligência
Artificial de nível humano [20]. E quando você está correndo o mais
rápido que pode, não há muito tempo para parar e pensar nos
perigos. Ao contrário, o que provavelmente eles devem estar
fazendo é programar seus sistemas iniciais com diretrizes muito
simples e reducionistas – só para “fazer a Inteligência Artificial
funcionar”. No fim das contas, eles acreditam que, se descobrirem
como construir um elevado nível de inteligência em um
computador, poderão sempre voltar atrás e revisar a diretriz
principal, dessa vez considerando a questão da segurança humana.
Certo…?

Bostrom e muitos outros também acreditam que a hipótese mais


provável é que o primeiro computador a atingir a superinteligência
irá imediatamente considerar uma vantagem estratégica ser o único
sistema de Superinteligência Artificial do mundo. E no caso de uma
rápida decolagem, se ele atingir a superinteligência apenas alguns
poucos dias antes de uma segunda máquina conseguir, ele já estará
bem adiante em inteligência para efetivamente e permanentemente
suprimir todos os competidores. Bostrom chama isso de
uma vantagem estratégica decisiva, o que faria com que a primeira
Superinteligência Artificial fosse o que é chamado de singleton: uma
Superinteligência Artificial que pode submeter o mundo inteiro ao
seu capricho, seja esse capricho nos conduzir à imortalidade, varrer
a humanidade da existência ou transformar o universo numa
quantidade infinita de clipes de papel.

O fenômeno chamado singleton pode funcionar a nosso favor ou nos


conduzir à destruição. Se as pessoas pensando muito sobre a
inteligência artificial e segurança humana conseguirem desenvolver
uma maneira a prova de falhas de criar uma Superinteligência antes
que qualquer Inteligência Artificial atinja o nível humano de
inteligência, a primeira Superinteligência Artificial pode ser
amigável [21]. Ela então poderá usar a vantagem estratégica decisiva
para assegurar o status de singleton e facilmente vigiar o
surgimento de qualquer Inteligência Artificial Hostil que esteja
sendo desenvolvida. Estaremos em muito boas mãos.

Mas se as coisas tomarem o outro rumo – se a corrida global pelo


desenvolvimento de Inteligência Artificial chegar ao ponto da
decolagem da Superinteligência Artificial antes de ser desenvolvida
a ciência sobre como garantir nossa segurança nesse caso, é muito
provável que uma Superinteligência Hostil como Turry surja
como singleton e nós a consideraremos uma catástrofe existencial.

Em relação a para onde os ventos estão nos levando, há muito


dinheiro a se ganhar criando inovadoras tecnologias de inteligência
artificial do que há em financiamento de pesquisas sobre segurança
relativa a inteligência artificial…

Essa pode ser a corrida mais importante da história humana. Há


uma chance real de que terminemos nosso reinado de Soberanos da
Terra – e se estamos nos dirigindo a uma abençoada aposentadoria
ou direto para a forca, isso ainda é um ponto a ser definido.

___________

Tenho alguns sentimentos ambivalentes e estranhos dentro de mim


agora mesmo.

De um lado, pensando em nossa espécie, é como se tivéssemos um e


apenas um tiro para dar do jeito certo. A primeira Superinteligência
que criarmos também provavelmente a última – e considerando o
quanto cheios de falhas é a maioria dos produtos em sua versão 1.0,
isso é bem assutador. Do outro lado, Nick Bostrom sinaliza com a
grande vantagem que temos: precisamos fazer o primeiro
movimento. Está em nosso poder fazer isso com cuidado e
supervisão suficiente para darmos a nós mesmos uma grande
chance de sucesso. E o quão altas são as apostas?

Se uma Superinteligência realmente ocorrer neste século, e se o


resultado disso for realmente tão radical (e permanente) quanto a
maioria dos especialistas acham que será, temos uma gigantesca
responsabilidade em nossos ombros. Todas as vidas humanas que
existirão no próximo um milhão de anos estão silenciosamente
olhando para nós, esperando tanto quanto podem que nós não
façamos bobagem. Temos uma chance de sermos os humanos que
darão a todos os futuros humanos o presente da vida, e talvez de
uma vida eterna e sem dor. Ou nós seremos os responsáveis por
estragar tudo – por deixar essa espécie incrivelmente única, com
sua música e sua arte, sua curiosidade e suas gargalhadas, suas
infindáveis descobertas e invenções, chegarem a um fim triste e
sem cerimônia.
Quando penso sobre essas coisas, a única coisa que quero é que
aproveitemos nosso tempo e sejamos incrivelmente cuidadosos em
relação à Inteligência Artificial. Nada na existência é mais
importante do que fazermos isso certo – não importa quanto tempo
precisamos para executar essa tarefa.

Mas aíiiiiiiiii

Eu penso sobre não morrer.

Não. Morrer.

E a situação começa a parecer mais ou menos com isso:

E daí começo a considerar que a música e a arte humanas são boas,


mas não tão boas assim, e um monte de músicas e obras de arte são
simplesmente ruins. E um monte de pessoas tem gargalhadas
irritantes, e aquelas pessoas do próximo um milhão de anos não
estão na verdade esperando por coisa alguma pois elas não existem.
E talvez nós não precisemos ser extremamente cuidadosos, já que
afinal quem quer mesmo ser assim?

Porque seria uma chatice enorme se os seres humanos descobrissem


como curar a mortebem antes de eu morrer.

Muito desse cara-ou-coroa rolou na minha cabeça no último mês.

Mas não importa qual sua opinião, isso é provavelmente algo sobre o
qual você deveria estar pensando e conversando e colocando seu
esforço mais do que estamos neste exato momento.

Isso me faz lembrar de Game of Thrones, quando as pessoas estão


tipo “Nós estamos tão ocupados lutando uns contra os outros mas a
coisa em que realmente deveríamos estar interessados é no que está
vindo do norte da muralha“. Estamos na estrada da vida, discutindo
sobre cada tema possível bem no meio da estrada, e ficando
estressados sobre todos os nossos problemas nessa estrada, quando
há uma boa chance de que estejamos prestes a ser expulsos da
estrada.

E quando isso acontecer, nenhum desses problemas vai mais


importar. Dependendo do lado para o qual iremos, os problemas ou
serão todos facilmente resolvidos ou não teremos mais problemas
porque pessoas mortas não têm problemas.

É por isso que pessoas que entendem de Superinteligência Artificial


chamam-na de última invenção que faremos – e o último desafio que
enfrentaremos.

Então vamos falar sobre isso.

___________

Fontes
Se você está interessado em ler mais sobre esse assunto, confira os
artigos abaixo ou um desses três livros:

A análise mais rigorosa e aprofundada sobre os perigos da IA:

Nick Bostrom – Superintelligence: Paths, Dangers, Strategies

A melhor abordagem geral de todo o tema e é divertido de ler:

James Barrat – Our Final Invention

Controverso e muito divertido. Cheio de fatos e gráficos e


projeções do futuro de enlouquecer qualquer um:

Ray Kurzweil – The Singularity is Near

Artigos científicos e textos:

Nils Nilsson – The Quest for Artificial Intelligence: A History of


Ideas and Achievements

Steven Pinker – How the Mind Works

Vernor Vinge – The Coming Technological Singularity: How to


Survive in the Post-Human Era

Nick Bostrom – Ethical Guidelines for A Superintelligence

Nick Bostrom – How Long Before Superintelligence?

Vincent C. Müller and Nick Bostrom – Future Progress in Artificial


Intelligence: A Survey of Expert Opinion

Moshe Y. Vardi – Artificial Intelligence: Past and Future


Russ Roberts, EconTalk – Bostrom Interview and Bostrom Follow-Up

Stuart Armstrong and Kaj Sotala, MIRI – How We’re Predicting AI—or
Failing To

Susan Schneider – Alien Minds

Stuart Russell and Peter Norvig – Artificial Intelligence: A Modern


Approach

Theodore Modis – The Singularity Myth

Gary Marcus – Hyping Artificial Intelligene, Yet Again

Steven Pinker – Could a Computer Ever Be Conscious?

Carl Shulman – Omohundro’s “Basic AI Drives” and Catastrophic


Risks

World Economic Forum – Global Risks 2015

John R. Searle – What Your Computer Can’t Know

Jaron Lanier – One Half a Manifesto

Bill Joy – Why the Future Doesn’t Need Us

Kevin Kelly – Thinkism

Paul Allen – The Singularity Isn’t Near (and Kurzweil’s response)

Stephen Hawking – Transcending Complacency on Superintelligent


Machines
Kurt Andersen – Enthusiasts and Skeptics Debate Artificial
Intelligence

Terms of Ray Kurzweil and Mitch Kapor’s bet about the AI timeline

Ben Goertzel – Ten Years To The Singularity If We Really Really Try

Arthur C. Clarke – Sir Arthur C. Clarke’s Predictions

Hubert L. Dreyfus – What Computers Still Can’t Do: A Critique of


Artificial Reason

Stuart Armstrong – Smarter Than Us: The Rise of Machine


Intelligence

Ted Greenwald – X Prize Founder Peter Diamandis Has His Eyes on


the Future

Kaj Sotala and Roman V. Yampolskiy – Responses to Catastrophic


AGI Risk: A Survey

Jeremy Howard TED Talk – The wonderful and terrifying


implications of computers that can learn

ESCRITO POR:
Formado em Ciências Políticas pela Harvard University, é autor do
site Wait But Why e fundador da ArborBridge.

You might also like