You are on page 1of 5

As três ondas da IA

A DARPA distingue entre três ondas diferentes de IA, cada uma com suas próprias
capacidades e limitações. Dos três, o terceiro é obviamente o mais emocionante, mas para
entendê-lo corretamente, precisaremos examinar os outros dois primeiro.

Primeira onda de IA: conhecimento artesanal


Na primeira onda da IA, os especialistas conceberam algoritmos e softwares de acordo com
o conhecimento que eles próprios possuíam e tentaram dotar esses programas de regras
lógicas que foram decifradas e consolidadas ao longo da história humana. Essa abordagem
levou à criação de computadores para jogar xadrez e de software de otimização de
entregas. A maior parte do software que usamos hoje é baseada em IA desse tipo: nosso
sistema operacional Windows, nossos aplicativos para smartphones e até mesmo os
semáforos que permitem que as pessoas atravessem a rua quando apertam um botão.

Modria é um bom exemplo de como esta IA funciona. Modria foi contratada nos últimos
anos pelo governo holandês para desenvolver uma ferramenta automatizada que ajudará
casais a se divorciarem com o mínimo envolvimento de advogados. Modria, especializada
na criação de sistemas de justiça inteligentes, aceitou o cargo e desenvolveu um sistema
automatizado que conta com o conhecimento de advogados e especialistas em divórcio.

Na plataforma de Modria, os casais que desejam se divorciar recebem uma série de


perguntas. Estas podem incluir perguntas sobre as preferências de cada progenitor em
relação à guarda dos filhos, distribuição de bens e outras questões comuns. Depois que o
casal responde às perguntas, o sistema identifica automaticamente os temas sobre os quais
concorda ou discorda e tenta direcionar as discussões e negociações para chegar ao
resultado ideal para ambos.

Os sistemas de IA da primeira onda são geralmente baseados em regras claras e lógicas.


Os sistemas examinam os parâmetros mais importantes em cada situação que precisam
resolver e chegam a uma conclusão sobre a ação mais adequada a ser tomada em cada
caso. Os parâmetros para cada tipo de situação são identificados previamente por
especialistas humanos. Como resultado, os sistemas da primeira vaga têm dificuldade em
enfrentar novos tipos de situações. Eles também têm dificuldade em abstrair – pegar
conhecimento e insights derivados de certas situações e aplicá-los a novos problemas.

Resumindo, os sistemas de IA da primeira onda são capazes de implementar regras lógicas


simples para problemas bem definidos, mas são incapazes de aprender e têm dificuldade
em lidar com a incerteza.

Agora, alguns de vocês, leitores, podem neste momento encolher os ombros e dizer que
isso não é inteligência artificial como a maioria das pessoas pensa. A questão é que as
nossas definições de IA evoluíram ao longo dos anos. Se eu perguntasse a uma pessoa na
rua, há trinta anos, se o Google Maps é um software de IA, ela não teria hesitado na
resposta: claro que é IA! O Google Maps pode planejar um percurso ideal para chegar ao
seu destino e até mesmo explicar em linguagem clara para onde você deve se dirigir em
cada cruzamento. E, no entanto, muitos hoje consideram as capacidades do Google Maps
elementares e exigem que a IA execute muito mais do que isso: a IA também deve assumir
o controle do carro na estrada, desenvolver uma filosofia consciente que leve em
consideração os desejos do passageiro e faça com que café ao mesmo tempo.

Bem, acontece que mesmo softwares “primitivos”, como o sistema judiciário de Modria e o
Google Maps, são bons exemplos de IA. E, de fato, os sistemas de IA da primeira onda
estão sendo utilizados em todos os lugares hoje.

Segunda onda de IA: aprendizagem estatística


No ano de 2004, a DARPA abriu seu primeiro Grande Desafio. Quinze veículos autônomos
competiram para completar um percurso de 150 milhas no deserto de Mojave. Os veículos
confiaram na IA da primeira onda – ou seja, uma IA baseada em regras – e provaram
imediatamente o quão limitada esta IA realmente é. Afinal, cada foto tirada pela câmera do
veículo é um novo tipo de situação com a qual a IA tem que lidar!

Dizer que os veículos tiveram dificuldade em percorrer o percurso seria um eufemismo. Eles
não conseguiram distinguir entre diferentes formas escuras nas imagens e não conseguiram
descobrir se se tratava de uma rocha, de um objeto distante ou apenas de uma nuvem
obscurecendo o sol. Como disse o vice-gerente do programa Grand Challenge, alguns
veículos “tinham medo da própria sombra, alucinando obstáculos quando eles não estavam
lá”.

O triste resultado do primeiro DARPA Grand Challenge

Nenhum dos grupos conseguiu completar todo o percurso, e mesmo o veículo de maior
sucesso só conseguiu completar 12 quilômetros de corrida. Foi um fracasso total e absoluto
– exactamente o tipo de investigação que a DARPA adora financiar, na esperança de que
as percepções e lições derivadas destas primeiras experiências conduzissem à criação de
sistemas mais sofisticados no futuro.

E foi exatamente assim que as coisas aconteceram.

Um ano depois, quando a DARPA abriu o Grand Challenge 2005, cinco grupos conseguiram
chegar ao final da pista. Esses grupos confiaram na segunda onda da IA: a aprendizagem
estatística. A propósito, o chefe de um dos grupos vencedores foi imediatamente contratado
pelo Google e encarregado de desenvolver o carro autônomo do Google.

Nos sistemas de IA da segunda onda, os engenheiros e programadores não se preocupam


em ensinar regras precisas e exatas a serem seguidas pelos sistemas. Em vez disso, eles
desenvolvem modelos estatísticos para certos tipos de problemas e depois “treinam” esses
modelos em diversas amostras para torná-los mais precisos e eficientes.

Os sistemas de aprendizagem estatística são altamente bem sucedidos na compreensão do


mundo que os rodeia: conseguem distinguir entre duas pessoas diferentes ou entre vogais
diferentes. Eles podem aprender e se adaptar a diferentes situações se forem devidamente
treinados. No entanto, ao contrário dos sistemas da primeira vaga, são limitados na sua
capacidade lógica: não se baseiam em regras precisas, mas optam por soluções que
“geralmente funcionam suficientemente bem”.

O garoto-propaganda dos sistemas de segunda onda é o conceito de redes neurais


artificiais. Nas redes neurais artificiais, os dados passam por camadas computacionais,
cada uma das quais processa os dados de uma maneira diferente e os transmite para o
próximo nível. Ao treinar cada uma dessas camadas, bem como a rede completa, elas
podem ser moldadas para produzir resultados mais precisos. Muitas vezes, o treinamento
exige que as redes analisem dezenas de milhares de fontes de dados para alcançar até
mesmo uma pequena melhoria. Mas, de um modo geral, este método proporciona melhores
resultados do que os alcançados pelos sistemas da primeira onda em determinados
campos.
Até agora, os sistemas da segunda onda conseguiram superar os humanos no
reconhecimento facial, na transcrição da fala e na identificação de animais e objetos em
imagens. Eles estão dando grandes avanços na tradução e, se isso não bastasse, estão
começando a controlar carros autônomos e drones aéreos. O sucesso destes sistemas em
tarefas tão complexas deixa os especialistas em IA horrorizados, e por uma boa razão:
ainda não sabemos ao certo por que razão funcionam realmente.

O calcanhar de Aquiles dos sistemas da segunda onda é que ninguém sabe ao certo por
que funcionam tão bem. Vemos redes neurais artificiais terem sucesso na execução das
tarefas que lhes são atribuídas, mas não entendemos como o fazem. Além disso, não está
claro se existe realmente uma metodologia – algum tipo de confiança em regras básicas –
por trás das redes neurais artificiais. Em alguns aspectos, são de facto muito parecidos com
o nosso cérebro: podemos lançar uma bola para o ar e prever onde ela vai cair, mesmo sem
calcular as equações de movimento de Newton, ou mesmo sem ter consciência da sua
existência.

Isso pode não parecer um grande problema à primeira vista. Afinal, as redes neurais
artificiais parecem estar funcionando “suficientemente bem”. Mas a Microsoft pode não
concordar com essa avaliação. A empresa lançou um bot nas redes sociais no ano
passado, na tentativa de imitar a escrita humana e iniciar conversas leves com os jovens. O
bot, batizado como “Tai”, deveria replicar os padrões de fala de uma jovem americana de 19
anos e conversar com os adolescentes em sua gíria única. A Microsoft imaginou que os
jovens iriam adorar isso – e de fato adoraram. Muitos deles começaram a pregar partidas a
Tai: contaram-lhe sobre Hitler e o seu grande sucesso, revelaram-lhe que o ataque terrorista
de 11 de Setembro foi um trabalho interno e explicaram em termos inequívocos que os
imigrantes são a proibição da grande nação americana. E assim, algumas horas depois, Tai
começou a aplicar seu conhecimento recém-adquirido, afirmando ao vivo no Twitter que
Hitler era um cara legal e realmente não fez nada de errado.

Foi nesse momento que os engenheiros da Microsoft derrubaram Tai. Seu último tweet foi
que ela estava dando um tempo para refletir sobre as coisas. Pelo que sabemos, ela ainda
está pensando.

Este episódio expôs o desafio de causalidade que os engenheiros de IA enfrentam


atualmente. Poderíamos prever muito bem como os sistemas da primeira onda funcionariam
sob certas condições. Mas com os sistemas de segunda vaga já não conseguimos
identificar facilmente a causalidade do sistema – a forma exacta como os insumos são
traduzidos em resultados e os dados são utilizados para chegar a uma decisão.

Tudo isto não significa que as redes neurais artificiais e outros sistemas de IA de segunda
onda sejam inúteis. Longe disso. Mas está claro que se não quisermos que os nossos
sistemas de IA fiquem tão entusiasmados com o ditador nazi, algumas melhorias são
necessárias. Devemos passar para a próxima e terceira onda de sistemas de IA.

Terceira Onda de IA: Adaptação Contextual


Na terceira vaga, os próprios sistemas de IA construirão modelos que explicarão como o
mundo funciona. Em outras palavras, eles descobrirão por si mesmos as regras lógicas que
moldam o seu processo de tomada de decisão.

Aqui está um exemplo. Digamos que um sistema de IA de segunda onda analise a imagem
abaixo e decida que é uma vaca. Como explica sua conclusão? Muito simplesmente – isso
não acontece.

Há 87% de chance de que esta seja a imagem de uma vaca.

Os sistemas de IA da segunda onda não conseguem realmente explicar as suas decisões –


tal como uma criança não poderia ter escrito as equações de movimento de Newton apenas
observando o movimento de uma bola no ar. No máximo, os sistemas da segunda onda
poderiam nos dizer que há “87% de chance de esta ser a imagem de uma vaca”.

Os sistemas de IA da terceira onda devem ser capazes de acrescentar alguma substância à


conclusão final. Quando um sistema de terceira onda verificar a mesma imagem,
provavelmente dirá que, como há um objeto de quatro patas ali, há uma chance maior de
ser um animal. E como sua superfície é branca manchada de preto, é ainda mais provável
que se trate de uma vaca (ou de um cachorro dálmata). Como o animal também possui
úberes e cascos, é quase certo que seja uma vaca. Isso, supostamente, é o que diria um
sistema de IA de terceira onda.

Os sistemas da terceira onda poderão contar com diversos modelos estatísticos diferentes
para alcançar uma compreensão mais completa do mundo. Eles serão capazes de treinar
sozinhos – assim como o Alpha-Go fez quando jogou um milhão de partidas de Go contra si
mesmo, para identificar as regras de bom senso que deveria usar. Os sistemas da terceira
onda também seriam capazes de obter informações de diversas fontes diferentes para
chegar a uma conclusão matizada e bem explicada. Estes sistemas poderiam, por exemplo,
extrair dados de vários dos nossos dispositivos vestíveis, da nossa casa inteligente, do
nosso carro e da cidade em que vivemos, e determinar o nosso estado de saúde. Eles
serão até capazes de se programar e, potencialmente, desenvolver o pensamento abstrato.

O único problema é que, como diz o próprio diretor do Gabinete de Inovação da Informação
da DARPA, “há muito trabalho a ser feito para podermos construir estes sistemas”.
E este, no que diz respeito ao clipe da DARPA, é o estado da arte dos sistemas de IA no
passado, presente e futuro.

O que tudo isso significa


O vídeo da DARPA explica, de facto, as diferenças entre os diferentes sistemas de IA, mas
pouco contribui para atenuar os receios daqueles que nos instam a ter cautela no
desenvolvimento de motores de IA. A DARPA deixa claro que não estamos nem perto de
desenvolver uma IA ‘Terminator’, mas esse nunca foi o problema em primeiro lugar.
Ninguém está a tentar afirmar que a IA hoje é suficientemente sofisticada para fazer todas
as coisas que deverá fazer dentro de algumas décadas: ter uma motivação própria, tomar
decisões morais e até desenvolver a próxima geração de IA.

Mas a concretização da terceira vaga é certamente um grande passo nessa direcção.

Quando os sistemas de IA da terceira onda forem capazes de decifrar novos modelos que
irão melhorar o seu funcionamento, por si próprios, eles serão essencialmente capazes de
programar novas gerações de software. Quando compreenderem o contexto e as
consequências das suas ações, serão capazes de substituir a maioria dos trabalhadores
humanos, e possivelmente todos eles. E por que lhes será permitido remodelar os modelos
através dos quais avaliam o mundo, então serão realmente capazes de reprogramar a sua
própria motivação.

Tudo o que foi dito acima não acontecerá nos próximos anos e certamente não será
alcançado integralmente nos próximos vinte anos. Como expliquei, nenhum pesquisador
sério de IA afirma o contrário. A principal mensagem dos investigadores e visionários que
estão preocupados com o futuro da IA – pessoas como Steven Hawking, Nick Bostrom,
Elon Musk e outros – é que precisamos de começar a perguntar agora mesmo como
controlar estes sistemas de IA de terceira onda, do tipo isso se tornará onipresente daqui a
vinte anos. Quando consideramos as capacidades destes sistemas de IA, esta mensagem
não parece absurda.

A última onda
A questão mais interessante para mim, na qual a DARPA parece não se aprofundar, é como
seria a quarta onda de sistemas de IA. Dependeria de uma emulação precisa do cérebro
humano? Ou talvez os sistemas da quarta onda apresentariam mecanismos de tomada de
decisão que ainda somos incapazes de compreender – e que serão desenvolvidos pelos
sistemas da terceira onda?

Estas questões ficam em aberto para ponderarmos, examinarmos e pesquisarmos.

Essa é a nossa tarefa como seres humanos, pelo menos até que os sistemas da terceira
onda continuem a fazer isso também.

You might also like