You are on page 1of 17

Machine Translated by Google

O Manual Routledge de
Integrações Europeias

Editado por Thomas Hoerber,


Gabriel Weber e Ignazio Cabras
Publicado pela primeira vez em 2022

ISBN: 978-0-367-20307-8 (hbk)


ISBN: 978-1-032-18242-1 (pbk)
ISBN: 978-0-429-26208-1 (ebk)

14
Inteligência artificial no
União Europeia
Política, ética e regulamentação
Sem Ulnicane
(CC BY-NC-ND 4.0)

DOI: 10.4324/9780429262081-19
Machine Translated by Google

14
Inteligência artificial no
União Europeia
Política, ética e regulamentação

Sem Ulnicane

No geral, a ambição é que a Europa se torne a região líder mundial no


desenvolvimento e implantação de IA de ponta, ética e segura, promovendo uma
abordagem centrada no ser humano no contexto global.
(Comissão Europeia, 2018d: 1)

Introdução: inteligência artificial – novidade


e continuidade na política da UE
Desde 2016, formuladores de políticas, indústria, sociedade civil, grupos de reflexão, mídia e
consultorias em todo o mundo se envolveram em debates apaixonados sobre que tipo de política e
governança facilitariam um desenvolvimento socialmente benéfico e o uso de inteligência artificial
(IA) e ajudariam a mitigar quaisquer riscos associados (Cath et al., 2018; Galanos, 2019; Ulnicane et
al., 2021a, 2021b; Vesnic-Alujevic et al., 2020). Segundo a OCDE, no início de 2020, “em todo o
mundo, pelo menos 50 países (incluindo a União Europeia) desenvolveram ou estão em processo de
desenvolvimento de uma estratégia nacional de IA” (OCDE, 2020), enquanto uma revisão global em
2019 identificou 84 diretrizes éticas de IA (Jobin et al., 2019).
Esses documentos de política e diretrizes éticas foram lançados no contexto de avanços recentes
em IA, que é definida (para uma discussão da definição de IA, consulte a próxima seção) como
“sistemas que exibem comportamento inteligente analisando seu ambiente e tomando ações
” (Comissão Europeia 2018a: 2). Embora desenvolvimentos pioneiros no campo da IA tenham ocorrido
já nas décadas de 1950 e 1960, avanços recentes em hardware e big data (ver, por exemplo, Marcus
e Davis, 2019) permitiram uma ampla gama de aplicações de IA em muitas áreas, desde educação e
saúde até transporte (Dyrhauge, 2022) e militar (Karampekios e Oikonomou, 2022; Sweeney, 2022).
Aplicações emergentes de IA aumentaram as esperanças de benefícios sociais e econômicos, bem
como preocupações sobre seu impacto problemático em empregos, democracia e outras áreas.

Neste contexto, a União Europeia (UE) tem discutido ativamente como pode facilitar o
desenvolvimento e uso da IA, que tipo de IA gostaria de desenvolver e como gostaria de contribuir
para o desenvolvimento global da IA. Inicialmente, uma das principais preocupações do

254 DOI: 10.4324/9780429262081-19


Machine Translated by Google

Inteligência artificial na UE

UE tem sido que está ficando para trás da América do Norte e da Ásia. O relatório “10 Imperatives for Europe in
the Age of AI and Automation” elaborado pela McKinsey & Company para a EU Heads of State Tallinn Digital
Summit em setembro de 2017 afirmou que “a Europa, embora progrida, está atrás dos Estados Unidos e da
China” ( McKinsey & Company, 2017). Em particular, o relatório destacou que “a Europa em geral está atrasada
em investimentos externos em IA, que totalizaram US$ 3 a US$ 4 bilhões em 2016, em comparação com US$ 8 a
US$ 12 bilhões na Ásia e US$ 15 a US$ 23 bilhões na América do Norte” (McKinsey & Company, 2017). . Este foi
um relatório influente e é citado nos principais documentos da UE sobre IA (ver Tabela 14.1): a estratégia de IA de
2018 (Comissão Europeia, 2018a: 5) e o plano coordenado (Comissão Europeia, 2018b: 3), bem como o livro
branco de 2020 sobre IA (Comissão Europeia, 2020a: 4).

Embora a IA tenha se destacado na política da UE há relativamente pouco tempo, as preocupações com o


atraso da UE em relação aos Estados Unidos (EUA) e à Ásia (anteriormente Japão, mais recentemente China) em
ciência, tecnologia e inovação têm sido uma importante força motriz para a integração europeia. ção na política de
pesquisa e tecnologia desde seus estágios iniciais na década de 1950 e tiveram destaque durante o lançamento
do Espaço Europeu de Pesquisa em 2000 e a estratégia Europa 2020 para um crescimento inteligente, sustentável
e inclusivo em 2010 (Chou e Gornitzka, 2014; Mitzner, 2020; Ulnicane, 2015, 2016). Tal foco na competitividade
global pode ajudar a mobilizar recursos, mas também foi criticado, por exemplo, por Paul Krugman, em seu influente
ensaio de 1994 “Competitiveness: A Dangerous Obsession”, afirmando que os países não competem como
empresas, e o economia internacional não é um jogo de soma zero (Krugman, 1994).

Para analisar a política da UE para IA em uma perspectiva comparativa, este capítulo se concentrará em duas
questões principais. Primeiro, como a UE está desenvolvendo sua política de IA com foco nos principais atores e
ideias de políticas? Em segundo lugar, como a UE está posicionando sua política de IA em relação a outras
potências globais?
Para abordar essas questões, este capítulo se baseia no debate sobre a "Europa como potência" nos estudos
europeus, que examina a base do poder da UE como ator global. Ele usa os dois conceitos principais neste debate,
a saber, “Normative Power Europe” (Manners, 2002) e “Market Power Europe” (Damro, 2012) para explorar se, ao
desenvolver sua abordagem à IA, a UE prioriza suas normas ou melhor, o seu mercado único. O conceito de Poder
Normativo Europa (Manners, 2002) centra-se no poder da UE na difusão das suas normas, que se desenvolveram
através de uma série de declarações, tratados, políticas, critérios e condições. Eles consistem em cinco normas
centrais (paz, liberdade, democracia, estado de direito e respeito pelos direitos humanos e liberdades fundamentais),
bem como quatro normas 'menores' (solidariedade social, antidiscriminação, desenvolvimento sustentável e boa
governança) (Boas maneiras , 2002). Alternativamente, o conceito de Market Power Europe destaca que “embora
a identidade da União Europeia (UE) possa ter características normativas e/ou outras, é fundamentalmente um
grande mercado único com características institucionais significativas e grupos de interesse concorrentes” (Damro,
2012: 682). Ser o maior mercado único do mundo fornece a base para o poder global da UE “através da
externalização de políticas econômicas e sociais relacionadas ao mercado e medidas regulatórias” (Damro, 2012:
682).

A análise neste capítulo baseia-se em documentos de política, literatura e mídia, bem como na participação em
eventos como as Assembleias da European AI Alliance em 2019 e 2020. Este capítulo prossegue da seguinte
forma: após apresentar definições e expectativas em relação à IA, ele traça o desenvolvimento da política da UE
para IA analisando os principais documentos lançados pelo Parlamento Europeu, a Comissão Europeia e
especialistas. Em sua conclusão, o capítulo apresenta as principais conclusões sobre a abordagem emergente da
UE à IA no contexto da competição e cooperação globais.

255
Machine Translated by Google

Sem Ulnicane

IA: definição e expectativas na política da UE


Existem muitas definições de IA. Uma definição amplamente utilizada de IA na UE vem da estratégia de IA de 2018, que
define a IA da seguinte forma:

A Inteligência Artificial (IA) refere-se a sistemas que exibem comportamento inteligente analisando seu ambiente e
realizando ações – com algum grau de autonomia – para atingir objetivos específicos.

Os sistemas baseados em IA podem ser puramente baseados em software, atuando no mundo virtual (por
exemplo, assistentes de voz, software de análise de imagem, mecanismos de pesquisa, sistemas de reconhecimento
de voz e face) ou a IA pode ser incorporada a dispositivos de hardware (por exemplo, robôs avançados, carros
autônomos, drones ou aplicativos de Internet das Coisas).
(Comissão Europeia, 2018a: 2)

Esta definição foi citada e expandida nos documentos subseqüentes. Normalmente, a IA inclui abordagens e técnicas,
como aprendizado de máquina, raciocínio de máquina e robótica (Comissão Europeia, 2019a: 6), e os principais elementos
que compõem a IA são dados e algoritmos (Comissão Europeia, 2020a: 16). A distinção entre 'IA restrita' e 'IA geral' é
frequentemente usada (ver, por exemplo, Boucher, 2020; Comissão Europeia, 2019a: 5). O estágio atual de desenvolvimento
da IA é descrito como 'IA estreita', em que os sistemas de IA podem executar uma ou apenas algumas tarefas específicas.
No futuro, espera-se que seja desenvolvida uma 'IA geral' capaz de realizar a maioria das atividades humanas.

As descrições da IA nos documentos de política da UE demonstram altas expectativas em relação à IA como uma
tecnologia transformadora com impactos abrangentes. A estratégia de IA da UE descreve a IA como “uma das indústrias
mais estratégicas do século XXI”, sugerindo que “tal como o motor a vapor ou a eletricidade no passado, a IA está a
transformar o nosso mundo, a nossa sociedade e a nossa indústria” (Comissão Europeia, 2018a : 2). Ao mesmo tempo, os
documentos de política destacam os riscos potenciais associados à IA. A necessidade de equilibrar o alto potencial e os
riscos da IA é exemplificada no parágrafo de abertura do Livro Branco da UE sobre IA, que afirma que:

A Inteligência Artificial está se desenvolvendo rapidamente. Vai mudar as nossas vidas melhorando os cuidados de
saúde (por exemplo, tornando o diagnóstico mais preciso, permitindo uma melhor prevenção de doenças), aumentando
a eficiência da agricultura, contribuindo para a mitigação e adaptação às alterações climáticas, melhorando a eficiência
dos sistemas de produção através da manutenção preditiva, aumentando a segurança dos europeus, e de muitas
outras formas que mal podemos imaginar. Ao mesmo tempo, a IA envolve uma série de riscos, como tomada de
decisão opaca, discriminação baseada em gênero ou outros tipos de discriminação, intrusão em nossas vidas privadas
ou uso para fins criminosos.

(Comissão Europeia, 2020a: 1)

A política da UE para a IA, como será discutido mais adiante, visa facilitar os impactos positivos da IA e mitigar os riscos.
Embora o potencial transformador da IA seja fortemente enfatizado pelos formuladores de políticas e outros atores dentro e
fora da UE, os especialistas em IA enfatizam que, no momento, ainda existe uma enorme lacuna entre a ambição e a
realidade do que a IA pode fazer (ver, por exemplo, Marcus e Davis , 2019: 18).

Uma mistura de esperanças e preocupações em relação à IA também pode ser vista na pesquisa do Eurobarômetro
(Comissão Europeia, 2020b). Cerca de metade dos inquiridos (51%) concordaram que

256
Machine Translated by Google

Inteligência artificial na UE

intervenção política é necessária para garantir o desenvolvimento ético de aplicativos de IA. Metade dos
participantes da pesquisa (50%) via a saúde como um campo em que o uso da IA seria particularmente
apropriado. Oitenta por cento dos entrevistados indicaram que gostariam de saber quando um serviço digital ou
aplicativo móvel usa IA.

Rumo a uma abordagem europeia da IA? a evolução da política da UE


Muitos atores e instituições da UE estiveram envolvidos na definição da política da UE para IA. A Tabela 14.1
fornece uma cronologia dos principais documentos políticos da UE sobre IA. Além desses marcos importantes,
muitos outros relatórios e opiniões de instituições da UE (por exemplo, Boucher, 2020), especialistas (por exemplo,
EGE, 2018) e as partes interessadas (por exemplo, EESC, 2017) contribuíram para discussões intensivas sobre
a abordagem da UE à IA (Ulnicane et al., 2021a, 2021b; Vesnic-Alujevic et al., 2020). O desenvolvimento da
abordagem da UE à IA envolve vários domínios políticos da UE, incluindo o mercado digital, o mercado interno
e as políticas de investigação e inovação.
Ao desenvolver uma abordagem da UE, os decisores políticos, as partes interessadas e os peritos inspiraram-
se nos desenvolvimentos noutros países e regiões, bem como em anteriores histórias de sucesso da integração
europeia. O relatório de um dos primeiros seminários de política de IA da Comissão Europeia (Comissão
Europeia, 2017a) inclui uma visão geral das iniciativas internacionais dos EUA, China, Japão, Reino Unido,
Alemanha e Emirados Árabes Unidos. Além disso, a ideia de criar uma espécie de CERN (Organização Européia
para Pesquisa Nuclear) para IA foi sugerida neste seminário (e continuou reaparecendo nas discussões
seguintes), referindo-se à instalação de pesquisa em grande escala, que é vista como um das grandes histórias
de sucesso da integração europeia na investigação (Cramer e Hallonsten, 2020; Ryan, 2022). De acordo com o
relatório, no CERN para IA, “especialistas em IA podem discutir os fundamentos da tecnologia e desenvolver
soluções abertas à revisão por pares” (Comissão Europeia, 2017a: 7).

Esta seção analisa os principais documentos de política de IA do Parlamento Europeu, da Comissão


Européia e de especialistas descritos na Tabela 14.1 e como eles incorporam elementos do Poder Normativo
Europeu e do Poder de Mercado Europeu.

Tabela 14.1 Cronologia dos principais documentos políticos da UE sobre IA

Encontro Documento

fevereiro de 2017 Resolução sobre regras de direito civil sobre robótica (Parlamento Europeu, 2017)

abril de 2018 Comunicação “Inteligência Artificial para a Europa” (Comissão Europeia,


2018a)
2018 dezembro Comunicação “Plano Coordenado de Inteligência Artificial” (European
Comissão, 2018b, 2018d)
abril de 2019 Grupo de Peritos Independentes de Alto Nível em Inteligência Artificial criado pela
Comissão Europeia “Diretrizes de Ética para IA Confiável” (European
Comissão, 2019b)
fevereiro de 2020 White paper “On Artificial Intelligence – A European Approach to Excellence and
Confiança” (Comissão Europeia, 2020a)
2021 abril Comunicação “Fomentar uma Abordagem Europeia à Inteligência Artificial”
(Comissão Europeia, 2021): proposta de regulamento e plano coordenado revisto

Fonte: compilação do próprio autor

257
Machine Translated by Google

Sem Ulnicane

O Parlamento Europeu: o estatuto jurídico dos robôs


No início de 2017, o Parlamento Europeu adotou sua resolução sobre Regras de Direito Civil para
Robótica (Parlamento Europeu, 2017). Este não foi apenas o primeiro documento de política da UE sobre
IA, mas também um dos primeiros documentos de política de IA em todo o mundo (Cath et al., 2018).
Este documento foi preparado durante os estágios iniciais dos debates públicos sobre IA caracterizados
pela atenção da mídia às opiniões alarmistas sobre ameaças de IA expressas por figuras públicas Stephen
Hawking e Elon Musk (Galanos, 2019). O clima um tanto sensacionalista e de ficção científica em torno
da IA naquele estágio inicial do debate público pode ser encontrado no documento do Parlamento, que
começa com menções ao monstro de Frankenstein de Mary Shelley e ao robô de Karel Capek e,
posteriormente, invoca as Três Leis da Robótica de Isaac Asi mov de seu conto de 1943 “Runaround”;
estas leis, de acordo com a resolução, “devem ser consideradas como dirigidas aos designers, produtores
e operadores de robôs” (Parlamento Europeu, 2017: 241).
O título deste documento, “Civil Law Rules on Robotics”, sugere um foco bastante específico e uma
parte importante do documento é dedicada a questões de legislação de responsabilidade aplicada à
responsabilidade legal por qualquer dano que possa ser causado por robôs. No entanto, o documento
também aborda questões mais amplas normalmente discutidas em debates sobre políticas de IA, como
preocupações com empregos e a necessidade de apoiar pesquisa, inovação e educação, bem como
trabalhar com princípios éticos, padronização, segurança e proteção. O Parlamento recomenda a
observância do princípio da precaução,1 e sugere que o quadro ético orientador se baseie “nos princípios
e valores consagrados no artigo 2.º do Tratado da União Europeia2 e na Carta dos Direitos Fundamentais,
como a dignidade humana, a igualdade , justiça e equidade, não discriminação, consentimento informado,
vida privada e familiar e proteção de dados” (Parlamento Europeu, 2017: 244).

Nesta resolução, o Parlamento solicita à Comissão que apresente uma proposta de diretiva relativa
às normas de direito civil aplicáveis aos robôs, na sequência das recomendações do Parlamento. Este
documento tornou-se amplamente conhecido devido a uma recomendação particularmente controversa
para criar um status legal para robôs. O Parlamento sugeriu:

criar um estatuto jurídico específico para os robôs a longo prazo, de modo que pelo menos os robôs
autónomos mais sofisticados possam ser estabelecidos como tendo o estatuto de pessoas eletrónicas
responsáveis por reparar quaisquer danos que possam causar e, eventualmente, aplicar a
personalidade eletrónica aos casos em que os robôs tomam decisões autônomas ou interagem com
terceiros de forma independente.
(Parlamento Europeu, 2017: 250)

Essa recomendação recebeu muitas críticas de especialistas em IA e partes interessadas. Uma carta
aberta à Comissão Europeia assinada por mais de 200 pesquisadores de IA e robótica, líderes da indústria
e especialistas em direito e ética afirmou que “criar um status legal de 'pessoa' eletrônica seria ideológico,
sem sentido e não pragmático”. 3 Além disso, os autores da carta aberta enfatizaram que, do ponto de
vista técnico, essa recomendação se baseia na “supervalorização das capacidades reais até mesmo dos
robôs mais avançados” e na percepção dos robôs “distorcida pela ficção científica e alguns recentes
sensacionalistas da imprensa anúncios”, enquanto do ponto de vista legal e ético, é inapropriado criar uma
personalidade jurídica para um robô.
Conforme solicitado, a Comissão respondeu ao Parlamento enfatizando que desenvolverá uma
estratégia abrangente para IA, que incluirá também a avaliação da legislação existente (Comissão
Europeia, 2017b). Embora muitas ideias sobre ética, emprego e necessidade de regulamentação
destacadas pela resolução do Parlamento façam parte da política subsequente da UE

258
Machine Translated by Google

Inteligência artificial na UE

para IA, esse documento é amplamente lembrado devido à sua recomendação altamente controversa
sobre a criação de um status legal para robôs.
A resolução do Parlamento incorpora elementos tanto da Normativa Power Europe quanto da Market
Power Europe. As recomendações para desenvolver um quadro ético baseado em princípios e valores
consagrados no Tratado da União Europeia e na Carta dos Direitos Fundamentais demonstram uma forte
confiança no poder normativo. Ao mesmo tempo, o documento enfatiza a necessidade de regulamentação,
que é um elemento-chave do Market Power Europe. Além disso, o documento também dá atenção a
outras políticas relacionadas ao mercado, como investimento e emprego.

Estratégia de IA para a Europa “em meio a uma competição global feroz”

Após a Cimeira Digital de Tallinn, que discutiu o influente relatório da McKinsey sobre o apoio da UE aos
EUA e à China no investimento em IA (ver introdução), em outubro de 2017, o Conselho Europeu convidou
a Comissão a apresentar uma abordagem europeia à IA (Conselho Europeu , 2017). Em resposta ao
convite do Conselho e à resolução do Parlamento, a Comissão lançou a estratégia da UE para a IA em
abril de 2018 (Comissão Europeia, 2018a).
Nessa época, muitas organizações e países ao redor do mundo já haviam lançado ou estavam prestes a
lançar suas estratégias de IA (Ulnicane et al., 2021b, 2021a). Este contexto é refletido no documento, que
afirma que “no meio de uma concorrência global feroz, é necessário um quadro europeu sólido” (Comissão
Europeia, 2018a: 2) e na sua introdução menciona estratégias recentes de IA e planos de investimento
dos EUA, China, Japão e Canadá.
Esta estratégia estabelece três objetivos, que se tornaram os principais pilares da política de IA da UE.
Primeiro, visa aumentar a capacidade tecnológica e industrial da UE e a adoção da IA em toda a economia,
tanto pelos setores público quanto privado. Isso inclui uma série de atividades, como intensificar os
investimentos, fortalecer a pesquisa e a inovação e disponibilizar mais dados.
A estratégia estabelece uma meta para que os investimentos públicos (UE e Estados Membros) e
privados combinados em IA atinjam mais de 20 bilhões de euros por ano na próxima década (Comissão
Europeia, 2018a: 6).4 Em segundo lugar, a estratégia visa prepare-se para as mudanças socioeconômicas
trazidas pela IA. Este objetivo aborda diretamente uma das principais preocupações sobre IA,
automação e robôs, ou seja, seu impacto no emprego. Embora o documento mencione alguns aspectos
positivos, como robôs fazendo trabalhos que podem ser repetitivos ou mesmo perigosos e novos empregos
surgindo como resultado da IA, o foco principal é lidar com empregos que serão perdidos e 'não deixar
ninguém para trás'. As ações incluem a modernização dos sistemas de educação e formação, antecipando
as mudanças no mercado de trabalho, apoiando as transições no mercado de trabalho e adaptando os
sistemas de proteção social.
Em terceiro lugar, o objetivo é garantir um quadro ético e jurídico adequado, baseado nos valores da
UE, em conformidade com a Carta dos Direitos Fundamentais. Isso inclui orientação sobre regulamentação,
em particular nas áreas de segurança e responsabilidade, cooperação das partes interessadas e
desenvolvimento de diretrizes éticas de IA. Uma ideia abrangente destacada na estratégia é que a Europa
deve defender “uma abordagem à IA que beneficie as pessoas e a sociedade como um todo” (Comissão
Europeia, 2018a: 3) e “colocar o poder da IA ao serviço do progresso humano” ( Comissão Europeia,
2018a: 20).
Esta estratégia tem sido seguida por uma série de ações. Para envolver uma ampla gama de partes
interessadas, a Comissão Europeia criou uma Aliança Europeia de IA. A Aliança está aberta a qualquer
representante da indústria, sociedade civil, academia e outros campos interessados em contribuir para a
política de IA da UE e, em 2019, contava com mais de 2700 membros (Comissão Europeia, 2019c: 2).
Outras atividades definidas na estratégia incluem o desenvolvimento de uma abordagem coordenada

259
Machine Translated by Google

Sem Ulnicane

com os Estados Membros da UE, preparando diretrizes éticas e colaborando internacionalmente; estes
serão discutidos nas seções seguintes.
Semelhante à resolução do Parlamento, esta estratégia contém basicamente os mesmos elementos da
Normativa Power Europe, como a necessidade de desenvolver uma estrutura ética baseada nos valores da
UE consagrados no Tratado e na Carta dos Direitos Fundamentais, bem como nas características da Market
Power Europe , incluindo a necessidade de regulamentação, investimentos e política de mercado de trabalho.

IA 'made in Europe': cooperação e coordenação entre


os Estados-Membros
Na altura em que a estratégia de IA da UE foi lançada, vários Estados-Membros tinham publicado ou
estavam prestes a publicar as suas próprias estratégias nacionais (af Malmborg e Trondal, 2021; Dexe e
Franke, 2020; Köstler e Ossewaarde, 2021; Ossewaarde e Gulenc, 2020 ; Robinson, 2020; Van Roy et al.,
2021). A estratégia da UE (Comissão Europeia, 2018a) refere-se a iniciativas políticas em França, Alemanha
e Finlândia. A estratégia enfatizou a importância de unir forças dos Estados-Membros para ajudar a UE
como um todo a competir globalmente e evitar a fragmentação do mercado único. Para facilitar isso, a
Comissão se comprometeu a trabalhar com os Estados-Membros em um plano coordenado de IA, com base
em uma declaração recente dos Estados-Membros para colaborar na IA (Declaração, 2018).

O plano coordenado de IA, elaborado em conjunto pela Comissão e pelos Estados-Membros,5 foi
lançado em dezembro de 2018 (Comissão Europeia, 2018b). O plano se baseia e expande a estratégia de
IA. O plano visa aumentar o esforço da Europa em áreas de interesse público, como saúde, transportes,
segurança, educação e energia, bem como em outras áreas, por exemplo, manufatura e serviços financeiros.
Os principais objetivos do plano são:

maximizar o impacto dos investimentos a nível da UE e nacional, incentivar sinergias e cooperação em


toda a UE, incluindo em matéria de ética, promover o intercâmbio de boas práticas e definir
coletivamente o caminho a seguir. Ao trabalhar em conjunto, a União pode maximizar o seu impacto
para competir a nível mundial.
(Comissão Europeia, 2018d: 2)

O anexo “Plano Coordenado para o Desenvolvimento e Utilização de Inteligência Artificial Made in


Europe” (Comissão Europeia, 2018d) define um conjunto de ações conjuntas para uma cooperação mais
estreita e eficiente entre os Estados-Membros e a Comissão integrando ações e medidas a nível nacional e
regional com os níveis da UE descritos na estratégia. No total, o plano propõe cerca de 70 ações conjuntas
em áreas-chave, como pesquisa, investimento, aceitação de mercado, habilidades e talentos, dados e
cooperação internacional (Comissão Europeia, 2020a). O plano será monitorado e atualizado regularmente.
A primeira revisão do plano foi publicada em 2021 (Comissão Europeia, 2021). O plano está programado
para ser executado até 2027, de acordo com o Quadro Financeiro Plurianual da UE.

No plano coordenado, a Comissão e os Estados-Membros concordam em ações conjuntas para


maximizar o investimento, criar espaços europeus de dados, fomentar competências de talento e
aprendizagem ao longo da vida e desenvolver uma IA ética e fiável. Os investimentos combinados incluem
financiamento a nível da UE, como de programas-quadro de investigação e inovação e fundos europeus
estruturais e de investimento, bem como investimentos nacionais. Enquanto alguns Estados-Membros já
dispunham de estratégias de IA no momento em que o plano coordenado foi publicado, outros foram
incentivados a desenvolver as suas estratégias nacionais de IA, incluindo planos de investimento e medidas
de implementação e com base no trabalho realizado a nível europeu.

260
Machine Translated by Google

Inteligência artificial na UE

As atividades destinadas à criação de espaços de dados europeus comuns são importantes, porque o
acesso a conjuntos de dados grandes e robustos é crucial para o desenvolvimento da IA. O plano prevê
que esses espaços de dados em várias áreas, incluindo saúde, sejam criados de acordo com o
Regulamento Geral de Proteção de Dados da UE. O processamento de dados deve ser apoiado por
iniciativas de computação de alto desempenho. As medidas de apoio ao talento e às competências são
importantes não só pela esperada substituição de postos de trabalho, mas também pela escassez de
profissionais das tecnologias de informação e comunicação. Tendo como pano de fundo que em 2017
existiam 240.000 europeus em Silicon Valley (Comissão Europeia, 2018b: 5), o plano coordenado destaca
as medidas para formar, atrair e reter talentos tecnológicos na Europa.
As atividades voltadas para uma IA ética e confiável exigem “uma estrutura regulatória flexível o
suficiente para promover a inovação e, ao mesmo tempo, garantir altos níveis de proteção e segurança”
(Comissão Europeia, 2018b: 8). Para o efeito, a Comissão avalia se os quadros nacionais e da UE em
matéria de segurança e responsabilidade são adequados ou se existem lacunas que devam ser
colmatadas. Para a estrutura ética, o plano coordenado (além das referências tradicionais à Carta dos
Direitos Fundamentais) enfatiza que um princípio-chave será 'ética desde o design', “pelo qual os princípios
éticos são incorporados em produtos e serviços de IA logo no início do o processo de projeto”

(Comissão Europeia, 2018d: 17). Para concretizar a ambição de trazer a abordagem ética da Europa para
o palco global, o plano incentiva os Estados-Membros e a União a alinharem os seus esforços de alcance
internacional.
Além disso, o plano coordenado menciona aspectos relacionados à segurança de aplicativos e
infraestrutura de IA e uma agenda de segurança internacional em três dimensões: primeiro, como a IA
pode aprimorar os objetivos do setor de segurança; segundo, como as tecnologias de IA podem ser
protegidas contra ataques (especialmente os requisitos de segurança cibernética da IA); e terceiro, como
lidar com qualquer potencial abuso de IA para fins maliciosos. Além disso, o documento destaca o potencial
da aplicação da IA para contribuir para melhores serviços públicos, por exemplo, aumentando a qualidade
e a consistência dos serviços prestados e melhorando os serviços de saúde e emprego (Comissão
Europeia, 2018d: 19).
O que significa exatamente o slogan “Inteligência Artificial Made in Europe” mencionado no plano
coordenado (Comissão Europeia, 2018b)? A Comissão explica-o da seguinte forma:6

A Europa tem uma abordagem única para a IA. Ao mesmo tempo em que as ações são voltadas
para o desenvolvimento de uma tecnologia competitiva e que aproveite as oportunidades oferecidas
pela IA, essa tecnologia também deve ser ética e segura. Por esta razão, a Comissão propõe uma
abordagem que coloca as pessoas no centro do desenvolvimento da IA (IA centrada no ser humano)
e incentiva a utilização desta poderosa tecnologia para ajudar a resolver os maiores desafios do
mundo, como as alterações climáticas, transporte seguro e cíber segurança. Ao mesmo tempo, o
desenvolvimento deste tipo de IA baseia-se nos pontos fortes científicos e industriais da Europa.

(Comissão Europeia, 2019e)

Assim, a abordagem europeia para a IA, conforme definida aqui, reúne diferentes elementos de
documentos anteriores da UE sobre IA e destaca interconexões estreitas entre as características do Poder
Normativo Europeu e do Poder de Mercado Europeu. As políticas e regulamentação de investimento, que
normalmente estão associadas ao Market Power Europe, estão intimamente relacionadas à ética e aos
valores que fazem parte do Normative Power Europe, porque os investimentos em IA devem abordar os
desafios sociais e a regulamentação visa proteger valores e implementar uma estrutura ética . o

261
Machine Translated by Google

Sem Ulnicane

A seguinte citação do plano coordenado resume uma estreita conexão entre o mercado e os elementos
normativos como uma das principais características da abordagem europeia da IA:

Um quadro ético e regulamentar adequado e previsível que assente em salvaguardas eficazes para a
proteção dos direitos e liberdades fundamentais é vital para que os cidadãos confiem na IA e para
que as empresas, que necessitam de segurança de investimento, abram novas oportunidades de
negócio. Liderar a agenda ética, ao mesmo tempo em que promove a inovação, tem o potencial de se
tornar uma vantagem competitiva para as empresas europeias no mercado global.
(Comissão Europeia, 2018d: 17)

Embora existam relações complexas entre negócios, regulamentação e valores, a ideia mencionada
anteriormente da agenda ética como uma vantagem competitiva para os negócios europeus levanta a
questão de saber se a ética está sendo instrumentalizada para apoiar os interesses comerciais. Esta
questão tem sido parte de controvérsias em torno das diretrizes éticas da UE e do Livro Branco discutido
nas seções a seguir.

“Diretrizes de Ética para IA Confiável”


A necessidade de desenvolver um quadro ético para a IA foi destacada em todos os documentos da
política de IA da UE. Em 2018, a Comissão criou um grupo independente de especialistas de alto nível
(HLEG) em IA para desenvolver as diretrizes éticas. O grupo foi formado por 52 especialistas da indústria,
academia e sociedade civil que foram escolhidos em processo seletivo aberto (Larsson, 2020; Smuha,
2019; Stix, 2021).
As diretrizes de ética foram elaboradas de forma participativa. Um rascunho inicial foi publicado em
dezembro de 2018. Mais de 500 organizações e indivíduos forneceram comentários durante a discussão
das partes interessadas. As “Diretrizes de Ética para IA Confiável” (Comissão Europeia, 2019b) foram
publicadas em abril de 2019. Essas diretrizes enfatizam uma abordagem 'centrada no ser humano' para a
IA. De acordo com essa abordagem, “a IA não é um fim em si mesma, mas sim um meio promissor para
aumentar o florescimento humano, melhorando assim o bem-estar individual e social e o bem comum, além
de trazer progresso e inovação” (Comissão Europeia 2019b : 4). Como exemplo disso, as diretrizes
mencionam que os sistemas de IA podem ajudar a facilitar a consecução dos Objetivos de Desenvolvimento
Sustentável das Nações Unidas (Comissão Europeia, 2019b: 4).
As diretrizes de ética (Comissão Europeia, 2019b) colocam no centro termos como 'confiança' e
'confiabilidade', que estão entre os conceitos amplamente utilizados nas diretrizes de ética de IA em todo o
mundo (Jobin et al 2019). De acordo com as diretrizes, uma IA confiável deve ter três componentes: deve
ser legal, ética e robusta (Comissão Europeia, 2019b: 5), ver Tabela 14.2.

As diretrizes (Comissão Europeia, 2019b) estabelecem sete requisitos principais para uma IA digna de
confiança: agência humana e supervisão, robustez técnica e segurança, privacidade e dados

Tabela 14.2 Componentes de IA confiável (Comissão Europeia 2019b: 5)

Descrição do componente

Legal Cumprir todas as leis e regulamentos aplicáveis


Ético Garantir a adesão aos princípios e valores éticos
Robusto Tanto do ponto de vista técnico quanto social, pois, mesmo com boas intenções, os sistemas de IA
pode causar danos não intencionais

262
Machine Translated by Google

Inteligência artificial na UE

governança, transparência, diversidade, não discriminação e justiça, bem-estar ambiental e social e


responsabilidade. Essa estrutura para IA confiável é baseada nos direitos fundamentais consagrados nos
Tratados da UE e na Carta dos Direitos Fundamentais.
As diretrizes visam equilibrar a maximização dos benefícios e a prevenção de quaisquer riscos
relacionados aos sistemas de IA. Como exemplos de oportunidades, o documento menciona ação climática
e infraestrutura sustentável, saúde e bem-estar e educação de qualidade e transformação digital, enquanto
preocupações críticas incluem identificar e rastrear indivíduos com IA e sistemas de armas autônomas
letais (Comissão Europeia, 2019b: 32- 34).
As diretrizes (Comissão Europeia, 2019b) foram bem recebidas pela Comissão Europeia (2019c), mas
receberam duras críticas de um dos membros do HLEG. No dia em que as diretrizes foram publicadas,
Thomas Metzinger, membro do HLEG, publicou uma opinião altamente crítica no jornal alemão Der
Tagesspiegel, com o título provocativo “Ethics Wash ing Made in Europe” (Metzinger, 2019). Metzinger,
que é um dos quatro especialistas em ética entre os 52 membros do HLEG fortemente dominados por
representantes da indústria, descreve as diretrizes como “um compromisso do qual não me orgulho, mas
que ainda assim é o melhor do mundo no assunto”. Embora admita que é excelente ancorar as orientações
nos valores fundamentais europeus, as suas principais críticas centram-se na influência dos interesses
industriais, que, segundo ele, têm levado, por exemplo, a retirar do documento 'red lines' e inegociáveis
princípios sobre o que não deve ser feito com a IA na Europa, como os sistemas letais de armas autônomas
e pontuação social. Estas foram substituídas nas diretrizes por “preocupações críticas”. Portanto, Metzinger
vê as diretrizes, que ele descreve como 'deliberadamente vagas', como um caso de lavagem ética quando
a indústria cultiva debates éticos para ganhar tempo e prevenir ou atrasar regulamentação e formulação de
políticas efetivas.

O termo 'linhas vermelhas', mencionado por Metzinger, aparece no documento subsequente do HLEG
publicado alguns meses depois, que, entre outras coisas, sugere “institucionalizar um diálogo sobre a
política de IA com as partes interessadas afetadas para definir as linhas vermelhas e discutir as aplicações
da IA que podem gerar danos inaceitáveis” (Comissão Europeia, 2019d: 41). Neste documento, o HLEG
descreve 33 recomendações de políticas e investimentos para uma IA confiável. Essas recomendações
concentram-se em quatro áreas principais em que a IA pode ajudar a obter um impacto benéfico: capacitar
e proteger os seres humanos e a sociedade, transformar o setor privado, apoiar o setor público como
catalisador do crescimento sustentável e da inovação e garantir capacidades de pesquisa de nível mundial.
Como os principais facilitadores para facilitar esses impactos, o HLEG descreve a disponibilidade de dados
e infraestrutura, habilidades e educação e governança e regulamentação apropriadas, bem como
financiamento e investimento. O documento prevê a criação de um Mercado Único Europeu para IA
confiável com base em regulamentação e padrões apropriados.
Assim, as diretrizes éticas e as seguintes políticas e diretrizes de investimento preparadas pelo HLEG
novamente sugerem uma forte relação entre os elementos de Normative Power Europe e Market Power
Europe. As orientações éticas assentam nos valores europeus e, de acordo com as recomendações de
política e investimento, podem ser implementadas através da criação de um mercado único com
regulamentação e investimento adequados. No entanto, de acordo com um dos autores, as diretrizes éticas
podem, na verdade, servir a interesses comerciais de curto prazo, em vez de promover valores ou
necessidades de longo prazo do mercado único.

White paper sobre IA: rumo à regulamentação

Em suas Diretrizes Políticas para a Comissão Europeia 2019–2024, a nova presidente da Comissão
Europeia, Ursula von der Leyen, prometeu que durante seus primeiros 100 dias no cargo, ela “apresentará
legislação para uma abordagem europeia coordenada para o

263
Machine Translated by Google

Sem Ulnicane

implicações humanas e éticas” da IA (Von der Leyen, 2019: 13). Essa promessa levou à publicação
de um white paper sobre IA em fevereiro de 2020, que definiu várias opções de investimento e
regulamentação e lançou uma consulta pública (Comissão Europeia, 2020a).

A principal novidade deste documento é delinear uma gama de opções para um quadro
regulamentar sugerindo que “um quadro regulamentar claro criaria confiança entre consumidores
e empresas na IA e, portanto, aceleraria a aceitação da tecnologia” (Comissão Europeia, 2020a:
9-10). Para este quadro regulamentar, a Comissão propõe uma «abordagem baseada no risco»
que encontre um equilíbrio entre ser «eficaz para atingir os seus objetivos e não ser excessivamente
prescritiva, de modo a criar um encargo desproporcionado» (Comissão Europeia, 2020a: 17 ).
Para garantir que a intervenção regulatória seja proporcional, ela descreve dois critérios para
diferenciar onde os aplicativos de IA são de 'alto risco' ou não. O primeiro critério sugere focar em
setores onde riscos significativos podem ser esperados, como saúde, transporte, energia e partes
do setor público. O segundo critério concentra-se em riscos significativos, como efeitos jurídicos,
ferimentos, morte ou danos, que podem surgir do uso de aplicativos de IA em um determinado
setor. Para os aplicativos de IA que, de acordo com esses critérios, são considerados de alto risco,
o white paper estabelece uma série de requisitos relacionados a recursos, como supervisão
humana, robustez e precisão e informações a serem fornecidas. Em particular, a Comissão sugere
lançar um amplo debate sobre o uso de identificação biométrica, por exemplo, reconhecimento
facial em locais públicos. Para as aplicações de IA que não são consideradas de alto risco, a
Comissão propõe um esquema de rotulagem voluntário que permitiria aos usuários reconhecer
produtos e serviços que cumprem alguns parâmetros de referência em toda a UE.
O white paper “On Artificial Intelligence – A European Approach to Excellence and Trust”
apresenta a regulamentação como um elemento-chave para construir confiança, enquanto para
aumentar a excelência, ele lista uma série de recomendações sobre investimentos em IA que já
foram introduzidas anteriormente. Também menciona o European Green Deal e afirma que “as
tecnologias digitais, como a IA, são um facilitador crítico para atingir os objetivos do Green
Deal” (Comissão Europeia, 2020a: 2). Já no início, o documento refere que “não aborda o
desenvolvimento e utilização de IA para fins militares” (Comissão Europeia, 2020a: 1) mas não dá
qualquer explicação para a exclusão deste tema. Não é claro porque é que a IA militar é deixada
de fora, tendo em conta que o Fundo Europeu de Defesa está a ser criado (Calcara et al., 2020;
Karampekios e Oikonomou, 2021; Sweeney, 2021) e a IA é uma das tecnologias aí apoiadas, que
também é mencionado em nota de rodapé do livro branco (Comissão Europeia, 2020a: 6). Na
sequência da consulta aberta sobre o livro branco em 2020, a Comissão publicou a sua proposta
de regulamento (Comissão Europeia, 2021).
O foco do white paper no investimento e na abordagem regulatória sugere uma forte presença
de elementos do Market Power Europe. Ao mesmo tempo, o documento afirma que essa
abordagem é baseada em direitos, valores e ética fundamentais, com referências, por exemplo, às
diretrizes éticas para Trustworthy AI. No entanto, os especialistas em ética expressaram seu
desapontamento com este documento. Thomas Metzinger, que anteriormente criticou as diretrizes
éticas, desta vez acompanhado por outro professor de filosofia do HLEG, Mark Coeckelbergh,
argumenta que, ao preparar o livro branco, a Comissão não ouviu seus próprios especialistas,
ignorou em grande parte recomendações detalhadas preparadas pelo O HLEG e os poucos
eticistas no HLEG têm sido “nada além de uma folha de figueira” (Coeckelbergh e Metzinger,
2020). Uma de suas críticas destaca a omissão de sistemas letais de armas autônomas do white
paper. Numa época em que a UE começa a financiar pesquisas de defesa sobre IA e em que
elementos do poder militar europeu estão surgindo, excluir esse tópico do documento para consulta
pública parece questionável.

264
Machine Translated by Google

Inteligência artificial na UE

Conclusões: a UE na competição e cooperação globais em IA


A UE tem vindo a desenvolver a sua abordagem à IA no contexto em que esta nova tecnologia
transformadora está a ser aplicada cada vez mais amplamente e em que muitos governos e outras
organizações estão a desenvolver as suas estratégias e orientações sobre IA. Uma parte importante da
definição da abordagem da UE à IA é aprender com outras regiões, posicionar-se e cooperar globalmente.
Questões sobre competição global e liderança têm sido uma parte importante do discurso da IA. O
desenvolvimento da IA foi retratado como uma nova corrida espacial em que os EUA lideram e a China é
um líder emergente, com outros países, como o Reino Unido e a França, também anunciando suas ambições
de liderança (Franke, 2021; Ulnicane et al., 2021a ). Nos últimos anos, a UE repetiu sua intenção de ser líder
em IA com base em seus valores. A estratégia de IA da UE afirma que “a UE pode liderar o caminho no
desenvolvimento e uso da IA para o bem e para todos”
(Comissão Europeia, 2018a: 3). A UE tenta distinguir-se dos EUA e da China ao enfatizar a sua abordagem
ética, centrada no ser humano e baseada em valores, conforme demonstrado na seguinte citação:

Há uma forte competição global em IA entre os EUA, China e Europa. Os EUA lideram por enquanto,
mas a China está se recuperando rapidamente e pretende liderar até 2030. Para a UE, não é tanto
uma questão de ganhar ou perder uma corrida, mas de encontrar uma maneira de aproveitar as
oportunidades oferecidas pela IA de uma forma centrado no ser humano, ético, seguro e fiel aos nossos
valores fundamentais.
(Comissão Europeia, 2018c: 12–13)

Assim, embora enfatize sua abordagem normativa, a UE ainda repete um discurso concorrencial.
No entanto, como mencionado na introdução, tal discurso de competitividade internacional pode ser
enganoso e até perigoso. Isso pode levar à priorização política e financeira da IA em detrimento de outras
políticas e áreas de investimento. Além disso, o foco na competição pode dificultar a cooperação internacional.

A UE também demonstrou grande interesse na cooperação global, em particular nas diretrizes éticas da
IA. Esteve envolvido no desenvolvimento dos princípios éticos da OCDE para a confiança em IA, que foram
posteriormente endossados pelos ministros do G20 (Comissão Europeia, 2020a: 8).
O livro branco da UE sobre IA reconhece um importante trabalho sobre IA em andamento em outros fóruns
multilaterais, como o Conselho da Europa e a UNESCO, e confirma o interesse da UE em continuar a
cooperação com países com ideias semelhantes. Afirma que “a Europa está bem posicionada para exercer
liderança global na construção de alianças em torno de valores compartilhados e na promoção do uso ético da IA”
(Comissão Europeia, 2020a: 8). A abordagem da UE à IA como forma de promover os seus valores pode
ser vista na seguinte declaração:

A Comissão está convencida de que a cooperação internacional em matéria de IA deve basear-se


numa abordagem que promova o respeito pelos direitos fundamentais, incluindo a dignidade humana,
o pluralismo, a inclusão, a não discriminação e a proteção e a privacidade e os dados pessoais e
esforçar-se-á por exportar os seus valores em o mundo. Também está claro que o desenvolvimento
responsável e o uso da IA podem ser uma força motriz para alcançar os Objetivos de Desenvolvimento
Sustentável e avançar na Agenda 2030.
(Comissão Europeia, 2020a: 9)

Assim, em uma arena global de competição e cooperação em IA, a UE tenta se projetar como uma Europa
de Poder Normativo, promovendo sua abordagem baseada em valor e centrada no ser humano com base em

265
Machine Translated by Google

Sem Ulnicane

suas diretrizes de ética para IA confiável. As ambições da UE de ser uma Europa de poder de mercado
com regulamentação e investimentos apropriados no momento ainda estão sendo discutidas, enquanto
os possíveis desenvolvimentos em direção a uma Europa de poder militar com base em investimentos
em IA no contexto da pesquisa de defesa emergente da UE estão excluídos da discussão pública de um
Abordagem europeia à IA. As ambições de ser uma Europa de poder normativo em IA levaram a alguma
influência em fóruns internacionais, como a OCDE e o G20, mas também colocaram as próprias ações
da UE nesta área sob maior escrutínio e encontraram reação de alguns dos membros da UE próprios
especialistas em ética.
No momento da atualização deste capítulo em meados de 2021, a abordagem da UE à IA ainda é um
alvo em movimento. De 2017 a 2020, as instituições da UE adotaram alguns dos principais documentos,
organizaram fóruns de partes interessadas e lançaram consultas públicas dedicadas à IA. Essas
atividades iniciaram conversas importantes e definiram as metas da UE para o desenvolvimento e uso
de uma IA centrada no ser humano. No entanto, eles também abriram várias caixas de Pandora
alimentando controvérsias, inclusive sobre o domínio dos interesses comerciais, o tipo de regulamentação
necessária e a possível relação entre a IA civil e militar. A implementação das metas definidas e a
resolução de controvérsias permanecem na agenda para os próximos anos. Em abril de 2021, a
Comissão publicou sua proposta de regulamentação da IA. Seu sucesso, assim como o sucesso da
implementação das ambiciosas metas da UE na área de IA, depende de uma série de fatores. Estes
incluem compromissos entre as instituições da UE; investimentos financeiros da UE, fundos nacionais e
empresariais; acções em todos os Estados-Membros; e um equilíbrio entre os interesses de diversas
partes interessadas, desde grandes empresas até a sociedade civil, incluindo grupos sociais vulneráveis
e marginalizados (Ulnicane et al., 2021a, 2021b; Vesnic-Alujevic et al., 2020). Além disso, será de grande
importância a integração da IA na futura agenda digital e tecnológica da UE, bem como na consecução
dos compromissos políticos da UE, como o Green Deal.

Reconhecimentos
Este capítulo se beneficiou do feedback sobre as apresentações de versões anteriores no workshop do
manual em Lyon, França, 2019, e das conferências virtuais de 2020: Conferência Geral do Consórcio
Europeu para Pesquisa Política e Conferência da Associação Acadêmica de Estudos Europeus
Contemporâneos (UACES). Agradecemos os comentários úteis dos editores do Manual. A pesquisa
relatada neste capítulo recebeu financiamento do Programa de Pesquisa e Inovação Hori zon 2020 da
UE sob os acordos de doação nº 720270 (HBP SGA1), nº 785907 (HBP SGA2) e nº 945539 (HBP SGA3).

Notas
1 O princípio da precaução usado no meio ambiente, segurança alimentar e outras áreas políticas da UE “relaciona-se
com uma abordagem de gestão de riscos pela qual, se houver a possibilidade de uma determinada política ou ação
causar danos ao público ou ao meio ambiente e, se ainda houver não houver consenso científico sobre o assunto,
a política ou ação em questão não deve ser adotada”. Disponível em: https://eur-lex.europa.eu/resumo/glossary/
precautionary_principle.html. Último acesso: 23 de novembro de 2020.
2 Dignidade humana, liberdade, democracia, igualdade, estado de direito e respeito pelos direitos humanos, incluindo
os direitos das pessoas pertencentes a minorias.
3 Carta Aberta à Comissão Europeia “Inteligência Artificial e Robótica”. Disponível em www. robots-openletter.eu Último
acesso: 10 de abril de 2020.
4 De 2021 a 2027, o novo Programa Digital Europe planeja alocar mais de 2 bilhões de euros para IA.
Disponível em https://ec.europa.eu/info/funding-tenders/opportunities/portal/screen/programmes/ digital Último
acesso em 29 de março de 2021. Espera-se mais financiamento dos Fundos Estruturais, Estados-Membros e
empresas.

266
Machine Translated by Google

Inteligência artificial na UE

5 Adicionalmente, Noruega e Suíça fazem parte do Plano.


6 O termo “IA feito na Europa” pode ser enganoso, porque sugere um foco em IA desenvolvida na Europa, enquanto muita IA é
desenvolvida em outros lugares, mas quando usada na Europa também teria que cumprir com estruturas legais e regulatórias para
sua usar. Ver, por exemplo, Comissão Europeia (2019b: 4).

Bibliografia
af Malmborg, Frans e Jarle Trondal (2021) Enquadramento discursivo e locais organizacionais: Mecanismos de adoção de políticas de
inteligência artificial. Revista Internacional de Ciências Administrativas, no prelo.
Boucher, Philip (2020) Inteligência artificial: como funciona, por que é importante e o que podemos fazer a respeito?
Serviço de Estudos do Parlamento Europeu.
Calcara, Antonio, Raluca Csernatoni e Chantal Lavalée (Eds) (2020) Tecnologias emergentes de segurança e governança da UE: atores,
práticas e processos. Londres: Routledge.
Cath, Corinne, Sandra Wachter, Brent Mittelstadt, Mariarosaria Taddeo e Luciano Floridi (2018) Inteligência artificial e a 'boa sociedade':
a abordagem dos EUA, UE e Reino Unido. Science and Engineering Ethics 24: 505–528.

Chou, Meng-Hsuan e Ase Gornitzka (Eds) (2014) Construindo a Economia do Conhecimento na Europa. Novas Constelações em
Investigação Europeia e Governação do Ensino Superior. Cheltenham: Edward Elgar.
Coeckelbergh, Mark e Thomas Metzinger (2020) A Europa precisa de mais coragem quando se trata de ética em IA.
Tagesspiegel, 14 de abril de 2020.
Cramer, Katharina e Olof Hallonsten (2020) Big Science and Research Infrastructures in Europe. Chelten
presunto: Edward Elgar.
Damro, Chade (2012) Market Power Europe. Journal of European Public Policy 19(5): 682–699.
Declaração (2018) Cooperação em inteligência artificial. Bruxelas, 10 de abril de 2018. Disponível em: https://ec.europa.eu/digital-single-
market/en/news/eu-member-states-sign-cooperate-artificial-intelligence.
Último acesso: 23 de novembro de 2020.

Dexe, Jacob e Ulrik Franke (2020) Luzes nórdicas? Políticas nacionais de IA para fazer o bem fazendo o bem. Journal of Cyber Policy
5(3): 332–349.
Dyrhauge, Helene (2022) A política de transportes da UE numa encruzilhada: O custo da liberalização para as alterações climáticas e a
mobilidade pessoal, em Thomas Hoerber, Ignazio Cabras e Gabriel Weber (Eds) Routledge Handbook of European Integrations.
Londres: Routledge.
CESE (Comité Económico e Social Europeu) (2017) Inteligência artificial – As consequências da inteligência artificial no mercado único
(digital), produção, consumo, emprego e sociedade.
Opinião.
EGE (Grupo Europeu de Ética em Ciência e Novas Tecnologias) (2018) Declaração sobre Inteligência Artificial, Robótica e Sistemas
'Autônomos'. Bruxelas: Comissão Europeia.
Comissão Europeia (2017a) Seminário de política de IA: Rumo a um plano estratégico da UE para IA. Transfor digital
monitor de informação. 29 de novembro de 2017.

Comissão Europeia (2017b) Acompanhamento da resolução do Parlamento Europeu de 16 de fevereiro de 2017 sobre
regras de direito civil sobre robótica 2015/2103 (INL). SP(2017)310.16.5.2017.
Comissão Europeia (2018a) Inteligência artificial para a Europa. Comunicação. COM(2018) 237 final.
Bruxelas 25.4.2018.

Comissão Europeia (2018b) Plano coordenado sobre inteligência artificial. Comunicação COM(2018) 795 final. Bruxelas 7.12.2018.

Comissão Europeia (2018c) Inteligência Artificial: Uma Perspectiva Europeia. Luxemburgo: Serviço das Publicações da União Europeia.

Comissão Europeia (2018d) Anexo ao plano coordenado de inteligência artificial. Comunicação


COM(2018) 795 ANEXO final. Bruxelas 7.12.2018.
Comissão Europeia (2019a) Uma definição de IA: principais capacidades e disciplinas. Grupo de Peritos Independentes de Alto Nível
em Inteligência Artificial criado pela Comissão Europeia. Bruxelas.
Comissão Europeia (2019b) Diretrizes de ética para IA confiável. Grupo de Peritos Independentes de Alto Nível em Inteligência Artificial
criado pela Comissão Europeia. Bruxelas. 8.4.2019.

267
Machine Translated by Google

Sem Ulnicane

Comissão Europeia (2019c) Construindo confiança na inteligência artificial centrada no ser humano. COM(2019) 168
final. 8.4.2019.

Comissão Europeia (2019d) Recomendações de política e investimento para IA confiável. Grupo de Peritos Independentes de
Alto Nível em Inteligência Artificial criado pela Comissão Europeia. Bruxelas. 26.6.2019.

Comissão Europeia (2019e) Perguntas e respostas: Plano coordenado para inteligência artificial “made in Europe”. Bruxelas, 7
de dezembro de 2019. Disponível em: https://ec.europa.eu/commission/presscorner/detail/en/MEMO_18_6690. Último
acesso: 24 de novembro de 2020.
Comissão Europeia (2020a) Sobre inteligência artificial – Uma abordagem europeia para a excelência e a confiança.
Papel branco. COM(2020) 65 final. Bruxelas 19.2.2020.
Comissão Europeia (2020b) Europeus e Inteligência Artificial. Relatório. Padrão Eurobarômetro 92.
Comissão Europeia (2021) Promover uma abordagem europeia à inteligência artificial. Comunicação.
COM(2021) 205 final. Bruxelas 21.4.2021.
Conselho Europeu (2017) Conclusões do Conselho Europeu. 19.10.2017.
Parlamento Europeu (2017) Regras de direito civil sobre robótica. Resolução do Parlamento Europeu de 16 de fevereiro de 2017
com recomendações à Comissão de Normas de Direito Civil sobre Robótica (2015/2103(INL)). Jornal Oficial da União
Europeia C 252:239–257.18.7.2018.
Franke, Ulrike (2021) Diplomacia de Inteligência Artificial | Governança de Inteligência Artificial como uma Nova Ferramenta de
Política Externa da União Europeia. Estudo para a comissão especial de Inteligência Artificial na Era Digital (AIDA),
Departamento de Políticas Económicas, Científicas e de Qualidade de Vida, Parlamento Europeu, Luxemburgo.

Galanos, Vassilis (2019) Explorando a especialização em expansão: Inteligência artificial como uma ameaça existencial e o
papel de comentaristas de prestígio, 2014–2018. Análise de Tecnologia e Gestão Estratégica 31(4): 421–432.
Jobin, Anna, Marcello Ienca e Effy Vayena (2019) O panorama global das diretrizes de ética da IA. Nature Machine Intelligence
1: 389–399.
Karampekios, Nikolaos e Iraklis Oikonomou (2022) Consolidação industrial da defesa como pré-condição para a integração
militar da UE, em Thomas Hoerber, Ignazio Cabras e Gabriel Weber (Eds) Routledge Handbook of European Integrations.
Londres: Routledge.
Köstler, Lea e Ringo Ossewaarde (2021) The making of AI society: AI futures frames in German policy
discursos cal e midiático. AI & Society, no prelo.
Krugman, Paul (1994) Competitividade: uma perigosa obsessão. Negócios Estrangeiros 73(2): 28–44.
Larsson, Stefan (2020) Sobre a governança da inteligência artificial por meio de diretrizes éticas. Jornal Asiático de Direito e
Sociedade 7(3): 437–451.
Manners, Ian (2002) Poder normativo Europa: Uma contradição em termos? Jornal de Estudos Comuns de Mercado
40(2): 235–258.
Marcus, Gary e Ernest Davis (2019) Reiniciando a IA: construindo uma inteligência artificial em que podemos confiar. Nova york:
Livros do Panteão.

McKinsey & Company (2017) 10 imperativos para a Europa na era da IA e da automação. Relatório para a Cimeira Digital de
Chefes de Estado da União Europeia em Tallinn. Disponível em: www.mckinsey.com/featured insights/europe/ten-imperatives-
for-europe-in-the-age-of-ai-and-automation. 23 de novembro de 2020.
Metzinger, Thomas (2019) Lavagem ética feita na Europa. Tagesspiegel, 8 de abril de 2019.
Mitzner, Veera (2020) Política de Pesquisa da União Europeia. Origens Contestadas. Palgrave Macmillan.
Estratégias de IA da OCDE (2020) e componentes do setor público. Disponível em: https://oecd-opsi.org/pro
jects/ai/strategies/ Último acesso: 15 de fevereiro de 2020.
Ossewaarde, Marinus e Erdener Gulenc (2020) Variedades nacionais de discursos de inteligência artificial: mito, utopismo e
solucionismo nas expectativas políticas da Europa Ocidental. Computador 53(11): 53–61.
Robinson, Stephen Cory (2020) Confiança, transparência e abertura: como a inclusão de valores culturais molda as estratégias
de políticas públicas nacionais nórdicas para inteligência artificial (IA). Tecnologia na Sociedade 63: 101421.
Ryan, Lorna (2022) Integração europeia, o Espaço Europeu de Pesquisa e as infraestruturas de pesquisa europeias, em
Thomas Hoerber, Ignazio Cabras e Gabriel Weber (Eds) Routledge Handbook of European Integrations. Londres: Routledge.

268
Machine Translated by Google

Inteligência artificial na UE

Smuha, Nathalie A. (2019) A abordagem da UE às diretrizes éticas para inteligência artificial confiável.
Computer Law Review International 20(4): 97–106.
Stix, Charlotte (2021) Princípios acionáveis para a política de inteligência artificial: três caminhos. Ciência e Ética da
Engenharia 27: 15.
Sweeney, Simon (2022) Política comum de segurança e defesa da UE, in Thomas Hoerber, Ignazio Cabras e
Gabriel Weber (Eds) Routledge Handbook of European Integrations. Londres: Routledge.
Ulnicane, Inga (2015) Ampliando Objetivos e Construindo Apoio em Políticas de Ciência, Tecnologia e Inovação: O Caso
do Espaço Europeu de Pesquisa. Journal of Contemporary European Research 11(1): 31–49.

Ulnicane, Inga (2016) Pesquisa e inovação como fontes de crescimento renovado? Respostas políticas da UE ao
crise. Journal of European Integration 38(3): 327–341.
Ulnicane, Inga, Damian Okaibedi Eke, William Knight, George Ogoh e Bernd Carsten Stahl (2021a)
A boa governação como resposta aos descontentamentos? Déjà vu, ou lições para IA de outras tecnologias
emergentes. Interdisciplinary Science Reviews 46(1–2): 71–93.
Ulnicane, Inga, William Knight, Tony Leach, Bernd Carsten Stahl e Winter-Gladys Wanjiku (2021b)
Enquadrando a governança para uma tecnologia emergente contestada: insights da política de IA. Política e
Sociedade 40(2): 158–177.
Van Roy, Vincent, Fiammetta Rossetti, Karine Perset e Laura Galindo-Romero (2021) AI Watch – Estratégias nacionais
de inteligência artificial: uma perspectiva europeia. Luxemburgo: Serviço das Publicações da União Europeia.

Vesnic-Alujevic, Lucia, Susana Nascimento e Alexandre Polvora (2020) Impactos sociais e éticos da inteligência artificial:
notas críticas sobre os quadros políticos europeus. Política de Telecomunicações 44(6): 101961.

Von der Leyen, Ursula (2019) Uma união que busca mais. Minha agenda para a Europa. Pela candidata a Presidente
da Comissão Europeia Ursula von der Leyen. Orientações Políticas para a Próxima Comissão Europeia 2019–2024.

269

You might also like