EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52020DC0065

LIVRO BRANCO sobre a inteligência artificial - Uma abordagem europeia virada para a excelência e a confiança

COM/2020/65 final/2

Bruxelas, 19.2.2020

COM(2020) 65 final

LIVRO BRANCO

sobre a inteligência artificial - Uma abordagem europeia virada para a excelência e a confiança


Livro Branco sobre a inteligência artificial:

uma abordagem europeia virada para a excelência e a confiança

A Inteligência Artificial está a evoluir rapidamente. Mudará as nossas vidas, uma vez que irá melhorar os cuidados de saúde (por exemplo, tornar o diagnóstico mais preciso e permitir uma melhor prevenção das doenças), aumentar a eficiência da agricultura, contribuir para a atenuação e adaptação às alterações climáticas, melhorar a eficiência dos sistemas de produção através da manutenção preditiva, aumentar a segurança dos europeus e ainda de muitas outras formas que só podemos começar a imaginar. Ao mesmo tempo, a inteligência artificial (IA) comporta uma série de riscos potenciais, tais como a opacidade do processo de tomada de decisões, a discriminação com base no género ou outros tipos de discriminação, a intrusão na nossa vida privada ou a utilização maliciosa para fins criminosos.

Num contexto de forte concorrência global, é necessária uma abordagem europeia sólida, com base na estratégia europeia para a IA apresentada em abril de 2018 1 . Tendo em vista enfrentar as oportunidades e os desafios da IA, a UE deve agir unida e definir o seu próprio caminho, baseado nos valores europeus, para promover o desenvolvimento e a implantação da IA.

A Comissão está empenhada em facilitar os progressos científicos, preservar a liderança tecnológica da UE e assegurar que as novas tecnologias estão ao serviço de todos os cidadãos europeus, melhorando as suas vidas e respeitando simultaneamente os seus direitos.

A presidente da Comissão, Ursula von der Leyen, anunciou nas suas orientações políticas 2 uma abordagem europeia coordenada sobre as implicações humanas e éticas da inteligência artificial, bem como uma reflexão sobre a melhor utilização de grandes volumes de dados para a inovação.

Assim, a Comissão apoia uma abordagem regulamentar e orientada para o investimento com o duplo objetivo de promover a adoção da IA e de abordar os riscos associados a determinadas utilizações desta nova tecnologia. O presente Livro Branco visa definir opções políticas sobre a forma de alcançar estes objetivos. Não aborda o desenvolvimento e a utilização da IA para fins militares. A Comissão convida os Estados-Membros, outras instituições europeias e todas as partes interessadas, incluindo a indústria, os parceiros sociais, as organizações da sociedade civil, os investigadores, o público em geral e qualquer parte, a reagir às opções que se seguem e a contribuir para a futura tomada de decisões da Comissão neste domínio.

1.Introdução

À medida que a tecnologia digital se torna um elemento cada vez mais central de todos os aspetos da vida das pessoas, é preciso que estas possam confiar nela. A fiabilidade é também uma condição prévia para a sua aceitação. Esta é uma oportunidade para a Europa, dado o seu forte apego aos valores e ao Estado de direito bem como a sua capacidade comprovada de desenvolver produtos e serviços seguros, fiáveis e sofisticados, que vão desde a aeronáutica aos setores energético, automóvel e ao equipamento médico.

O crescimento económico e o bem-estar social atuais e futuros da Europa são cada vez mais baseados no valor criado pelos dados. A inteligência artificial é uma das aplicações mais importantes da economia dos dados. Atualmente, a maior parte dos dados estão relacionados com os consumidores e são armazenados e tratados em infraestruturas centrais em nuvem. Em contrapartida, uma grande parte dos dados do futuro, que serão muito mais abundantes, provirá da indústria, das empresas e do setor público, e será armazenada numa variedade de sistemas, nomeadamente em dispositivos de computação que funcionam na periferia da rede. Isto cria novas oportunidades para a Europa, que tem uma forte posição em indústrias digitalizadas e aplicações empresa a empresa, mas uma posição relativamente fraca em termos de plataformas de consumidores.

Resumindo, a IA é um conjunto de tecnologias que combinam dados, algoritmos e capacidade computacional. Os progressos em computação e a cada vez maior disponibilidade de dados são, por conseguinte, os principais motores do atual impulso da IA. A Europa pode combinar os seus pontos fortes tecnológicos e industriais com uma infraestrutura digital de elevada qualidade e um quadro regulamentar baseado nos seus valores fundamentais para se tornar um líder mundial na inovação na economia dos dados e nas suas aplicações, tal como estabelecido na estratégia europeia para os dados 3 . Nesta base, pode desenvolver um ecossistema de inteligência artificial que reúna os benefícios da tecnologia para a sociedade e a economia europeias no seu conjunto:

·para que os cidadãos colham novos benefícios, por exemplo, a melhoria dos cuidados de saúde, um menor número de avarias dos eletrodomésticos, sistemas de transporte mais seguros e menos poluentes, melhores serviços públicos;

·para o desenvolvimento das empresas, por exemplo, uma nova geração de produtos e serviços nos domínios em que a Europa é particularmente forte (máquinas, transportes, cibersegurança, agricultura, economia verde e circular, cuidados de saúde e setores de elevado valor acrescentado tais como a moda e o turismo);

·para serviços de interesse público, por exemplo, reduzindo os custos de prestação de serviços (transportes, educação, energia e gestão de resíduos), melhorando a sustentabilidade dos produtos 4 e equipando as autoridades responsáveis pela aplicação da lei com os instrumentos necessários para garantir a proteção dos cidadãos 5 , com salvaguardas adequadas a fim de respeitar os seus direitos e liberdades.

Dado o grande impacto que a IA pode ter na nossa sociedade e a necessidade de reforçar a confiança, é fundamental que a IA europeia se baseie nos nossos valores e direitos fundamentais, como a dignidade humana e a proteção da privacidade.

Além disso, o impacto dos sistemas de IA deve ser considerado não apenas numa perspetiva individual, mas também na perspetiva de toda a sociedade. A utilização de sistemas de IA pode desempenhar um papel significativo na realização dos Objetivos de Desenvolvimento Sustentável e no apoio ao processo democrático e aos direitos sociais. As recentes propostas relativas ao Pacto Ecológico Europeu 6 colocam a Europa na vanguarda da resposta aos desafios climáticos e ambientais. As tecnologias digitais como a IA são um fator fundamental para a realização dos objetivos do Pacto Ecológico. Dada a importância crescente da IA, o impacto ambiental dos sistemas de IA deve ser devidamente considerado ao longo de todo o seu ciclo de vida e em toda a cadeia de abastecimento, por exemplo, no que diz respeito à utilização de recursos para o treino de algoritmos e o armazenamento de dados.

É necessária uma abordagem europeia comum da IA para atingir uma escala suficiente e evitar a fragmentação do mercado único. A introdução de iniciativas nacionais pode pôr em risco a segurança jurídica, enfraquecer a confiança dos cidadãos e impedir a emergência de uma indústria europeia dinâmica.

O presente Livro Branco apresenta opções políticas que permitem um desenvolvimento fiável e seguro da inteligência artificial na Europa, no pleno respeito dos valores e dos direitos dos cidadãos europeus. Os principais elementos constitutivos do presente Livro Branco são os seguintes:

·O quadro político que estabelece medidas destinadas a alinhar os esforços a nível europeu, nacional e regional. Em parceria entre o setor privado e o público, o quadro visa mobilizar recursos para alcançar um «ecossistema de excelência» ao longo de toda a cadeia de valor, começando na investigação e inovação, e criar os incentivos adequados para acelerar a adoção de soluções baseadas em IA, nomeadamente por parte das pequenas e médias empresas (PME). 

·Os elementos-chave de um futuro quadro regulamentar para a IA na Europa que criará um «ecossistema de confiança» único. Para o efeito, é necessário garantir o respeito das regras da UE, incluindo as regras de proteção dos direitos fundamentais e dos direitos dos consumidores, em especial no que diz respeito aos sistemas de IA que funcionam na UE e que representam um risco elevado 7 . A criação de um ecossistema de confiança é um objetivo político em si e deveria dar confiança aos cidadãos para adotarem aplicações de AI e segurança jurídica às empresas e organizações públicas para inovarem graças à IA. A Comissão apoia firmemente uma abordagem centrada no ser humano, que se baseie na Comunicação intitulada «Aumentar a confiança numa inteligência artificial centrada no ser humano» 8 , e terá igualmente em conta os contributos obtidos durante a fase-piloto das orientações éticas elaboradas pelo grupo de peritos de alto nível sobre a IA.

A estratégia europeia para os dados, que acompanha o presente Livro Branco, tem por objetivo permitir que a Europa se torne a economia ágil dos dados mais atrativa, segura e dinâmica do mundo, capacitando a Europa com dados para melhorar as decisões e a vida de todos os seus cidadãos. A estratégia define uma série de medidas políticas, incluindo a mobilização de investimentos privados e públicos, necessárias para alcançar este objetivo. Por último, as implicações da IA, da Internet das coisas e de outras tecnologias digitais para a legislação em matéria de segurança e responsabilidade são analisadas no Relatório da Comissão que acompanha o presente Livro Branco.

2.Tirar partido dos pontos fortes dos mercados industriais e profissionais

A Europa está numa boa posição para beneficiar do potencial da IA, não só como utilizador, mas também como criador e produtor desta tecnologia. A Europa tem excelentes centros de investigação, empresas em fase de arranque inovadoras, uma posição de liderança mundial em robótica e setores da indústria transformadora e de serviços competitivos, desde o setor automóvel aos cuidados de saúde, à energia, aos serviços financeiros e à agricultura. A Europa também desenvolveu uma forte infraestrutura de computação (nomeadamente, computadores de alto desempenho) que é essencial para o funcionamento da IA. A Europa detém igualmente grandes volumes de dados públicos e industriais, cujo potencial é atualmente subutilizado. Tem ainda, reconhecidamente, pontos fortes industriais no que respeita a sistemas digitais seguros, de baixo consumo, que são essenciais para o desenvolvimento da IA.

O aproveitamento da capacidade da UE para investir nas tecnologias e infraestruturas da próxima geração, bem como nas competências digitais, como a literacia de dados, aumentará a soberania tecnológica da Europa em tecnologias e infraestruturas facilitadoras essenciais para a economia dos dados. As infraestruturas devem apoiar a criação de repositórios europeus de dados que permitam uma IA fiável, por exemplo, com base em valores e regras europeus.

A Europa deve tirar partido dos seus pontos fortes para expandir a sua posição nos ecossistemas e ao longo da cadeia de valor, desde o fabrico de hardware ao desenvolvimento de software e aos serviços. Em certa medida, é o que já está a acontecer. A Europa produz mais de um quarto de todos os robôs de serviço industrial e profissional (por exemplo, para agricultura de precisão, segurança, saúde, logística) e desempenha um papel importante no desenvolvimento e utilização de aplicações de software para empresas e organizações (aplicações empresa a empresa, como o planeamento de recursos empresariais, software de desenho industrial e engenharia), bem como aplicações para apoiar a administração pública em linha e as «empresas inteligentes».

Além disso, a Europa lidera a aplicação de IA à indústria manufatureira: mais de metade dos seus principais fabricantes aplicam pelo menos uma solução de IA nas operações de fabrico 9 .

Um motivo para a forte posição da Europa em termos de investigação é o programa de financiamento da UE que se revelou fundamental para agrupar medidas, evitar duplicações e impulsionar os investimentos públicos e privados nos Estados-Membros. Nos últimos três anos, o financiamento da UE para a investigação e a inovação em matéria de IA aumentou para 1,5 mil milhões de EUR, o que constitui um aumento de 70 % em comparação com o período anterior.

No entanto, o investimento em investigação e inovação na Europa continua a ser uma fração dos investimentos públicos e privados noutras regiões do mundo. Em 2016, foram investidos cerca de 3,2 mil milhões de EUR em IA na Europa, em comparação com cerca de 12,1 mil milhões na América do Norte e 6,5 mil milhões na Ásia 10 . Em resposta, a Europa precisa de aumentar significativamente os seus níveis de investimento. O Plano Coordenado para a Inteligência Artificial 11 desenvolvido com os Estados-Membros está a revelar-se um ótimo ponto de partida para o reforço da cooperação no domínio da IA na Europa e para a criação de sinergias com vista a maximizar os investimentos na cadeia de valor da IA.

3.Aproveitar as oportunidades que temos pela frente: a próxima vaga de dados

Embora a Europa tenha atualmente uma posição mais fraca em termos de aplicações para consumidores e de plataformas em linha, o que resulta numa desvantagem concorrencial no acesso aos dados, estão em curso alterações importantes em termos de valor e reutilização de dados entre setores. O volume de dados produzidos no mundo está a aumentar rapidamente, devendo passar de 33 zetabytes em 2018 para 175 zetabytes em 2025 12 . Cada nova vaga de dados abre oportunidades para a Europa se posicionar na economia ágil dos dados e se tornar líder mundial neste domínio. Além disso, a forma como os dados são armazenados e tratados mudará radicalmente nos próximos cinco anos. Atualmente, 80 % do tratamento e análise de dados na nuvem ocorre em centros de dados e em instalações de computação centralizadas e 20 % em objetos inteligentes conectados, nomeadamente automóveis, eletrodomésticos ou robôs de fabrico, bem como em instalações de computação próximas do utilizador («computação periférica»). Até 2025, estas proporções irão alterar-se consideravelmente 13 .

A Europa é um líder mundial no domínio da eletrónica de baixo consumo, o que é fundamental para a próxima geração de processadores especializados para a IA. Este mercado é atualmente dominado por operadores fora da UE. Este quadro pode mudar graças a iniciativas como a Iniciativa do Processador Europeu, que incide no desenvolvimento de sistemas de computação de baixo consumo energético, tanto para computação na periferia da rede como para computação de alto desempenho da próxima geração, e graças aos esforços da Empresa Comum de Tecnologia Digital Essencial, que deverá começar em 2021. Além disso, a Europa também lidera em termos de soluções neuromórficas 14 adequadas para a automatização dos processos industriais (indústria 4.0) e dos modos de transporte. Essas soluções podem melhorar substancialmente a eficiência energética.

Os recentes progressos registados a nível da computação quântica permitirão um aumento exponencial da capacidade de processamento 15 . A Europa pode estar na vanguarda desta tecnologia graças à sua robustez académica em matéria de computação quântica, bem como à forte posição da indústria europeia em simuladores de computação quântica e ambientes de programação para computação quântica. As iniciativas europeias destinadas a aumentar a disponibilidade de instalações de teste e de experimentação quântica ajudarão a aplicar estas novas soluções quânticas a alguns setores industriais e académicos.

Paralelamente, a Europa continuará a liderar os progressos nas bases algorítmicas da IA, partindo da sua própria excelência científica. É necessário construir pontes entre disciplinas que atualmente trabalham separadamente, como a aprendizagem automática e a aprendizagem profunda (caracterizadas por uma interoperabilidade limitada, a necessidade de grandes volumes de dados para treinar os modelos e aprender através de correlações) e abordagens simbólicas (em que as regras são criadas com intervenção humana). A combinação de raciocínio simbólico com redes neuronais profundas pode ajudar-nos a melhorar a explicabilidade dos resultados da IA.

4.Um ecossistema de excelência

Para construir um ecossistema de excelência capaz de apoiar o desenvolvimento e a utilização da IA em toda a economia e administração pública da UE, é necessário intensificar as ações a vários níveis.

A.Trabalhar com os Estados-Membros

Tal como indicado na sua estratégia sobre a IA, adotada em abril de 2018 16 , a Comissão apresentou em dezembro de 2018 um Plano Coordenado, elaborado com os Estados-Membros, para promover o desenvolvimento e a utilização da IA na Europa 17 .

Este plano propõe cerca de 70 ações conjuntas para uma cooperação mais estreita e eficaz entre os Estados-Membros e a Comissão em domínios fundamentais como a investigação, o investimento, a entrada no mercado, as competências e o talento, os dados e a cooperação internacional. O plano deverá decorrer até 2027 e será controlado e revisto regularmente.

O objetivo consiste em maximizar o impacto do investimento na investigação, na inovação e na implantação, avaliar as estratégias nacionais de IA e desenvolver e alargar o Plano Coordenado para a Inteligência Artificial com os Estados-Membros:

·Ação n.º 1: A Comissão, tendo em conta os resultados da consulta pública sobre o Livro Branco, proporá aos Estados-Membros a revisão do Plano Coordenado, que deverá ser adotada até ao final de 2020.

O financiamento da IA a nível da UE deve atrair e reunir investimentos em domínios nos quais a ação necessária ultrapassa os resultados que qualquer Estado-Membro pode alcançar individualmente. O objetivo é atrair mais de 20 mil milhões de EUR 18 de investimento anual total na UE em IA ao longo da próxima década. Para estimular o investimento privado e público, a UE disponibilizará recursos do Programa Europa Digital, do Horizonte Europa e dos Fundos Europeus Estruturais e de Investimento, a fim de dar resposta às necessidades das regiões menos desenvolvidas, bem como das zonas rurais.

O Plano Coordenado poderá também abordar o bem-estar social e ambiental como um princípio fundamental em matéria de IA. Os sistemas de IA prometem ajudar a dar resposta às preocupações mais prementes, incluindo as alterações climáticas e a degradação ambiental. Também é importante que isso aconteça de uma forma respeitadora do ambiente. A IA pode e deve examinar de forma crítica a utilização dos recursos e o consumo de energia e ser treinada para fazer escolhas positivas para o ambiente. A Comissão analisará opções para incentivar e promover soluções de IA nesse sentido em conjunto com os Estados-Membros.

B.Centrar os esforços da comunidade de investigação e inovação

A Europa não pode permitir-se manter a atual situação fragmentada dos centros de competência em que nenhum deles atinge a escala necessária para competir com as principais instituições a nível mundial. É imperativo criar mais sinergias e redes entre os vários centros de investigação europeus no domínio da IA e alinhar os seus esforços para melhorar a excelência, reter e atrair os melhores investigadores e desenvolver a melhor tecnologia. A Europa precisa de um centro-farol de investigação, inovação e competências que coordene estes esforços e seja uma referência mundial de excelência em matéria de IA e que possa atrair investimentos e os maiores talentos neste domínio. 

Os centros e as redes devem concentrar-se em setores em que a Europa tem potencial para se tornar líder mundial, como a indústria, a saúde, os transportes, as finanças, as cadeias de valor agroalimentar, a energia/ambiente, a exploração florestal, a observação da Terra e o espaço. Em todos estes domínios, a corrida à liderança mundial está em curso e a Europa tem potencial, conhecimentos e competências significativos 19 . É igualmente importante criar instalações de teste e experimentação para apoiar o desenvolvimento e a subsequente implantação de novas aplicações de IA.

·Ação n.º 2: A Comissão facilitará a criação de centros de excelência e de teste que possam combinar investimentos europeus, nacionais e privados, incluindo eventualmente um novo instrumento jurídico. A Comissão propôs um montante específico e ambicioso de apoio aos centros de teste de referência mundial na Europa, no âmbito do Programa Europa Digital, complementado, quando necessário, com atividades de investigação e inovação do Programa Horizonte Europa como parte do quadro financeiro plurianual para 2021-2027.

C.Competências

A abordagem europeia da IA terá de ser apoiada por uma forte tónica nas competências para colmatar as lacunas nesta matéria 20 . A Comissão apresentará em breve um reforço da Agenda de Competências, que visa garantir que todos os cidadãos europeus podem beneficiar das transformações ecológicas e digitais da economia da UE. As iniciativas poderão também incluir o apoio dos reguladores setoriais para melhorar as suas competências em matéria de IA, a fim de aplicar de forma eficaz e eficiente as regras pertinentes. O Plano de Ação para a Educação Digital, atualizado, contribuirá para uma melhor utilização dos dados e das tecnologias baseadas em IA, como a aprendizagem e a análise preditiva, com o objetivo de melhorar os sistemas de ensino e formação e de os adequar à era digital. O plano aumentará também a sensibilização para a IA em todos os níveis de ensino, a fim de preparar os cidadãos para decisões informadas que serão cada vez mais afetadas pela IA.

O desenvolvimento das competências necessárias para trabalhar com a IA e a melhoria das competências dos trabalhadores para se adequarem à transformação impulsionada pela IA serão prioridades do Plano Coordenado para a IA revisto que será desenvolvido com os Estados-Membros. Tal poderia incluir a transformação da lista de avaliação das orientações éticas num «currículo» indicativo para os criadores de IA, que será disponibilizado como um recurso destinado aos estabelecimentos de formação. Devem ser envidados esforços especiais para aumentar o número de mulheres formadas e empregadas neste domínio.

Além disso, um centro-farol de investigação e inovação para a IA na Europa atrairia talentos de todo o mundo devido às possibilidades que poderia oferecer. Iria também desenvolver e divulgar a excelência nas competências que germinam e crescem em toda a Europa.

·Ação n.º 3: Estabelecer e apoiar, através do pilar de competências avançadas do Programa Europa Digital, redes de universidades e instituições de ensino superior de primeiro plano com o objetivo de atrair os melhores professores e cientistas e propor programas de mestrado de craveira mundial no domínio da IA.

Para além de melhoria das competências, os trabalhadores e os empregadores são diretamente afetados pela conceção e utilização dos sistemas de IA no local de trabalho. A participação dos parceiros sociais será um fator crucial para assegurar uma abordagem da IA centrada no ser humano no trabalho.

D.Dar relevo às PME

Será igualmente importante assegurar que as PME podem ter acesso e utilizar a IA. Para o efeito, os Polos de Inovação Digital 21 e a plataforma de IA a pedido 22 devem ser reforçados e promover a colaboração entre as PME. O Programa Europa Digital será fundamental para alcançar este objetivo. Se bem que todos os Polos de Inovação Digital devam prestar apoio às PME para compreender e adotar a IA, será importante que pelo menos um polo de inovação por Estado-Membro tenha um elevado grau de especialização em matéria de IA.

As PME e as empresas em fase de arranque precisarão de ter acesso a financiamento a fim de adaptar os seus processos ou de inovar utilizando a IA. Com base no próximo fundo de investimento piloto de 100 milhões de EUR em IA e cadeia de blocos, a Comissão continuará a intensificar o acesso ao financiamento no âmbito da IA ao abrigo do programa InvestEU 23 . A IA é explicitamente mencionada nas áreas elegíveis para a utilização da garantia InvestEU.

·Ação n.º 4: A Comissão colaborará com os Estados-Membros para assegurar que pelo menos um polo de inovação digital por Estado-Membro tenha um elevado grau de especialização em IA. Os Polos de Inovação Digital podem ser apoiados no âmbito do Programa Europa Digital. 

·A Comissão e o Fundo Europeu de Investimento lançarão um projeto-piloto de 100 milhões de EUR no primeiro trimestre de 2020, a fim de disponibilizar financiamento em capitais próprios para desenvolvimentos inovadores no domínio da IA. Sob reserva do acordo final sobre o QFP, a Comissão tenciona conceder um aumento significativo, a partir de 2021, através do InvestEU.

E.Parceria com o setor privado

É igualmente essencial assegurar que o setor privado participa plenamente na definição da agenda de investigação e inovação e disponibiliza o nível de coinvestimento necessário. Para o efeito, será preciso criar uma vasta parceria público-privada e garantir a participação dos quadros superiores das empresas.

·Ação n.º 5: No contexto do Horizonte Europa, a Comissão criará uma nova parceria público-privada no domínio da IA, dos dados e da robótica para combinar esforços, assegurar a coordenação da investigação e da inovação no domínio da IA, colaborar com outras parcerias público-privadas no Horizonte Europa e trabalhar em conjunto com as instalações de teste e os Polos de Inovação Digital mencionados supra.



F.Incentivar o setor público a adotar a IA

É essencial que as administrações públicas, os hospitais, os serviços de transporte e de utilidade geral pública, os supervisores financeiros e outros domínios de interesse público comecem rapidamente a utilizar produtos e serviços baseados na IA nas suas atividades. Será dada especial atenção às áreas dos cuidados de saúde e dos transportes em que a tecnologia atingiu a maturidade para uma implantação em grande escala.

·Ação n.º 6: A Comissão lançará diálogos setoriais abertos e transparentes que deem prioridade aos operadores nos setores dos cuidados de saúde, das administrações rurais e dos serviços públicos com o objetivo de apresentar um plano de ação para facilitar o desenvolvimento, a experimentação e a adoção. Os diálogos setoriais serão utilizados para preparar um programa específico de «Adoção de IA», que apoiará a contratação pública de sistemas de IA e ajudará a transformar os próprios processos de contratação pública.

G.Garantir o acesso aos dados e às infraestruturas de computação

As ações enunciadas no presente Livro Branco complementam o plano apresentado em paralelo na estratégia europeia para os dados. É fundamental melhorar o acesso aos dados e a gestão dos mesmos. Sem dados, não é possível desenvolver a IA e outras aplicações digitais. O enorme volume de novos dados ainda por gerar constitui uma oportunidade para a Europa se posicionar na vanguarda da transformação dos dados e da IA. A promoção de práticas responsáveis de gestão de dados e conformidade dos dados com os princípios FAIR contribuirá para reforçar a confiança e garantir a reutilização dos dados 24 . Igualmente importante é o investimento em tecnologias e infraestruturas de computação essenciais.

A Comissão propôs mais de 4 mil milhões de EUR no âmbito do Programa Europa Digital para apoiar a computação de alto desempenho e a computação quântica, incluindo a computação periférica e a IA, os dados e as infraestruturas de computação em nuvem. A estratégia europeia para os dados desenvolve estas prioridades.

H.Aspetos internacionais

A Europa está bem posicionada para liderar a nível mundial na criação de alianças em torno de valores comuns e na promoção da utilização ética da IA. O trabalho da UE em matéria de IA já influenciou os debates internacionais. Na elaboração das suas orientações éticas, o Grupo de Peritos de Alto Nível envolveu uma série de organizações de países terceiros e vários observadores governamentais. Paralelamente, a UE esteve estreitamente envolvida no desenvolvimento dos princípios éticos da OCDE para a IA 25 . O G20 aprovou posteriormente esses princípios na sua Declaração Ministerial sobre Comércio e Economia Digital de junho de 2019.

Além disso, a UE reconhece que estão em curso importantes trabalhos em matéria de IA noutras instâncias multilaterais, incluindo o Conselho da Europa, a Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO), a Organização de Cooperação e de Desenvolvimento Económicos (OCDE), a Organização Mundial do Comércio e a União Internacional das Telecomunicações (UIT). Na ONU, a UE participa no seguimento do relatório do Painel de Alto Nível sobre Cooperação Digital, incluindo a sua recomendação sobre a IA.

A UE continuará a cooperar com países que partilham os mesmos valores, mas também com os intervenientes mundiais, em matéria de IA, com base numa abordagem assente em regras e valores da UE (por exemplo, apoiando a convergência regulamentar ascendente, o acesso a recursos essenciais, incluindo dados, criando condições de concorrência equitativas). A Comissão acompanhará de perto as políticas dos países terceiros que limitam os fluxos de dados e abordará a questão das restrições indevidas nas negociações comerciais bilaterais e através de ações no contexto da Organização Mundial do Comércio. A Comissão está convicta de que a cooperação internacional relativa às questões de IA deve basear-se numa abordagem que promova o respeito dos direitos fundamentais, incluindo a dignidade humana, o pluralismo, a inclusão, a não discriminação e a proteção da privacidade e dos dados pessoais 26 , e procurará exportar os seus valores para todo o mundo 27 . É também evidente que o desenvolvimento e a utilização responsáveis da IA pode ser uma força motriz para alcançar os Objetivos de Desenvolvimento Sustentável e fazer avançar a Agenda 2030.

5.Um ecossistema de excelência: o quadro regulamentar para a IA

Tal como acontece com qualquer nova tecnologia, a utilização da IA proporciona oportunidades, mas também apresenta riscos. Os cidadãos receiam ficar sem possibilidade de defender os seus direitos e a sua segurança quando confrontados com assimetrias de informação de sistemas de decisão algorítmicos e as empresas estão preocupadas com a insegurança jurídica. Apesar de a IA poder ajudar a proteger a segurança dos cidadãos e lhes permitir usufruir dos seus direitos fundamentais, os cidadãos também receiam que a IA possa ter efeitos não intencionais ou mesmo ser utilizada para fins maliciosos. Devemos responder a essas preocupações. Por outro lado, para além da falta de investimento e de competências, a falta de confiança é um fator essencial que impede uma maior aceitação da IA.

É por esta razão que a Comissão definiu uma estratégia para a IA 28 em 25 de abril de 2018, abordando os aspetos socioeconómicos em paralelo com um aumento do investimento em investigação, inovação e capacidade de IA em toda a UE. Aprovou ainda um Plano Coordenado 29 com os Estados-Membros para alinhar estratégias. A Comissão criou igualmente um Grupo de Peritos de Alto Nível que publicou orientações sobre uma IA fiável em abril de 2019 30 .

A Comissão publicou uma Comunicação 31 em que se congratula com os sete requisitos essenciais identificados nas orientações do Grupo de Peritos de Alto Nível:

·Iniciativa e controlo por humanos,

·Robustez e segurança,

·Privacidade e governação dos dados,

·Transparência,

·Diversidade, não discriminação e equidade,

·Bem-estar societal e ambiental,

·Responsabilização.

Além disso, as orientações contêm uma lista de avaliação para utilização prática por parte das empresas. Durante o segundo semestre de 2019, mais de 350 organizações testaram esta lista de avaliação e enviaram comentários. O Grupo de Alto Nível está a rever as suas orientações à luz desses comentários e concluirá esse trabalho até junho de 2020. Um dos principais resultados do processo de retorno de informação é que, embora alguns dos requisitos estejam já refletidos nos regimes jurídicos ou regulamentares em vigor, os requisitos relativos à transparência, à rastreabilidade e à supervisão humana não são especificamente abrangidos pela legislação em vigor em muitos setores económicos.

Para além deste conjunto de orientações não vinculativas do Grupo de Peritos de Alto Nível, e em conformidade com as orientações políticas da presidente da Comissão, um quadro regulamentar europeu claro reforçaria a confiança dos consumidores e das empresas na IA e, por conseguinte, aceleraria a aceitação da tecnologia. Esse quadro regulamentar deve ser coerente com outras ações destinadas a promover a capacidade de inovação e a competitividade da Europa neste domínio. Além disso, deve assegurar os melhores resultados a nível social, ambiental e económico, bem como a conformidade com a legislação, os princípios e os valores da UE. Este aspeto é particularmente relevante nos domínios em que os direitos dos cidadãos podem ser mais diretamente afetados, por exemplo, no caso de soluções de IA para a aplicação da lei e o sistema judicial.

Os criadores e os responsáveis pela implantação de IA já estão sujeitos à legislação europeia em matéria de direitos fundamentais (por exemplo, proteção de dados, privacidade, não discriminação), de proteção dos consumidores e de regras em matéria de segurança dos produtos e de responsabilidade. Os consumidores esperam o mesmo nível de segurança e respeito dos seus direitos, independentemente de um produto ou sistema depender ou não da IA. No entanto, algumas características específicas da IA (por exemplo, a opacidade) podem tornar mais difícil a aplicação e a execução dessa legislação. Por este motivo, é necessário examinar se a atual legislação tem meios de enfrentar os riscos da IA e pode ser efetivamente aplicada, se são necessárias adaptações ou até mesmo nova legislação.

Dada a rápida evolução da IA, o quadro regulamentar deve deixar espaço para fazer face a desenvolvimentos futuros. Quaisquer alterações devem ser limitadas a problemas claramente identificados para os quais existam soluções viáveis.

Os Estados-Membros indicaram que atualmente não há um quadro europeu comum. A Comissão de Ética dos Dados da Alemanha apelou à criação de um sistema de regulamentação de cinco níveis baseado no risco que iria desde a ausência de regulamentação para os sistemas de IA mais inócuos até à proibição total no caso dos sistemas mais perigosos. A Dinamarca acaba de lançar o protótipo de um selo de ética dos dados. Malta introduziu um sistema de certificação voluntária para a IA. Caso não seja adotada uma abordagem a nível da UE, existe um risco real de fragmentação no mercado interno, o que comprometeria os objetivos de confiança, segurança jurídica e aceitação pelo mercado.

Um quadro regulamentar europeu sólido para uma IA fiável irá proteger todos os cidadãos europeus e ajudar a criar um mercado interno sem atritos para o desenvolvimento e a adoção da IA, bem como o reforço da base industrial da Europa em termos de IA.

A.Definição do problema

Embora a IA possa ter muitas utilizações positivas, nomeadamente tornando os produtos e os processos mais seguros, também pode ter utilizações negativas. Essas utilizações negativas podem ser materiais (segurança e saúde das pessoas, incluindo a perda de vida, danos materiais) e imateriais (perda de privacidade, limitações ao direito à liberdade de expressão, dignidade humana, discriminação, por exemplo, no acesso ao emprego) e podem estar relacionadas com uma grande variedade de riscos. O quadro regulamentar deverá incidir na forma de minimizar os vários riscos de potenciais danos, em especial os mais significativos.

Os principais riscos relacionados com a utilização da IA dizem respeito à aplicação de regras destinadas a proteger os direitos fundamentais (incluindo os dados pessoais e a proteção da privacidade e a não discriminação), bem como questões de segurança 32 e de responsabilidade.

Riscos para os direitos fundamentais, incluindo a proteção da privacidade e dos dados pessoais e a não discriminação

A utilização da IA pode afetar os valores nos quais a UE se baseia e conduzir a violações dos direitos fundamentais 33 , incluindo os direitos à liberdade de expressão, à liberdade de reunião, à dignidade humana, à não discriminação em virtude do sexo, origem racial ou étnica, religião ou crença, deficiência, idade ou orientação sexual, tal como aplicável em determinados domínios, proteção de dados pessoais e da vida privada 34 , ou direito a um recurso judicial efetivo e a um tribunal imparcial, bem como à proteção dos consumidores. Estes riscos podem resultar de falhas na conceção geral dos sistemas de IA (incluindo no que diz respeito à supervisão humana) ou da utilização de dados sem corrigir possíveis distorções (por exemplo, o sistema é treinado utilizando apenas ou principalmente dados relativos a homens, o que conduz a resultados menos bons em relação às mulheres).

A IA pode desempenhar muitas funções que anteriormente só podiam ser desempenhadas por seres humanos. Em consequência, os cidadãos e as entidades jurídicas estarão cada vez mais sujeitos a ações e decisões tomadas por ou com a assistência de sistemas de IA, que, por vezes, podem ser difíceis de compreender e de contestar eficazmente, quando necessário. Além disso, a IA aumenta as possibilidades de seguir e analisar os hábitos diários das pessoas. Por exemplo, existe um risco potencial de que a IA possa ser utilizada, em violação das regras de proteção de dados e de outras regras da UE, pelas autoridades públicas ou por outras entidades para vigilância em larga escala e pelos empregadores para observar a conduta dos seus trabalhadores. Através da análise de grandes quantidades de dados e da identificação de ligações entre eles, a IA também pode ser utilizada para reconstituir e desanonimizar dados sobre as pessoas, criando novos riscos para a proteção de dados pessoais, mesmo no que diz respeito a conjuntos de dados que, por si só, não incluem dados pessoais. A IA é também utilizada pelos intermediários em linha para dar prioridade à informação apresentada aos seus utilizadores e para efetuar moderação de conteúdos. Os dados tratados, a forma como as aplicações são concebidas e as possibilidades de intervenção humana podem afetar os direitos à liberdade de expressão, à proteção dos dados pessoais, à privacidade e às liberdades políticas.

Alguns algoritmos de IA, quando utilizados para prever a reincidência criminal, podem apresentar preconceitos sexistas ou raciais, demonstrando uma probabilidade de reincidência diferente entre mulheres e homens ou entre nacionais e estrangeiros. Fonte: Tolan S., Miron M., Gomez E., Castillo C., «Why Machine Learning May Lead to Unfairness: Evidence from Risk Assessment for Juvenile Justice in Catalonia», Best Paper Award, International Conference on AI and Law, 2019.

Alguns programas de IA de reconhecimento facial apresentam preconceitos de natureza sexista e racial, apresentando poucos erros na determinação do género dos homens de pele mais clara, mas muitos erros na determinação do género de mulheres de pele mais escura. Fonte: Buolamwini J., Gebru T., Proceedings of the 1st Conference on Fairness, Accountability and Transparency, PMLR 81:77-91, 2018. 

Os preconceitos e a discriminação são riscos inerentes a qualquer atividade económica ou societal. A tomada de decisões humanas não é imune a erros e preconceitos. No entanto, o mesmo preconceito no âmbito da IA pode ter um efeito muito maior, afetando e discriminando muitas pessoas sem os mecanismos de controlo social que regem o comportamento humano 35 . Tal pode também acontecer quando o sistema de IA «aprende» durante o seu funcionamento. Nesses casos, em que o resultado não poderia ter sido evitado ou previsto na fase de conceção, os riscos não resultarão de uma falha na conceção original do sistema, mas sim do impacto prático das correlações ou padrões que o sistema identifica num grande conjunto de dados.

As características específicas de muitas tecnologias de IA, incluindo a opacidade («efeito de caixa negra»), a complexidade, a imprevisibilidade e o comportamento parcialmente autónomo, podem dificultar a verificação do cumprimento e prejudicar a aplicação efetiva das regras do direito da UE em vigor destinadas a proteger os direitos fundamentais. As autoridades responsáveis pela aplicação da lei e as pessoas afetadas podem não dispor dos meios necessários para verificar a forma como foi tomada uma determinada decisão com o envolvimento da IA e, por conseguinte, se as regras pertinentes foram respeitadas. As pessoas singulares e coletivas podem deparar-se com dificuldades no acesso efetivo à justiça em situações em que tais decisões as possam afetar negativamente.

Riscos para a segurança e o funcionamento eficaz do regime de responsabilidade

As tecnologias de IA podem apresentar novos riscos de segurança para os utilizadores quando estão integradas em produtos e serviços. Por exemplo, em resultado de uma falha na tecnologia de reconhecimento de objetos, um automóvel autónomo pode identificar erradamente um objeto na estrada e causar um acidente que cause lesões e danos materiais. Tal como acontece com os riscos para os direitos fundamentais, estes riscos podem ser causados por falhas na conceção da tecnologia com IA, estar relacionados com problemas com a disponibilidade e a qualidade dos dados ou com outros problemas decorrentes da aprendizagem automática. Embora alguns destes riscos não se limitem aos produtos e serviços que dependem de IA, a utilização da IA pode aumentar ou agravar os mesmos.

A falta de disposições claras em matéria de segurança que abordem estes riscos pode, para além dos riscos para as pessoas em causa, criar insegurança jurídica para as empresas que comercializam produtos que envolvem IA na UE. As autoridades de fiscalização do mercado e de execução podem encontrar-se numa situação em que não seja claro se podem intervir, uma vez que podem não estar habilitadas a agir e/ou não dispor das capacidades técnicas adequadas para inspecionar os sistemas 36 . A insegurança jurídica pode, por conseguinte, reduzir os níveis globais de segurança e minar a competitividade das empresas europeias.

Nos termos da Diretiva Responsabilidade pelos Produtos, um fabricante é responsável pelos danos causados por um produto defeituoso. No entanto, no caso de um sistema baseado em IA, como os automóveis autónomos, pode ser difícil provar que existe um defeito no produto, os danos ocorridos e o nexo de causalidade entre os dois. Além disso, existe alguma incerteza sobre a forma e a medida em que a Diretiva Responsabilidade pelos Produtos é aplicável no caso de determinados tipos de defeitos, por exemplo, se estes resultarem de deficiências na cibersegurança do produto.

Caso os riscos de segurança se materializem, a falta de requisitos claros e as características das tecnologias de IA anteriormente mencionadas tornam difícil rastrear as decisões potencialmente problemáticas tomadas em relação ao envolvimento de sistemas de IA. Isto, por sua vez, pode tornar difícil para as pessoas que sofreram danos obterem uma indemnização ao abrigo da atual legislação da UE e nacional em matéria de responsabilidade 37 .

Assim, a dificuldade em rastrear decisões potencialmente problemáticas tomadas pelos sistemas de IA, acima referida em relação aos direitos fundamentais, aplica-se igualmente às questões relacionadas com segurança e responsabilidade. As pessoas que sofreram danos podem não ter acesso efetivo aos elementos de prova necessários para instruir um processo em tribunal, por exemplo, e podem ter possibilidades menos eficazes de recurso do que em situações em que os danos são causados por tecnologias tradicionais. Estes riscos aumentarão à medida que a utilização da IA se generalizar.

B. Eventuais adaptações do atual quadro legislativo da UE em matéria de IA

O extenso acervo legislativo da UE em vigor em matéria de segurança e responsabilidade dos produtos 38 , incluindo regras setoriais específicas, complementado pela legislação nacional, é relevante e potencialmente aplicável a uma série de novas aplicações de IA.

No que diz respeito à proteção dos direitos fundamentais e dos direitos dos consumidores, o quadro legislativo da UE inclui legislação como a Diretiva Igualdade Racial 39 , a Diretiva relativa à igualdade de tratamento no emprego e na atividade profissional 40 , as Diretivas relativas à aplicação do princípio de igualdade de tratamento entre homens e mulheres em domínios ligados ao emprego e no acesso a bens e serviços e seu fornecimento 41 , uma série de regras de proteção dos consumidores 42 , bem como regras sobre a proteção da privacidade e dos dados pessoais, designadamente o Regulamento Geral sobre a Proteção de Dados e outra legislação setorial abrangendo a proteção dos dados pessoais, como a Diretiva sobre a Proteção de Dados na Aplicação da Lei 43 . Além disso, a partir de 2025, serão aplicáveis as regras em matéria de requisitos de acessibilidade para bens e serviços, estabelecidas na Lei Europeia da Acessibilidade 44 . Além disso, os direitos fundamentais devem ser respeitados aquando da aplicação de outra legislação da UE, nomeadamente no domínio dos serviços financeiros, da migração ou da responsabilidade dos intermediários em linha.

Embora a legislação da UE continue, em princípio, a ser plenamente aplicável independentemente do envolvimento da IA, é importante avaliar se pode ser aplicada adequadamente para fazer face aos riscos que os sistemas de IA criam ou se é necessário ajustar determinados instrumentos jurídicos.

Por exemplo, os agentes económicos continuam a ser plenamente responsáveis pela conformidade da IA com as regras existentes que protegem os consumidores; nenhuma exploração algorítmica do comportamento dos consumidores que viole as regras existentes será permitida e, por conseguinte, as infrações serão sancionadas. 

A Comissão considera que o quadro legislativo poderia ser melhorado para fazer face aos seguintes riscos e situações:

·Aplicação e execução efetivas da legislação nacional e da UE em vigor: as principais características da IA criam desafios para assegurar a correta aplicação e execução da legislação nacional e da UE. A falta de transparência (opacidade da IA) dificulta a identificação e a prova de possíveis violações da legislação, incluindo de disposições legais que protegem os direitos fundamentais, a imputação de responsabilidades e o preenchimento das condições para pedir uma indemnização. Por conseguinte, a fim de assegurar uma aplicação e execução eficazes, pode ser necessário ajustar ou clarificar a legislação em vigor em determinados domínios, por exemplo em matéria de responsabilidade, tal como especificado no relatório que acompanha o presente Livro Branco.

·Limitações do âmbito de aplicação da legislação da UE em vigor: a legislação da UE em matéria de segurança dos produtos centra-se essencialmente na colocação dos produtos no mercado. Embora na legislação da UE em matéria de segurança dos produtos o software, quando faz parte do produto final, deva cumprir as regras pertinentes em matéria de segurança dos produtos, é uma questão em aberto se o software autónomo é abrangido pela legislação da UE em matéria de segurança dos produtos, fora de alguns setores com regras explícitas 45 . A legislação geral da UE em matéria de segurança atualmente em vigor aplica-se aos produtos e não aos serviços e, por conseguinte, não se aplica aos serviços baseados em tecnologia com IA (por exemplo, serviços de saúde, serviços financeiros, serviços de transporte).

·Constante evolução dos sistemas de IA: a integração de software, incluindo a IA, em produtos pode alterar o funcionamento desses produtos e sistemas durante o seu ciclo de vida. Isto é verdade sobretudo no caso dos sistemas que exigem atualizações frequentes de software ou que dependem da aprendizagem automática. Estas características podem dar origem a novos riscos que não existiam quando o sistema foi colocado no mercado. Estes riscos não são abordados de forma adequada na legislação em vigor, que incide essencialmente nos riscos de segurança presentes no momento da colocação no mercado.

·Incerteza quanto à repartição de responsabilidades entre diferentes operadores económicos na cadeia de abastecimento: em geral, a legislação da UE em matéria de segurança dos produtos atribui a responsabilidade ao produtor do produto colocado no mercado, incluindo todos os componentes, por exemplo, os sistemas de IA. Mas as regras podem, por exemplo, tornar-se pouco claras se a IA for acrescentada por uma parte que não é o produtor depois de o produto ser colocado no mercado. Além disso, a legislação da UE em matéria de responsabilidade pelos produtos trata da responsabilidade dos produtores e deixa às regras nacionais em matéria de responsabilidade o papel de regular a responsabilidade de outros agentes na cadeia de abastecimento.

·Alterações do conceito de segurança: a utilização da IA em produtos e serviços pode dar origem a riscos que a legislação da UE atualmente não aborda explicitamente. Estes riscos podem estar associados a ciberameaças, riscos de segurança pessoal (associados, por exemplo, a novas aplicações da IA, tais como eletrodomésticos), riscos que resultem da perda de conectividade, etc. Estes riscos podem estar presentes no momento da colocação dos produtos no mercado ou resultar de atualizações de software ou autoaprendizagem aquando da utilização do produto. A UE deve utilizar plenamente os instrumentos à sua disposição para reforçar a sua base factual sobre os riscos potenciais associados às aplicações de IA, nomeadamente utilizando a experiência da Agência da União Europeia para a Cibersegurança (ENISA) para avaliar o cenário de ameaça da IA.

Tal como indicado anteriormente, vários Estados-Membros já estão a explorar opções para a legislação nacional a fim de dar resposta aos desafios criados pela IA. Este facto aumenta o risco de fragmentação do mercado único. As normas nacionais divergentes são suscetíveis de criar obstáculos para as empresas que pretendam vender e explorar sistemas de IA no mercado único. Assegurar uma abordagem comum a nível da UE permitiria às empresas europeias beneficiar de um acesso fácil ao mercado único e apoiar a sua competitividade nos mercados mundiais.

Relatório sobre as implicações em matéria de segurança e de responsabilidade decorrentes da inteligência artificial, da Internet das coisas e da robótica

O relatório, que acompanha o presente Livro Branco, analisa o quadro jurídico pertinente. Identifica incertezas quanto à aplicação deste quadro no que diz respeito aos riscos específicos colocados pelos sistemas de IA e outras tecnologias digitais.

Conclui que a atual legislação em matéria de segurança dos produtos já apoia um conceito alargado de proteção da segurança contra todos os tipos de riscos decorrentes do produto, de acordo com a sua utilização. No entanto, poderão ser introduzidas disposições que abranjam explicitamente os novos riscos apresentados pelas tecnologias digitais emergentes, a fim de proporcionar uma maior segurança jurídica.

As características de novas tecnologias digitais como a IA, a Internet das coisas e a robótica podem colocar desafios à aplicação de determinados aspetos destes quadros em matéria de responsabilidade e podem reduzir a sua eficácia. Algumas destas características poderiam dificultar a associação dos danos a um comportamento humano que justificasse, em conformidade com a maioria das regras nacionais, uma ação por responsabilidade culposa. Isto pode aumentar significativamente os custos para as vítimas e significa que os pedidos de indemnização contra terceiros que não os produtores podem ser difíceis de apresentar ou fundamentar.

·O comportamento autónomo de determinados sistemas de IA durante o seu ciclo de vida pode implicar mudanças importantes nos produtos com um impacto na segurança, o que pode exigir uma nova avaliação dos riscos. Além disso, a supervisão humana da conceção do produto e ao longo do ciclo de vida dos produtos e sistemas com IA pode ser necessária como salvaguarda.

·Podem também ser equacionadas obrigações explícitas para os produtores no que diz respeito aos riscos para a saúde mental dos utilizadores, quando adequado (por exemplo, colaboração com robôs humanoides).

·A legislação da União em matéria de segurança dos produtos poderia conter requisitos específicos relativos aos riscos para a segurança decorrentes de dados deficientes na fase de conceção, bem como a mecanismos destinados a assegurar a manutenção da qualidade dos dados ao longo da utilização dos produtos e sistemas com IA.

·A opacidade dos sistemas baseados em algoritmos pode ser abordada através de requisitos de transparência.

·As regras existentes podem ter de ser adaptadas e clarificadas no caso de um software autónomo colocado separadamente no mercado ou descarregado para um produto após a colocação deste no mercado, quando tiver um impacto na segurança.

·Dada a complexidade crescente das cadeias de abastecimento no que se refere às novas tecnologias, disposições que exijam especificamente a cooperação entre os operadores económicos na cadeia de abastecimento e os utilizadores podem proporcionar segurança jurídica.

·As pessoas que sofreram danos causados pela intervenção de sistemas de IA devem beneficiar do mesmo nível de proteção que as pessoas que sofreram danos causados por outras tecnologias, sem que tal impeça a inovação tecnológica de se continuar a desenvolver.

·Todas as opções para garantir este objetivo devem ser cuidadosamente avaliadas, incluindo eventuais alterações da Diretiva Responsabilidade pelos Produtos e a eventual harmonização das regras nacionais em matéria de responsabilidade. Por exemplo, a Comissão pretende saber se, e em que medida, poderá ser necessário atenuar as consequências da complexidade mediante a adaptação do ónus da prova exigido pelas regras nacionais em matéria de responsabilidade no respeitante a danos causados pelo funcionamento de aplicações de IA.

Da discussão supra, a Comissão conclui que, para além dos eventuais ajustamentos da legislação em vigor, poderá ser necessária uma nova legislação específica sobre a IA, a fim de adequar o quadro jurídico da UE à evolução tecnológica e comercial atual e prevista.

C.Âmbito de aplicação do futuro quadro regulamentar da UE

Uma questão fundamental para o futuro quadro regulamentar específico em matéria de IA é determinar o seu âmbito de aplicação. Parte-se do princípio que o quadro regulamentar se aplicaria aos produtos e serviços baseados na IA. Por conseguinte, a IA deve ser claramente definida para efeitos do presente Livro Branco, bem como para qualquer futura iniciativa de elaboração de políticas.

Na sua Comunicação sobre a Inteligência artificial para a Europa, a Comissão apresentou uma primeira definição de IA 46 . Esta definição foi aperfeiçoada pelo Grupo de Peritos de Alto Nível 47 .

Em qualquer novo instrumento jurídico, a definição de IA terá de ser suficientemente flexível para ter em conta os progressos técnicos, sendo suficientemente precisa para proporcionar a segurança jurídica necessária.

Na condução autónoma, por exemplo, o algoritmo utiliza, em tempo real, os dados do automóvel (velocidade, consumo do motor, amortecedores, etc.) e dos sensores que exploram todo o ambiente do automóvel (estrada, sinais, outros veículos, peões, etc.) para calcular a direção, a aceleração e a velocidade que o automóvel deve ter para atingir um determinado destino. Com base nos dados observados, o algoritmo adapta-se à situação da estrada e às condições externas, incluindo o comportamento dos outros condutores, para obter a condução mais confortável e mais segura.

Para efeitos do presente Livro Branco, bem como de eventuais debates futuros sobre iniciativas políticas, afigura-se importante clarificar os principais elementos que compõem a IA, que são os «dados» e os «algoritmos». A IA pode ser integrada em hardware. No caso de técnicas de aprendizagem automática, que constituem um subconjunto de IA, os algoritmos são treinados para inferir determinados padrões com base num conjunto de dados, a fim de determinar as ações necessárias para alcançar um determinado objetivo. Os algoritmos podem continuar a aprender quando estão em uso. Embora os produtos com IA possam agir de forma autónoma ao percecionarem o seu ambiente e sem seguir um conjunto predeterminado de instruções, o seu comportamento é em grande parte definido e limitado pelos seus criadores. Cabe a seres humanos determinar e programar os objetivos para os quais um dado sistema deve ser otimizado. 

A UE dispõe de um quadro jurídico rigoroso para assegurar, nomeadamente, a proteção dos consumidores, combater as práticas comerciais desleais e proteger os dados pessoais e a privacidade. Além disso, o acervo contém regras específicas para determinados setores (por exemplo, cuidados de saúde, transportes). Estas disposições do direito da UE continuarão a aplicar-se em relação à IA, embora algumas atualizações desse quadro possam ser necessárias para refletir a transformação digital e a utilização da IA (ver secção B). Consequentemente, os aspetos já abrangidos pela legislação horizontal ou setorial existente (por exemplo, sobre dispositivos médicos 48 , nos sistemas de transporte) continuarão a ser regidos por esta legislação.

Por uma questão de princípio, o novo quadro regulamentar para a IA deve ser eficaz para atingir os seus objetivos, mas não excessivamente prescritivo, de forma a não criar um encargo desproporcionado, especialmente para as PME. Para atingir este equilíbrio, a Comissão considera que deve seguir uma abordagem baseada no risco.

É importante uma abordagem baseada no risco para garantir que a intervenção regulamentar é proporcionada. Contudo, exige critérios claros para diferenciar as várias aplicações de IA, em especial no que se refere à questão de saber se são ou não «de alto risco» 49 . A determinação do que é uma aplicação de IA de alto risco deve ser clara e facilmente compreensível e aplicável para todas as partes interessadas. No entanto, mesmo que uma aplicação de IA não seja qualificada como de alto risco, continua a estar inteiramente sujeita a regras da UE já existentes.

A Comissão considera que uma determinada aplicação de IA deve, em geral, ser considerada de alto risco à luz do que está em causa, tendo em conta a questão de saber se tanto o setor como a utilização prevista envolvem riscos significativos, nomeadamente do ponto de vista da proteção da segurança, dos direitos dos consumidores e dos direitos fundamentais. Mais especificamente, uma aplicação de IA deve ser considerada de alto risco se preencher os dois critérios cumulativos seguintes:

·Em primeiro lugar, a aplicação de IA é utilizada num setor em que, dadas as características das atividades tipicamente realizadas, se pode esperar que ocorram riscos significativos. Este primeiro critério garante que a intervenção regulamentar se destina aos domínios em que, de um modo geral, se considera mais provável a ocorrência de riscos. Os setores abrangidos devem ser enumerados de forma específica e exaustiva no novo quadro regulamentar. Por exemplo, cuidados de saúde, transportes, energia e partes do setor público 50 . A lista deve ser periodicamente revista e alterada, sempre que necessário, em função dos desenvolvimentos relevantes na prática;

·Em segundo lugar, a aplicação de IA no setor em causa é, além disso, utilizada de tal forma que é provável que surjam riscos significativos. Este segundo critério reflete o reconhecimento de que nem todas as utilizações da IA nos setores selecionados implicam necessariamente riscos significativos. Por exemplo, embora os cuidados de saúde geralmente possam ser um setor relevante, uma falha no sistema de marcação de horários de consultas num hospital não apresenta normalmente riscos tão significativos que justifiquem uma intervenção legislativa. A avaliação do nível de risco de uma determinada utilização poderá basear-se no impacto nas partes afetadas. Por exemplo, utilizações de aplicações de IA que produzam efeitos jurídicos ou igualmente significativos para os direitos de uma pessoa singular ou de uma empresa; que constituam um risco de lesão, de morte ou de danos materiais ou imateriais significativos; que produzam efeitos que não possam ser razoavelmente evitados por pessoas singulares ou coletivas.

A aplicação dos dois critérios cumulativos garantiria que o âmbito de aplicação do quadro regulamentar fosse bem delimitado e proporcionaria segurança jurídica. Os requisitos obrigatórios contidos no novo quadro regulamentar em matéria de IA (ver secção D infra) apenas se aplicariam, em princípio, às aplicações identificadas como de alto risco, de acordo com estes dois critérios cumulativos.

Não obstante o que precede, pode também haver casos excecionais em que, devido aos riscos em causa, a utilização de aplicações de IA para determinados fins deva ser considerada de alto risco — ou seja, independentemente do setor em causa e sendo assim igualmente aplicáveis os requisitos abaixo 51 . A título de exemplo, podemos pensar, em particular, no seguinte:

·Tendo em conta a sua importância para as pessoas e o acervo da UE em matéria de igualdade de emprego, a utilização de aplicações de IA para os processos de recrutamento, bem como em situações que afetem os direitos dos trabalhadores, seria sempre considerada «de alto risco» e, por conseguinte, os requisitos que se seguem seriam sempre aplicados. Podem ser consideradas outras aplicações específicas que afetem os direitos dos consumidores.

·A utilização de aplicações de IA para efeitos de identificação biométrica à distância 52 e de outras tecnologias de vigilância intrusivas seria sempre considerada «de alto risco» e, por conseguinte, os requisitos que se seguem seriam sempre aplicados.

D.Tipos de requisitos

Ao conceber o futuro quadro regulamentar para a IA, será necessário decidir sobre os tipos de requisitos legais obrigatórios a impor aos intervenientes relevantes. Estes requisitos podem ser especificados através de normas. Tal como referido na secção C supra, e para além da legislação já existente, esses requisitos seriam aplicáveis apenas a aplicações de IA de alto risco, garantindo assim que qualquer intervenção regulamentar é específica e proporcionada.

Tendo em conta as orientações do Grupo de Peritos de Alto Nível e o que foi exposto no que precede, os requisitos relativos às aplicações de IA de alto risco podem consistir nas seguintes características essenciais, que são debatidas de forma mais pormenorizada nas subsecções seguintes:

·dados de treino;

·conservação de registos e de dados;

·prestação de informações;

·robustez e exatidão;

·supervisão humana;

·requisitos específicos para determinadas aplicações de IA, tais como as utilizadas para fins de identificação biométrica à distância.

Para garantir a segurança jurídica, estes requisitos serão especificados de forma a fornecer um padrão de referência claro para todos os intervenientes que os devam cumprir.

a)Dados de treino

Mais do que nunca, é importante promover, reforçar e defender os valores e as regras da UE e, em especial, os direitos conferidos aos cidadãos pela legislação da UE. Estes esforços também abrangem as aplicações de IA de alto risco comercializadas e utilizadas na UE e aqui analisadas.

Tal como referido anteriormente, sem dados não há IA. O funcionamento de muitos sistemas de IA, bem como as ações e decisões a que podem conduzir, dependem muito do conjunto de dados com que os sistemas foram treinados. Por conseguinte, devem ser tomadas as medidas necessárias para garantir que, no que diz respeito aos dados utilizados para treinar sistemas de IA, os valores e as regras da UE são respeitados, nomeadamente no que se refere à segurança e às regras legislativas em vigor para a proteção dos direitos fundamentais. Poderão ser previstos os seguintes requisitos relacionados com o conjunto de dados utilizado para treinar sistemas de IA:

·Requisitos destinados a dar garantias razoáveis de que a utilização subsequente dos produtos ou serviços que o sistema de IA permite é segura, na medida em que cumpre as normas estabelecidas nas regras de segurança da UE aplicáveis (tanto as existentes como as possíveis complementares). Por exemplo, requisitos que garantam que os sistemas de IA são treinados com conjuntos de dados suficientemente amplos e abrangem todos os cenários necessários para evitar situações perigosas.

·Requisitos para tomar medidas razoáveis destinadas a garantir que a utilização subsequente dos sistemas de IA não conduz a resultados que impliquem uma discriminação proibida. Estes requisitos podem implicar, em especial, a obrigação de utilizar conjuntos de dados suficientemente representativos, especialmente para assegurar que todas as dimensões relevantes de género, etnia e outros possíveis motivos de discriminação proibida sejam adequadamente refletidas nesses conjuntos de dados.

·Requisitos destinados a garantir a proteção adequada da privacidade e dos dados pessoais durante a utilização de produtos e serviços assentes na IA. O Regulamento Geral sobre a Proteção de Dados e a Diretiva sobre a Proteção de Dados na Aplicação da Lei regulamentam estas questões, quando abrangidas pelo seu âmbito de aplicação.

b)Conservação de registos e de dados

Tendo em conta elementos como a complexidade e a opacidade de muitos sistemas de IA e as consequentes dificuldades que podem existir para verificar eficazmente a conformidade e o cumprimento das regras aplicáveis, são necessários requisitos relativos à conservação de registos em relação à programação do algoritmo, aos dados utilizados para treinar sistemas de IA de alto risco e, em certos casos, à conservação dos próprios dados. Estes requisitos permitem essencialmente que as ações potencialmente problemáticas ou as decisões dos sistemas de IA sejam identificadas e verificadas. Tal não deve apenas facilitar a supervisão e a aplicação da legislação; pode também aumentar os incentivos para que os operadores económicos em causa tenham em conta, numa fase precoce, a necessidade de respeitar essas regras.

Para o efeito, o quadro regulamentar poderá prescrever a conservação dos seguintes elementos:

·registos exatos do conjunto de dados utilizado para treinar e testar os sistemas de IA, incluindo uma descrição das principais características e da forma como o conjunto de dados foi selecionado;

·em certos casos justificados, os próprios dados;

·documentação sobre as metodologias, processos e técnicas de programação 53 e treino utilizadas para criar, testar e validar os sistemas de IA, incluindo, se for caso disso, no que respeita à segurança e à supressão de distorções que possam conduzir a uma discriminação proibida.

Os registos, a documentação e, se for caso disso, os conjuntos de dados terão de ser conservados durante um período limitado que seja razoável para assegurar a aplicação efetiva da legislação pertinente. Devem ser tomadas medidas para garantir que estas informações serão disponibilizadas mediante pedido, em especial no que se refere a testes ou inspeções pelas autoridades competentes. Sempre que necessário, devem ser tomadas medidas para garantir a proteção das informações confidenciais, designadamente os segredos comerciais. 

c)Prestação de informações

A transparência também é necessária para além dos requisitos de conservação de registos referidos na alínea c) supra. A fim de alcançar os objetivos visados, em especial a promoção da utilização responsável da IA, a criação de um clima de confiança e a facilitação das vias de recurso, sempre que necessário, é importante que sejam prestadas informações adequadas, de forma proativa, sobre a utilização de sistemas de IA de alto risco.

Assim, poderão ser considerados os seguintes requisitos:

·Assegurar que sejam fornecidas informações claras sobre as capacidades e limitações dos sistemas de IA, em especial a finalidade a que os mesmos se destinam, as condições em que se pode esperar que funcionem conforme previsto e o nível de exatidão previsto em termos de consecução do objetivo especificado. Esta informação é importante especialmente para os responsáveis pelos sistemas, mas pode também ser relevante para as autoridades competentes e as partes afetadas.

·Separadamente, os cidadãos devem ser claramente informados quando interagem com um sistema de IA e não com um ser humano. Embora a legislação da UE em matéria de proteção de dados já contenha certas regras deste tipo 54 , podem ser necessários requisitos adicionais para alcançar os objetivos acima referidos. Em caso afirmativo, há que evitar encargos desnecessários. Por conseguinte, tais informações não têm de ser fornecidas, por exemplo, em situações em que seja imediatamente evidente para os cidadãos que estão a interagir com sistemas de IA. Além disso, é importante que as informações fornecidas sejam objetivas, concisas e facilmente compreensíveis. A forma como as informações devem ser fornecidas deve ser adaptada ao contexto específico.

d)Robustez e exatidão

Para serem fiáveis, os sistemas de IA, e mais ainda as aplicações de IA de alto risco, devem ser tecnicamente robustos e exatos. Isso significa que esses sistemas têm de ser desenvolvidos de forma responsável e com um exame ex ante tendo em devida consideração os riscos que podem gerar. O seu desenvolvimento e funcionamento devem ser de molde a garantir que os sistemas de IA se comportam de forma fiável como previsto. Devem ser tomadas todas as medidas razoáveis para minimizar o risco de danos.

Por conseguinte, devem ser considerados os seguintes elementos:

·Requisitos que garantam que os sistemas de IA são robustos e exatos, ou, pelo menos, refletem corretamente o seu nível de exatidão, durante todas as fases do ciclo de vida;

·Requisitos que garantam a reprodutibilidade dos resultados;

·Requisitos que garantam que os sistemas de IA podem lidar adequadamente com erros ou incoerências durante todas as fases do ciclo de vida;

·Requisitos que garantam que os sistemas de IA são resilientes tanto contra ataques manifestos como a tentativas mais subtis de manipular os dados ou os próprios algoritmos, e que, nesses casos, são tomadas medidas de atenuação.

e)Supervisão humana

A supervisão humana contribui para garantir que um sistema de IA não põe em causa a autonomia humana nem produz outros efeitos negativos. O objetivo de uma IA fiável, ética e centrada no ser humano só pode ser alcançado através da garantia de um envolvimento adequado dos seres humanos em aplicações de IA de alto risco.

Embora as aplicações de IA consideradas no presente Livro Branco para um regime jurídico específico sejam todas consideradas de alto risco, o tipo e o grau adequados de supervisão humana podem variar de um caso para outro. Dependem, nomeadamente, da utilização prevista dos sistemas e dos efeitos que a utilização poderia ter para os cidadãos e as entidades jurídicas afetadas. Não prejudicam os direitos legais estabelecidos pelo RGPD quando o sistema de IA trata dados pessoais. Por exemplo, a supervisão humana pode ter as seguintes manifestações, que não são exaustivas:

·o resultado do sistema de IA só se torna efetivo se tiver sido previamente revisto e validado por um ser humano (por exemplo, a decisão de rejeitar um pedido de prestações de segurança social só pode ser tomada por uma pessoa);

·o resultado do sistema de IA torna-se imediatamente efetivo, mas a intervenção humana é assegurada posteriormente (por exemplo, a rejeição de um pedido de cartão de crédito pode ser processada por um sistema de IA, mas a análise humana deve ser possível posteriormente);

·monitorização do sistema de IA durante o seu funcionamento e capacidade de intervenção em tempo real e de desativação (por exemplo, um botão ou um procedimento de paragem está disponível num automóvel sem condutor quando um ser humano determina que o funcionamento do automóvel não é seguro);

·na fase de conceção, ao impor restrições operacionais ao sistema de IA (por exemplo, um veículo sem condutor deve deixar de funcionar em determinadas condições de baixa visibilidade quando os sensores podem tornar-se menos fiáveis ou manter uma determinada distância do veículo anterior em qualquer circunstância).

f)Requisitos específicos para a identificação biométrica à distância

A recolha e a utilização de dados biométricos 55 para efeitos de identificação à distância 56 , por exemplo, através do reconhecimento facial em lugares públicos, comporta riscos específicos para os direitos fundamentais 57 . As implicações em matéria de direitos fundamentais decorrentes da utilização de sistemas de IA de identificação biométrica à distância podem variar consideravelmente em função da finalidade, do contexto e do âmbito da utilização.

As regras da UE em matéria de proteção de dados proíbem, em princípio, o tratamento de dados biométricos para efeitos de identificação inequívoca de uma pessoa singular, exceto em condições específicas 58 . Especificamente, nos termos do RGPD, esse tratamento só pode ter lugar com base num número limitado de motivos, sendo o principal por razões de interesse público importante. Nesse caso, o tratamento deve ser efetuado com base no direito da UE ou no direito nacional, cumprindo os requisitos em matéria de proporcionalidade, respeito da essência do direito à proteção de dados e prestação de garantias adequadas. Nos termos da Diretiva sobre a Proteção de Dados na Aplicação da Lei, deve existir uma necessidade estrita de tal tratamento, em princípio uma autorização da legislação nacional ou da UE, bem como garantias adequadas. Uma vez que qualquer tratamento de dados biométricos para efeitos de identificação inequívoca de uma pessoa singular constitui uma exceção a uma proibição estabelecida no direito da UE, estará sujeito à Carta dos Direitos Fundamentais da UE.

Por conseguinte, em conformidade com as atuais regras da UE em matéria de proteção de dados e com a Carta dos Direitos Fundamentais, a IA só pode ser utilizada para fins de identificação biométrica à distância quando essa utilização for devidamente justificada, proporcionada e sujeita a salvaguardas adequadas.

A fim de dar resposta a eventuais preocupações societais relacionadas com a utilização da IA para esses fins em locais públicos, e para evitar a fragmentação no mercado interno, a Comissão lançará um amplo debate europeu sobre as circunstâncias específicas, se as houver, que possam justificar tal utilização, e sobre as salvaguardas comuns.

E.Destinatários

Em relação aos destinatários dos requisitos legais que seriam aplicáveis em relação às aplicações de IA de alto risco acima referidas, há duas questões principais a considerar.

Em primeiro lugar, a questão de saber de que forma as obrigações devem ser distribuídas entre os operadores económicos envolvidos. Muitos agentes económicos participam no ciclo de vida de um sistema de IA. Estes incluem o criador, o responsável pela implantação (a pessoa que utiliza um produto ou serviço equipado com IA) e potencialmente outros agentes (produtor, distribuidor ou importador, prestador de serviços, utilizador profissional ou privado).

A Comissão considera que, num futuro quadro regulamentar, cada obrigação deve ser dirigida ao ou aos intervenientes que estão em melhor posição para fazer face a potenciais riscos. Por exemplo, embora os criadores de IA possam estar em melhor posição para fazer face aos riscos existentes na fase de desenvolvimento, a sua capacidade para controlar os riscos durante a fase de utilização pode ser mais limitada. Nesse caso, o responsável pela implantação deve estar sujeito à obrigação em causa. Tal não prejudica a questão de saber, para efeitos de responsabilidade perante os utilizadores finais ou outras partes que sofram danos e de assegurar o acesso efetivo à justiça, qual é a parte responsável por qualquer dano causado. Ao abrigo da legislação da UE em matéria de responsabilidade decorrente dos produtos, a responsabilidade por produtos defeituosos é atribuída ao produtor, sem prejuízo das legislações nacionais que possam também permitir a recuperação junto de outras partes.

Em segundo lugar, coloca-se a questão do âmbito geográfico da intervenção legislativa. Na opinião da Comissão, é fundamental que os requisitos sejam aplicáveis a todos os operadores económicos relevantes que fornecem produtos ou serviços assentes na IA na UE, independentemente de estarem ou não estabelecidos na UE. Caso contrário, os objetivos da intervenção legislativa já referidos não poderiam ser atingidos na íntegra.

F.Cumprimento e aplicação

A fim de garantir que a IA é fiável e segura e respeita os valores e regras europeus, os requisitos legais aplicáveis devem ser cumpridos na prática e ser efetivamente aplicados pelas autoridades nacionais e europeias competentes e pelas partes envolvidas. As autoridades competentes devem estar em posição de investigar casos individuais, mas também de avaliar o impacto na sociedade.

Tendo em conta o elevado risco que certas aplicações de IA representam para os cidadãos e para a nossa sociedade (ver secção A supra), a Comissão considera, nesta fase, que será necessária uma avaliação prévia e objetiva da conformidade para verificar e garantir o cumprimento de alguns dos requisitos obrigatórios acima mencionados aplicáveis a aplicações de alto risco (ver secção D supra).  A avaliação prévia da conformidade pode incluir procedimentos de teste, inspeção ou certificação 59 . Pode incluir controlos dos algoritmos e dos conjuntos de dados utilizados na fase de desenvolvimento.

As avaliações da conformidade das aplicações de IA de alto risco devem fazer parte dos mecanismos de avaliação da conformidade que já existem para um grande número de produtos colocados no mercado interno da UE. Nos casos em que esses mecanismos não sejam suficientes, poderá ser necessário estabelecer mecanismos semelhantes, recorrendo às melhores práticas e a eventuais contributos das partes interessadas e das organizações europeias de normalização. Qualquer novo mecanismo deste tipo deve ser proporcionado e não discriminatório e utilizar critérios transparentes e objetivos em conformidade com as obrigações internacionais.

Aquando da conceção e aplicação de um sistema baseado em avaliações prévias da conformidade, devem ser tidos especialmente em conta os seguintes aspetos:

·Nem todos os requisitos acima referidos são suscetíveis de verificação através de uma avaliação prévia da conformidade. Por exemplo, o requisito relativo às informações a fornecer geralmente não se presta bem à verificação através desse tipo de avaliação.

·Deve ser dada especial atenção à possibilidade de alguns sistemas de IA evoluírem e aprenderem com a experiência, o que poderá exigir avaliações repetidas ao longo do período de vida dos sistemas de IA em questão.

·A necessidade de verificar os dados utilizados para treino e as metodologias, processos e técnicas relevantes de programação e treino utilizadas para criar, testar e validar sistemas de IA. 

·Caso a avaliação de conformidade demonstre que um sistema de IA não cumpre os requisitos, por exemplo relacionados com os dados utilizados para treinar a mesma, as deficiências identificadas terão de ser corrigidas, por exemplo através de uma nova fase de treino do sistema na UE de forma a garantir o cumprimento de todos os requisitos aplicáveis.

As avaliações da conformidade devem ser obrigatórias para todos os operadores económicos abrangidos pelos requisitos, independentemente do seu local de estabelecimento 60 . A fim de limitar os encargos para as PME, poderá prever-se uma estrutura de apoio, nomeadamente através dos Polos de Inovação Digital. Além disso, a existência de normas, bem como de ferramentas em linha específicas, pode facilitar o cumprimento.

Qualquer avaliação prévia da conformidade deve ser efetuada sem prejuízo do controlo da conformidade e da execução ex post pelas autoridades nacionais competentes. Isto é válido no que respeita às aplicações de IA de alto risco, mas também em relação a outras aplicações de IA sujeitas a requisitos legais, embora a natureza de alto risco das aplicações em causa possa constituir motivo para que as autoridades nacionais competentes prestem especial atenção às primeiras. Os controlos ex post devem ser facilitados por documentação adequada relativa à aplicação de IA em causa (ver a secção E supra) e, se for caso disso, pela possibilidade de terceiros, como as autoridades competentes, testarem essas aplicações. Tal pode ser especialmente importante quando surgem riscos para os direitos fundamentais, os quais dependem do contexto. Esse controlo do cumprimento deve fazer parte de um sistema de fiscalização contínua do mercado. Os aspetos relacionados com a governação são abordados mais aprofundadamente na secção H que se segue.

Além disso, tanto para as aplicações de IA de alto risco como para outras aplicações de IA, deve ser assegurado um recurso judicial efetivo para as partes afetadas negativamente pelos sistemas de IA. As questões relacionadas com a responsabilidade são discutidas mais aprofundadamente no relatório sobre o quadro em matéria de segurança e de responsabilidade que acompanha o presente Livro Branco.

G.Rotulagem voluntária para aplicações de IA sem um risco elevado

Para as aplicações de IA que não sejam consideradas «de alto risco» (ver secção C supra) e que, por conseguinte, não estão sujeitas aos requisitos obrigatórios acima referidos (ver secções D, E e F supra), uma opção seria, para além da legislação aplicável, estabelecer um regime de rotulagem voluntária.

Ao abrigo deste regime, os operadores económicos interessados que não estejam abrangidos pelos requisitos obrigatórios poderiam decidir sujeitar-se, numa base voluntária, a esses requisitos ou a um conjunto específico de requisitos semelhantes, especialmente criados para efeitos do regime voluntário. Os operadores económicos em causa receberiam então um selo de qualidade para as suas aplicações de IA.

O rótulo voluntário permitiria aos operadores económicos em causa assinalar que os seus produtos e serviços assentes na IA são fiáveis. Permitiria aos utilizadores reconhecer facilmente que os produtos e serviços em questão estão em conformidade com determinados parâmetros de referência objetivos e normalizados a nível da UE, que vão além das obrigações legais normalmente aplicáveis. Tal contribuiria para reforçar a confiança dos utilizadores nos sistemas de IA e promover a aceitação geral da tecnologia.

Esta opção implicaria a criação de um novo instrumento jurídico que estabeleça o quadro voluntário de rotulagem para os criadores e/ou os responsáveis pela implantação dos sistemas de IA que não sejam considerados de alto risco. Embora a participação no sistema de rotulagem fosse voluntária, a partir do momento em que o criador ou o responsável pela implantação optasse por utilizar o rótulo os requisitos seriam vinculativos. A combinação de controlos ex ante e ex post deveria garantir o cumprimento de todos os requisitos. 

H.Governação 

É necessária uma estrutura de governação europeia em matéria de IA, sob a forma de um quadro para a cooperação das autoridades nacionais competentes, para evitar a fragmentação de responsabilidades, aumentar a capacidade nos Estados-Membros e garantir que a Europa se dota progressivamente da capacidade necessária para testar e certificar produtos e serviços assentes na IA. Neste contexto, seria útil apoiar as autoridades nacionais competentes a fim de lhes permitir cumprir o seu mandato quando a IA é utilizada.

Uma estrutura de governação europeia poderia desempenhar uma série de tarefas, como um fórum para um intercâmbio regular de informações e melhores práticas, identificando tendências emergentes e prestando aconselhamento sobre a atividade de normalização e sobre a certificação. Deveria também desempenhar um papel fundamental na facilitação da aplicação do quadro jurídico, nomeadamente através da emissão de orientações, pareceres e conhecimentos especializados. Para o efeito, deve basear-se numa rede de autoridades nacionais, bem como de redes setoriais e autoridades reguladoras, a nível nacional e da UE. Além disso, um comité de peritos poderia prestar assistência à Comissão.

A estrutura de governação garantiria uma participação máxima das partes interessadas. As partes interessadas — organizações de consumidores e parceiros sociais, empresas, investigadores e organizações da sociedade civil — deveriam ser consultadas sobre a aplicação e o desenvolvimento do quadro.

Tendo em conta as estruturas já existentes, como no setor financeiro, dos produtos farmacêuticos, da aviação, dos dispositivos médicos, da proteção dos consumidores e da proteção de dados, a estrutura de governação proposta não deveria duplicar as funções existentes. Em vez disso, deveria estabelecer relações estreitas com outras autoridades competentes nacionais e da UE nos vários setores, a fim de complementar os conhecimentos especializados disponíveis e ajudar as autoridades existentes a monitorizar e supervisionar as atividades dos operadores económicos que envolvem sistemas de IA e produtos e serviços assentes na IA.

Por último, se esta opção for seguida, a realização das avaliações da conformidade poderia ser confiada a organismos notificados designados pelos Estados-Membros. Os centros de teste deveriam permitir a auditoria e avaliação independentes de sistemas de IA, em conformidade com os requisitos acima descritos. A avaliação independente aumentará a confiança e garantirá a objetividade. Poderia também facilitar o trabalho das autoridades competentes.

A UE dispõe de centros de teste e de avaliação excelentes e deveria desenvolver a sua capacidade também no domínio da IA. Os operadores económicos estabelecidos em países terceiros que pretendam entrar no mercado interno poderiam recorrer a organismos designados estabelecidos na UE ou, sob reserva de acordos de reconhecimento mútuo com países terceiros, recorrer a organismos de países terceiros designados para efetuar essa avaliação.

A estrutura de governação relacionada com a IA e as eventuais avaliações da conformidade em causa não afetariam os poderes e as responsabilidades atribuídas pelo direito da UE em vigor às autoridades competentes em setores específicos ou em questões específicas (finanças, produtos farmacêuticos, aviação, dispositivos médicos, proteção dos consumidores, proteção de dados, etc.).

6.Conclusão

A IA é uma tecnologia estratégica que oferece muitos benefícios aos cidadãos, às empresas e à sociedade no seu conjunto, desde que seja centrada no ser humano, ética e sustentável, e respeite os direitos e os valores fundamentais. A IA oferece importantes ganhos de eficiência e produtividade, que podem reforçar a competitividade da indústria europeia e melhorar o bem-estar dos cidadãos. Pode também contribuir para encontrar soluções para alguns dos desafios societais mais prementes, incluindo a luta contra as alterações climáticas e a degradação ambiental, os desafios relacionados com a sustentabilidade e as alterações demográficas, a proteção das nossas democracias e, se necessário e proporcionado, a luta contra a criminalidade.

Para que a Europa possa aproveitar plenamente as oportunidades que a IA oferece, deve desenvolver e reforçar as capacidades industriais e tecnológicas necessárias. De acordo com o estabelecido na estratégia europeia para os dados, que acompanha o presente documento, tal exige também medidas que permitam à UE tornar-se uma plataforma mundial de dados.

A abordagem europeia para a IA visa promover a capacidade de inovação da Europa no domínio da IA, apoiando simultaneamente o desenvolvimento e a adoção de uma IA ética e fiável em toda a economia da UE. A IA deve trabalhar para as pessoas e ser uma força para o bem da sociedade.

Com o presente Livro Branco e o relatório sobre o quadro em matéria de segurança e de responsabilidade, que o acompanha, a Comissão lança uma ampla consulta aos Estados-Membros, à indústria e aos meios académicos dos Estados-Membros sobre propostas concretas para uma abordagem europeia da IA. Estas propostas incluem os meios políticos para impulsionar os investimentos em investigação e inovação, melhorar o desenvolvimento de competências e apoiar a adoção da IA pelas PME, bem como propostas relativas aos elementos fundamentais de um futuro quadro regulamentar. Esta consulta permitirá um diálogo abrangente com todas as partes interessadas que servirá de base para as próximas etapas da Comissão.

A Comissão convida à apresentação de comentários sobre as propostas apresentadas no Livro Branco através de uma consulta pública aberta, disponível em https://ec.europa.eu/info/consultations_pt . A consulta está aberta a comentários até 19 de maio de 2020.

É prática habitual da Comissão publicar as observações recebidas no âmbito de uma consulta pública. Contudo, é possível solicitar que essas observações sejam mantidas total ou parcialmente confidenciais. Se tal for o caso, queira indicá-lo claramente na página de rosto da sua contribuição e enviar igualmente uma versão não confidencial das observações à Comissão para efeitos de publicação.

(1)

     Inteligência artificial para a Europa, COM/2018/237 final.

(2)

     https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next-commission_pt.pdf.

(3)

     COM(2020) 66 final.

(4)

   A IA e a digitalização em geral são fundamentais para concretizar as ambições do Pacto Ecológico Europeu. Porém, a atual pegada ambiental do setor das TIC está estimada em mais de 2 % de todas as emissões globais. A estratégia digital europeia que acompanha o presente Livro Branco propõe medidas ecológicas de transformação para o setor digital.

(5)

     As ferramentas de IA podem oferecer uma oportunidade para proteger melhor os cidadãos da UE da criminalidade e dos atos de terrorismo. Essas ferramentas podem contribuir, entre outros, para identificar propaganda terrorista em linha, descobrir transações suspeitas na venda de produtos perigosos, identificar objetos perigosos ocultos ou substâncias ou produtos ilícitos, prestar assistência a cidadãos em emergências e ajudar a guiar equipas de primeira intervenção.

(6)

     COM(2019) 640 final.

(7)

Embora possam vir a ser necessárias outras medidas para prevenir e combater a utilização abusiva da AI para fins criminosos, elas estão fora do âmbito do presente Livro Branco.

(8)

COM(2019) 168 final.

(9)

     Seguida pelo Japão (30 %) e os EUA (28 %). Fonte: CapGemini (2019).

(10)

     10 imperatives for Europe in the age of AI and automation (10 imperativos para a Europa na era da IA e da automação), McKinsey, 2017.

(11)

     COM(2018) 795 final.

(12)

     CID (2019).

(13)

     Gartner (2017).

(14)

     Soluções neuromórficas são sistemas de circuitos integrados de grande escala que reproduzem as arquiteturas neurobiológicas presentes no sistema nervoso.

(15)

     Os computadores quânticos terão capacidade para processar, em menos de segundos, conjuntos muito maiores de dados do que os atuais computadores de maior desempenho, permitindo o desenvolvimento de novas aplicações de IA em todos os setores.

(16)

      Inteligência artificial para a Europa, COM(2018) 237 .

(17)

      Plano Coordenado para a Inteligência Artificial, COM(2018) 795 final .

(18)

     COM(2018) 237.

(19)

     O futuro Fundo Europeu de Defesa e a cooperação estruturada permanente (CEP) também proporcionarão oportunidades de investigação e desenvolvimento no domínio da IA. Estes projetos devem ser sincronizados com os programas civis mais vastos da UE dedicados à IA.

(20)

     https://ec.europa.eu/jrc/en/publication/academic-offer-and-demand-advanced-profiles-eu.

(21)

     ec.europe.eu/digital-single-market/en/news/digital-innovation-hubs-helping-companies-across-economy-make-most-
digital-opportunities.

(22)

     www.Ai4eu.eu.

(23)

     Europe.eu/investeu.

(24)

     Fáceis de encontrar, acessíveis, interoperáveis e reutilizáveis, tal como indicado no relatório final e no plano de ação do grupo de peritos da Comissão sobre os dados FAIR, 2018, https://ec.europa.eu/info/sites/info/files/turning_fair_into_reality_1.pdf.

(25)

     https://www.oecd.org/going-digital/ai/principles/.

(26)

     Ao abrigo do Instrumento de Parceria, a Comissão financiará um projeto de 2,5 milhões de EUR que facilitará a cooperação com parceiros que partilham as mesmas ideias, a fim de promover as orientações éticas da UE no domínio da IA e adotar princípios comuns e conclusões operacionais.

(27)

   Presidente Von der Leyen, Uma União mais ambiciosa – O meu programa para a Europa, página 17.

(28)

   COM(2018) 237 final.

(29)

     COM(2018) 795 final.

(30)

   https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines#Top.

(31)

   COM(2019) 168 final.

(32)

Tal inclui questões de cibersegurança, questões relativas a aplicações de IA em infraestruturas críticas ou utilização maliciosa de IA.

(33)

     A investigação do Conselho da Europa mostra que um grande número de direitos fundamentais pode ser afetado pela utilização da IA,  https://rm.coe.int/algorithms-and-human-rights-en-rev/16807956b5 .

(34)

     O Regulamento Geral sobre a Proteção de Dados (RGPD) e a Diretiva Privacidade Eletrónica (está em negociação um novo regulamento sobre a privacidade eletrónica) abordam estes riscos, mas poderá ser necessário examinar se os sistemas de IA colocam riscos adicionais. A Comissão irá acompanhar e avaliar a aplicação do RGPD numa base contínua.

(35)

     O Comité Consultivo da Comissão para a igualdade de oportunidades entre mulheres e homens está atualmente a elaborar um Parecer sobre a Inteligência Artificial, que analisa, nomeadamente, o impacto da inteligência artificial na igualdade de género, e que deverá ser adotado pelo Comité no início de 2020. A estratégia europeia para as questões de género 2020-2024 também aborda a ligação entre a IA e a igualdade de género. A Rede Europeia dos Organismos Nacionais para a Igualdade (Equinet) publicará um relatório (da autoria de Robin Allen e Dee Masters) sobre o tema «Regulamentação da IA: o novo papel dos organismos para a igualdade — Responder aos novos desafios à igualdade e à não discriminação resultantes do aumento da digitalização e da utilização da IA», previsto para o início de 2020.

(36)

     Um exemplo pode ser um relógio inteligente para crianças. O produto pode não causar danos diretos à criança que o usa, mas, se não cumprir um nível mínimo de segurança, pode ser facilmente utilizado como um instrumento para ter acesso à criança. As autoridades de fiscalização do mercado podem ter dificuldade em intervir nos casos em que o risco não está ligado ao produto propriamente dito.

(37)

     As implicações da inteligência artificial, da Internet das coisas e de outras tecnologias digitais para a legislação em matéria de segurança e de responsabilidade são analisadas no relatório da Comissão que acompanha o presente Livro Branco.

(38)

   O quadro jurídico da UE em matéria de segurança dos produtos é constituído pela Diretiva Segurança Geral dos Produtos (Diretiva 2001/95/CE), que funciona como uma rede de segurança, e por uma série de regras setoriais que abrangem diferentes categorias de produtos, desde máquinas, aviões e automóveis até brinquedos e dispositivos médicos, tendo em vista proporcionar um nível elevado de saúde e segurança. A legislação relativa à responsabilidade pelos produtos é complementada por diversos sistemas de responsabilidade civil pelos danos causados por produtos ou serviços.

(39)

   Diretiva 2000/43/CE.

(40)

   Diretiva 2000/78/CE.

(41)

   Diretiva 2004/113/CE; Diretiva 2006/54/CE.

(42)

   Tais como a Diretiva Práticas Comerciais Desleais (Diretiva 2005/29/CE) e a Diretiva Direitos dos Consumidores (Diretiva 2011/83/CE).

(43)

   Diretiva (UE) 2016/680 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativa à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais pelas autoridades competentes para efeitos de prevenção, investigação, deteção ou repressão de infrações penais ou execução de sanções penais, e à livre circulação desses dados.

(44)

   Diretiva (UE) 2019/882 relativa aos requisitos de acessibilidade dos produtos e serviços.

(45)

      Por exemplo, o software que o fabricante pretende usar para fins médicos é considerado um dispositivo médico nos termos do Regulamento Dispositivos Médicos (Regulamento (UE) 2017/745).

(46)

     COM(2018) 237 final, p. 1: «O conceito de inteligência artificial (IA) aplica-se a sistemas que apresentam um comportamento inteligente, analisando o seu ambiente e tomando medidas — com um determinado nível de autonomia — para atingir objetivos específicos.

Os sistemas baseados em IA podem ser puramente confinados ao software, atuando no mundo virtual (por exemplo, assistentes de voz, programas de análise de imagens, motores de busca, sistemas de reconhecimento facial e de discurso), ou podem ser integrados em dispositivos físicos (por exemplo, robôs avançados, automóveis autónomos, veículos aéreos não tripulados ou aplicações da Internet das coisas).»

(47)

     Grupo de Peritos de Alto Nível, Uma definição de IA, p. 8: «Os sistemas de inteligência artificial (IA) são sistemas de software (e eventualmente também de hardware) concebidos por seres humanos, que, tendo recebido um objetivo complexo, atuam na dimensão física ou digital percecionando o seu ambiente mediante a aquisição de dados, interpretando os dados estruturados ou não estruturados recolhidos, raciocinando sobre o conhecimento ou processando as informações resultantes desses dados e decidindo as melhores ações a adotar para atingir o objetivo estabelecido. Os sistemas de IA podem utilizar regras simbólicas ou aprender um modelo numérico, bem como adaptar o seu comportamento mediante uma análise do modo como o ambiente foi afetado pelas suas ações anteriores.»

(48)

     Por exemplo, existem diferentes considerações de segurança e implicações jurídicas no que respeita aos sistemas de IA que fornecem informações médicas especializadas aos médicos, sistemas de IA que fornecem informação médica diretamente aos doentes e sistemas de IA que executam diretamente tarefas médicas num doente. A Comissão está a examinar os desafios em matéria de segurança e responsabilidade que são específicos do setor dos cuidados de saúde.

(49)

     A legislação da UE pode classificar os «riscos» de forma diferente do que é aqui descrito, consoante o domínio, como, por exemplo, a segurança dos produtos.

(50)

     O setor público poderá incluir domínios como o asilo, a migração, os controlos nas fronteiras e o sistema judicial, a segurança social e os serviços de emprego.

(51)

     É importante salientar que podem também ser aplicáveis outros atos legislativos da UE. Por exemplo, a Diretiva Segurança Geral dos Produtos pode aplicar-se à segurança das aplicações de IA, quando incorporadas num produto de consumo.

(52)

     A identificação biométrica à distância deve ser distinguida da autenticação biométrica (esta última é um processo de segurança que depende das características biológicas únicas de uma pessoa para verificar se é quem afirma ser). A identificação biométrica à distância ocorre quando as identidades de várias pessoas são estabelecidas com a ajuda de identificadores biométricos (impressões digitais, imagem facial, íris, padrões vasculares, etc.) à distância, num espaço público e de forma contínua ou permanente, mediante a sua verificação em comparação com dados armazenados numa base de dados.

(53)

     Por exemplo, documentação sobre o algoritmo, incluindo com que fim o modelo deve ser otimizado, as ponderações concebidas para certos parâmetros no início, etc.

(54)

     Em especial nos termos do artigo 13.º, n.º 2), alínea f), do RGPD, os responsáveis pelo tratamento devem, aquando da recolha dos dados pessoais, fornecer aos titulares dos dados as informações suplementares necessárias para assegurar um tratamento equitativo e transparente da existência de tomadas de decisões automatizadas e de certas informações adicionais. 

(55)

     Dados biométricos são definidos como «dados pessoais resultantes de um tratamento técnico específico relativo às características físicas, fisiológicas ou comportamentais de uma pessoa singular que permitem obter ou confirmar a identificação única dessa pessoa singular, nomeadamente imagens faciais ou dados dactiloscópicos.» (Diretiva sobre a Proteção de Dados na Aplicação da Lei, artigo 3.º, n.º 13; RGPD, artigo 4.º, n.º 14; Regulamento (UE) 2018/1725, artigo 3.º, n.º 18).

(56)

     Em relação ao reconhecimento facial, identificação significa que o modelo da imagem facial de uma pessoa é comparado com muitos outros modelos armazenados numa base de dados para saber se a imagem dessa pessoa se encontra armazenada nessa base de dados. Autenticação (ou verificação), por outro lado, é frequentemente designada por correspondência «um a um». Permite a comparação de dois modelos biométricos, que geralmente se pressupõe pertencerem à mesma pessoa. Os dois modelos biométricos são comparados para determinar se a pessoa que aparece nas duas imagens é a mesma. Este procedimento é utilizado, por exemplo, nas portas de embarque com controlo automatizado nas fronteiras (ABC) utilizadas para os controlos de fronteira nos aeroportos.

(57)

     Por exemplo, na dignidade das pessoas. De igual modo, os direitos ao respeito da vida privada e à proteção dos dados pessoais estão no cerne das preocupações em matéria de direitos fundamentais quando se utiliza a tecnologia de reconhecimento facial. Há também um impacto potencial sobre a não discriminação e os direitos dos grupos especiais, como as crianças, os idosos e as pessoas com deficiência. Além disso, as liberdades de expressão, de associação e de reunião não devem ser postas em causa pela utilização da tecnologia. Ver: Facial recognition technology: fundamental rights considerations in the context of law enforcement; https://fra.europa.eu/en/publication/2019/facial-recognition.

(58)

     Artigo 9.º do RGPD, artigo 10.º da Diretiva sobre a Proteção de Dados na Aplicação da Lei. Ver também o artigo 10.º do Regulamento (UE) n.º 2018/1725 (aplicável às instituições e organismos da UE).

(59)

     O sistema basear-se-á nos procedimentos de avaliação da conformidade na UE, ver Decisão n.º 768/2008/CE, ou no Regulamento (UE) 2019/881 (Regulamento Cibersegurança), tendo em conta as especificidades da IA. Guia Azul de 2014 sobre a Aplicação das Regras da UE em matéria de Produtos.

(60)

     No que se refere à estrutura de governação pertinente, incluindo os organismos designados para realizar as avaliações da conformidade, ver a secção H infra.

Top