This document is an excerpt from the EUR-Lex website
Document 52020IP0275
European Parliament resolution of 20 October 2020 with recommendations to the Commission on a framework of ethical aspects of artificial intelligence, robotics and related technologies (2020/2012(INL))
Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime relativo aos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas (2020/2012(INL))
Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime relativo aos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas (2020/2012(INL))
JO C 404 de 6.10.2021, p. 63–106
(BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)
6.10.2021 |
PT |
Jornal Oficial da União Europeia |
C 404/63 |
P9_TA(2020)0275
Regime relativo aos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas
Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime relativo aos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas (2020/2012(INL))
(2021/C 404/04)
O Parlamento Europeu,
— |
Tendo em conta o artigo 225.o do Tratado sobre o Funcionamento da União Europeia, |
— |
Tendo em conta o artigo 114.o do Tratado sobre o Funcionamento da União Europeia, |
— |
Tendo em conta a Carta dos Direitos Fundamentais da União Europeia, |
— |
Tendo em conta o Regulamento (UE) 2018/1488 do Conselho, de 28 de setembro de 2018, que cria a Empresa Comum para a Computação Europeia de Alto Desempenho (1), |
— |
Tendo em conta a Diretiva 2000/43/CE do Conselho, de 29 de junho de 2000, que aplica o princípio da igualdade de tratamento entre as pessoas, sem distinção de origem racial ou étnica (2) (Diretiva «Igualdade Racial»), |
— |
Tendo em conta a Diretiva 2000/78/CE do Conselho, de 27 de novembro de 2000, que estabelece um quadro geral de igualdade de tratamento no emprego e na atividade profissional (3) (Diretiva «Igualdade de Tratamento no Emprego»), |
— |
Tendo em conta o Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados e que revoga a Diretiva 95/46/CE (Regulamento Geral sobre a Proteção de Dados) (4), bem como a Diretiva (UE) 2016/680 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativa à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais pelas autoridades competentes para efeitos de prevenção, investigação, deteção ou repressão de infrações penais ou execução de sanções penais, e à livre circulação desses dados, e que revoga a Decisão-Quadro 2008/977/JAI do Conselho (5), |
— |
Tendo em conta o Acordo Interinstitucional, de 13 de abril de 2016, sobre legislar melhor (6), |
— |
Tendo em conta a proposta de regulamento do Parlamento Europeu e do Conselho, de 6 de junho de 2018, que cria o programa Europa Digital para o período de 2021-2027 (COM(2018)0434), |
— |
Tendo em conta a Comunicação da Comissão ao Parlamento Europeu, ao Conselho, ao Conselho, ao Comité Económico e Social Europeu e ao Comité das Regiões, de 11 de dezembro de 2019, sobre o Pacto Ecológico Europeu (COM(2019)0640), |
— |
Tendo em conta a Comunicação da Comissão ao Parlamento Europeu, ao Conselho, ao Comité Económico e Social Europeu e ao Comité das Regiões, de 19 de fevereiro de 2020, sobre a inteligência artificial — Uma abordagem europeia virada para a excelência e a confiança (COM(2020)0065), |
— |
Tendo em conta a Comunicação da Comissão ao Parlamento Europeu, ao Conselho, ao Comité Económico e Social Europeu e ao Comité das Regiões, de 19 de fevereiro de 2020, intitulada «Uma estratégia europeia para os dados» (COM(2020) 0066), |
— |
Tendo em conta a Comunicação da Comissão ao Parlamento Europeu, ao Conselho, ao Comité Económico e Social Europeu e ao Comité das Regiões, de 19 de fevereiro de 2020, intitulada «Construir o futuro digital da Europa» (COM(2020)0067), |
— |
Tendo em conta as Conclusões do Conselho de União Europeia intituladas «Construir o futuro digital da Europa», de junho de 2020. |
— |
Tendo em conta a sua Resolução, de 16 de fevereiro de 2017, que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica (7), |
— |
Tendo em conta a sua Resolução, de 1 de junho de 2017, sobre a digitalização da indústria europeia (8), |
— |
Tendo em conta a sua Resolução, de 12 de setembro de 2018, sobre sistemas de armamento autónomos (9), |
— |
Tendo em conta a sua Resolução, de 11 de setembro de 2018, sobre a igualdade linguística na era digital (10), |
— |
Tendo em conta a sua Resolução, de 12 de fevereiro de 2019, sobre uma política industrial europeia completa no domínio da inteligência artificial e da robótica (11), |
— |
Tendo em conta o relatório, de 8 de abril de 2019, intitulado «Orientações éticas para uma IA de confiança», elaborado pelo Grupo de peritos de alto nível sobre a inteligência artificial criado pela Comissão, |
— |
Tendo em conta o estudo de avaliação do valor acrescentado europeu, elaborado pelo Serviço de Estudos do Parlamento Europeu, intitulado «Quadro europeu dos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas: avaliação do valor acrescentado europeu» (12), |
— |
Tendo em conta as comunicações e os estudos elaborados a pedido do Painel para o Futuro da Ciência e da Tecnologia (STOA), gerido pela Unidade de Estudos Científicos Prospetivos do Serviço de Estudos do Parlamento Europeu, intitulado «What if algorithms could abide by ethical principles» (E se os algoritmos obedecessem a princípios éticos?), «Artificial Intelligence ante portas: Legal & ethical reflections» (Inteligência Artificial ante portas: reflexões legais e éticas), «A governance framework for algorithmic accountability and transparency» (Um quadro de governação para a responsabilização e a transparência dos algoritmos), «Should we fear artificial intelligence?» (Devemos recear a inteligência artificial?) e «The ethics of artificial intelligence: Issues and initiatives» (A ética na inteligência artificial: questões e iniciativas), |
— |
Tendo em conta a Convenção-Quadro para a Proteção das Minorias Nacionais do Conselho da Europa, o Protocolo n.o 12 à Convenção para a Proteção dos Direitos do Homem e das Liberdades Fundamentais e a Carta Europeia das Línguas Regionais ou Minoritárias, |
— |
Tendo em conta a Recomendação do Conselho da OCDE sobre inteligência artificial, aprovada em 22 de maio de 2019, |
— |
Tendo em conta os artigos 47.o e 54.o do seu Regimento, |
— |
Tendo em conta os pareceres da Comissão dos Assuntos Externos, da Comissão do Mercado Interno e da Proteção dos Consumidores, da Comissão dos Transportes e do Turismo, da Comissão das Liberdades Cívicas, da Justiça e dos Assuntos Internos, da Comissão do Emprego e dos Assuntos Sociais, da Comissão do Ambiente, da Saúde Pública e da Segurança Alimentar e da Comissão da Cultura e da Educação, |
— |
Tendo em conta o relatório da Comissão dos Assuntos Jurídicos (A9-0186/2020), |
Introdução
A. |
Considerando que o desenvolvimento, a implantação e a utilização da inteligência artificial (também conhecida como «IA»), da robótica e das tecnologias conexas são feitos pelos seres humanos e que as suas escolhas determinam o potencial dessas tecnologias para beneficiar a sociedade; |
B. |
Considerando que a inteligência artificial, a robótica e as tecnologias conexas com potencial para gerar oportunidades para as empresas e para os cidadãos e suscetíveis de ter um impacto direto em todos os aspetos das nossas sociedades, incluindo os direitos fundamentais e os princípios e valores sociais e económicos, bem como ter uma influência duradoura em todos os domínios de atividade, estão a ser promovidas e desenvolvidas rapidamente; |
C. |
Considerando que a inteligência artificial, a robótica e as tecnologias conexas conduzirão a mudanças substanciais no mercado laboral e no local de trabalho; considerando que podem eventualmente substituir os trabalhadores que exercem atividades repetitivas, criar modelos de trabalho assentes na colaboração homem-máquina, aumentar a competitividade e a prosperidade e criar novas oportunidades de emprego para os trabalhadores qualificados, colocando em simultâneo um grande desafio em termos de reorganização da mão de obra; |
D. |
Considerando que o desenvolvimento da inteligência artificial, da robótica e das tecnologias conexas pode também contribuir para a consecução dos objetivos do Pacto Ecológico Europeu em muitos setores diferentes; considerando que as tecnologias digitais podem impulsionar o impacto das políticas no que respeita à proteção do ambiente; considerando que podem também contribuir para reduzir o congestionamento do tráfego e as emissões de gases com efeito de estufa e de poluentes atmosféricos; |
E. |
Considerando que, em setores como os transportes públicos, os sistemas de transporte inteligentes apoiados na inteligência artificial podem ser utilizados para minimizar as filas, otimizar a seleção de percursos, permitir que as pessoas com deficiência se tornem mais independentes e aumentar a eficiência energética, reforçando assim os esforços de descarbonização e reduzindo a pegada ambiental; |
F. |
Considerando que, se forem mais utilizadas, por exemplo, no setor dos transportes, essas tecnologias fazem surgir novas oportunidades de negócio que podem contribuir para a recuperação da indústria da União após a atual crise económica e sanitária; considerando que tais oportunidades podem criar novos postos de trabalho, uma vez que a adoção destas tecnologias tem potencial para aumentar os níveis de produtividade das empresas e contribuir para ganhos de eficiência; considerando que os programas de inovação neste domínio podem fazer com que os polos regionais prosperem; |
G. |
Considerando que a União e os seus Estados-Membros têm uma responsabilidade particular em aproveitar, promover e reforçar o valor acrescentado da IA e em garantir que as tecnologias de inteligência artificial sejam seguras e contribuam para o bem-estar e o interesse geral dos seus cidadãos, uma vez que podem dar um enorme contributo para a consecução do objetivo comum de melhorar a vida dos cidadãos e fomentar a prosperidade na União, contribuindo para o desenvolvimento de melhores estratégias e a inovação em vários domínios e setores; considerando que, a fim de explorar todo o potencial da inteligência artificial e sensibilizar os utilizadores para os benefícios e os desafios associados às tecnologias de IA, é necessário incluir a IA ou a literacia digital no ensino e na formação, nomeadamente em termos de promoção da inclusão digital, assim como efetuar campanhas de informação à escala da União que representem com precisão todos os aspetos inerentes ao desenvolvimento da IA; |
H. |
Considerando que um quadro regulamentar comum da União para o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas na União («quadro regulamentar para a inteligência artificial») deve permitir que os cidadãos partilhem os benefícios resultantes do seu potencial, protegendo-os dos potenciais riscos dessas tecnologias e promovendo a fidedignidade das mesmas na União e não só; considerando que esse quadro deve basear-se no direito e nos valores da União e ser orientado pelos princípios da transparência, da explicabilidade, da equidade, da prestação de contas e da responsabilidade; |
I. |
Considerando que esse quadro regulamentar se reveste de uma importância fundamental para evitar a fragmentação do mercado interno, resultante de diferentes legislações nacionais, e ajudará a promover o tão necessário investimento, a desenvolver infraestruturas de dados e a apoiar a investigação; considerando que deve consistir em obrigações jurídicas comuns e princípios éticos tal como estabelecidos na proposta de regulamento solicitada no anexo da presente resolução; considerando que deve ser estabelecido de acordo com as orientações para legislar melhor; |
J. |
Considerando que a União dispõe de um quadro jurídico rigoroso para assegurar, nomeadamente, a proteção dos dados pessoais e da privacidade e a não discriminação e para promover a igualdade de género, a proteção do ambiente e os direitos dos consumidores; considerando que esse quadro jurídico, constituído por um vasto corpo de legislação transversal e setorial, incluindo as normas existentes em matéria de segurança dos produtos e responsabilidade, continuará a aplicar-se em relação à inteligência artificial, à robótica e às tecnologias conexas, embora possam ser necessários determinados ajustamentos de instrumentos jurídicos específicos para refletir a transformação digital e dar resposta aos novos desafios colocados pela utilização da inteligência artificial; |
K. |
Considerando que existem preocupações quanto ao facto de o atual quadro jurídico da União, nomeadamente a legislação em matéria de defesa do consumidor e acervo social e de emprego, a legislação em matéria de proteção de dados, a legislação relativa à segurança dos produtos e à fiscalização do mercado, bem como a legislação contra a discriminação, poderem já não ser adequadas para combater eficazmente os riscos criados pela inteligência artificial, pela robótica e pelas tecnologias conexas; |
L. |
Considerando que, para além de ajustamentos à legislação em vigor, as questões jurídicas e éticas relacionadas com as tecnologias de inteligência artificial devem ser abordadas através de um quadro regulamentar eficaz, abrangente e preparado para o futuro do direito da União que reflita os princípios e valores da União, tal como consagrados nos Tratados e na Carta dos Direitos Fundamentais da União Europeia (a seguir designada «Carta»), que deve evitar o excesso de regulamentação, colmatando apenas as lacunas jurídicas existentes e aumentando a segurança jurídica para as empresas e os cidadãos, nomeadamente através da inclusão de medidas obrigatórias destinadas a evitar práticas que, sem dúvida, poriam em causa os direitos fundamentais; |
M. |
Considerando que qualquer novo quadro regulamentar deve tomar em consideração todos os interesses em causa; considerando que uma análise cuidadosa das consequências de qualquer novo quadro regulamentar para todas as partes interessadas, através de uma avaliação de impacto, deve ser uma condição prévia para a adoção de novas medidas legislativas; considerando que o papel essencial das pequenas e médias empresas (PME) e das empresas em fase de arranque, sobretudo para a economia da União, justifica uma abordagem estritamente proporcional que permita que se desenvolvam e inovem. |
N. |
Considerando que a inteligência artificial, a robótica e as tecnologias conexas podem ter graves implicações para a integridade material e imaterial de indivíduos, de grupos e da sociedade no seu conjunto, e que os potenciais danos individuais e coletivos devem ser abordados com respostas legislativas; |
O. |
Considerando que, a fim de respeitar um quadro regulamentar da União para a IA, pode ser necessário adotar regras específicas para o setor dos transportes da União; |
P. |
Considerando que as tecnologias de IA são de importância estratégica para o setor dos transportes, nomeadamente devido ao aumento da segurança e acessibilidade de todos os modos de transporte e à criação de novas oportunidades de emprego e de modelos empresariais mais sustentáveis; considerando que uma abordagem da União em relação ao desenvolvimento da inteligência artificial, da robótica e das tecnologias conexas nos transportes tem potencial para aumentar a competitividade global e a autonomia estratégica da economia da União; |
Q. |
Considerando que o erro humano continua presente em cerca de 95 % da totalidade de acidentes de viação na União; considerando que a UE tinha como objetivo reduzir em 50 % até 2020 o número de vítimas mortais em acidentes rodoviários na União, em comparação com 2010, mas que, tendo em conta a estagnação dos progressos, renovou os seus esforços no quadro da política de segurança rodoviária da UE para 2021-2030 — Próximas etapas para uma «Visão Zero»; considerando que, neste sentido, a inteligência artificial, a automatização e outras novas tecnologias possuem um grande potencial e são de uma importância vital para o aumento da segurança rodoviária mediante a redução da possibilidade de erro humano; |
R. |
Considerando que o quadro regulamentar da União em matéria de IA deve igualmente refletir a necessidade de garantir o respeito dos direitos dos trabalhadores; considerando que se deve ter em conta o acordo-quadro dos parceiros sociais europeus sobre a digitalização, de junho de 2020; |
S. |
Considerando que o âmbito desse quadro regulamentar da União para a IA deve ser adequado, proporcional e avaliado de forma exaustiva; considerando que deve abranger uma vasta gama de tecnologias e respetivos componentes, nomeadamente algoritmos, software e dados por elas utilizados ou produzidos, sendo necessária uma abordagem específica orientada para os riscos para evitar prejudicar a inovação futura e a criação de encargos desnecessários, especialmente para as PME; considerando que a diversidade de aplicações impulsionadas pela inteligência artificial, pela robótica e pelas tecnologias conexas dificulta a busca de uma solução única adequada a todo o espetro de riscos; |
T. |
Considerando que a análise de dados e a IA têm um impacto cada vez maior na informação disponibilizada aos cidadãos; considerando que essas tecnologias, quando usadas indevidamente, podem pôr em perigo os direitos fundamentais à liberdade de expressão e à informação, assim como a liberdade dos meios de comunicação social e o pluralismo; |
U. |
Considerando que o âmbito geográfico do quadro regulamentar da União para a IA deve abranger todas as componentes da IA, da robótica e das tecnologias conexas desenvolvidas, implantadas ou utilizadas na União, designadamente nos casos em que uma parte das tecnologias se encontre fora da União ou não tenha uma localização específica; |
V. |
Considerando que o quadro regulamentar da União para a IA deve abranger todas as fases relevantes, nomeadamente o desenvolvimento, a implantação e a utilização das tecnologias pertinentes e dos seus componentes, tendo em devida conta as obrigações jurídicas e os princípios éticos relevantes, e deve definir as condições para garantir que os promotores, os responsáveis pela implantação e os utilizadores estejam plenamente conformes com essas obrigações e princípios; |
W. |
Considerando que uma abordagem harmonizada dos princípios éticos relacionados com a inteligência artificial, a robótica e as tecnologias conexas exige a existência na União de um entendimento comum dos conceitos que estão na base das tecnologias, tais como algoritmos, software, dados ou reconhecimento biométrico; |
X. |
Considerando que a ação à escala da União se justifica pela necessidade de evitar a fragmentação regulamentar ou um conjunto de disposições regulamentares nacionais sem um denominador comum e de assegurar uma aplicação homogénea de princípios éticos comuns consagrados no direito aquando do desenvolvimento, da implantação e da utilização da inteligência artificial, da robótica e das tecnologias conexas de alto risco; considerando que são necessárias regras claras nos casos em que os riscos sejam significativos; |
Y. |
Considerando que os princípios éticos comuns só são eficazes se também forem consagrados na legislação e se forem identificados as entidades responsáveis por assegurar, avaliar e controlar o seu cumprimento; |
Z. |
Considerando que orientações éticas, como os princípios adotados pelo grupo de peritos de alto nível sobre a inteligência artificial, constituem um bom ponto de partida, mas não podem assegurar que os promotores, os responsáveis pela implantação e os utilizadores atuem de forma equitativa e garantam uma proteção eficaz das pessoas; considerando que essas orientações são ainda mais relevantes no que diz respeito à inteligência artificial, à robótica e às tecnologias conexas de alto risco; |
AA. |
Considerando que cada Estado-Membro deve designar uma autoridade nacional de controlo responsável por assegurar, avaliar e controlar a conformidade do desenvolvimento, da implantação e da utilização da inteligência artificial, da robótica e das tecnologias conexas de alto risco com o quadro regulamentar da União para a IA, bem como por assegurar o debate e o intercâmbio de pontos de vista em estreita cooperação com as partes interessadas pertinentes e a sociedade civil; considerando que as autoridades supervisoras nacionais devem cooperar entre si; |
AB. |
Considerando que, a fim de assegurar uma abordagem harmonizada em toda a União e o bom funcionamento do mercado único digital, a coordenação a nível da União, levada a cabo pela Comissão e/ou por quaisquer instituições, organismos, serviços e agências da União pertinentes que possam ser designados neste contexto, deve ser avaliada no que respeita a novas oportunidades e desafios, em especial de natureza transfronteiriça, decorrentes dos desenvolvimentos tecnológicos em curso; considerando que, para o efeito, a Comissão deve ser encarregada de encontrar uma solução adequada para estruturar essa coordenação a nível da União; |
Uma inteligência artificial antropocêntrica e antropogénica
1. |
Considera que, sem prejuízo da legislação setorial, é necessário um quadro regulamentar eficaz e harmonizado, baseado no direito da União, na Carta e no direito internacional em matéria de direitos humanos, aplicável, em particular, às tecnologias de alto risco, a fim de estabelecer normas iguais em toda a União e de proteger eficazmente os valores da União; |
2. |
Considera que qualquer novo quadro regulamentar para a IA, constituído por obrigações jurídicas e princípios éticos para o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas, deve respeitar plenamente a Carta e, dessa forma, respeitar a dignidade humana, a autonomia e a autodeterminação dos indivíduos, prevenir danos, promover a equidade, a inclusão e a transparência, eliminar os preconceitos e a discriminação, nomeadamente em relação a grupos minoritários, respeitar os princípios de limitação das externalidades negativas da tecnologia utilizada, de explicabilidade das tecnologias e de garantia de que as tecnologias existem para servir as pessoas e não para as substituir ou decidir por elas, com o objetivo último de aumentar o bem-estar para todos os seres humanos; |
3. |
Destaca a assimetria entre os que empregam tecnologias de IA e aqueles que interagem e estão sujeitos a essas tecnologias; salienta, neste contexto, que a confiança dos cidadãos na IA só pode ser conseguida com base num quadro regulamentar de ética por definição e desde a conceção que garanta que toda e qualquer IA posta em funcionamento respeite integralmente os Tratados, a Carta e o direito derivado da União; considera que tal abordagem deve ser consentânea com o princípio da precaução que orienta a legislação da União e deve estar no cerne de qualquer quadro regulamentar para a IA; requer, a este respeito, um modelo de governação claro e coerente que permita às empresas e aos inovadores prosseguir o desenvolvimento da inteligência artificial, da robótica e das tecnologias conexas; |
4. |
Considera que qualquer ação legislativa relacionada com a inteligência artificial, a robótica e as tecnologias conexas deve estar em conformidade com os princípios da necessidade e da proporcionalidade; |
5. |
Considera que uma abordagem deste tipo permitirá às empresas introduzir produtos inovadores no mercado e criar novas oportunidades, assegurando simultaneamente a proteção dos valores da União, conduzindo ao desenvolvimento de sistemas de IA que incorporem os princípios éticos da União desde a conceção; entende que um tal quadro regulamentar baseado em valores constituiria um valor acrescentado, conferindo à Europa uma vantagem competitiva única e contribuindo de forma significativa para o bem-estar e a prosperidade dos cidadãos e das empresas da União mediante o fomento do mercado interno; sublinha que um tal quadro regulamentar para a IA também constituirá um valor acrescentado no que respeita a promover a inovação no mercado interno; considera que, por exemplo, no setor dos transportes, esta abordagem oferece às empresas da União a oportunidade de se tornarem líderes mundiais neste domínio; |
6. |
Observa que o quadro regulamentar da União deve ser aplicável à inteligência artificial, à robótica e às tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias; |
7. |
Observa que as oportunidades baseadas na inteligência artificial, na robótica e nas tecnologias conexas dependem dos megadados, sendo necessário existir uma massa crítica de dados para treinar os algoritmos e afinar os resultados; saúda, a este respeito, a proposta da Comissão relativa à criação de um espaço comum de dados na União para reforçar o intercâmbio de dados e apoiar a investigação, respeitando plenamente as regras europeias em matéria de proteção de dados; |
8. |
Considera que o atual quadro jurídico da União, especialmente em matéria de proteção e privacidade dos dados pessoais, terá de ser plenamente aplicado à IA, à robótica e às tecnologias conexas e precisa de ser periodicamente revisto e controlado e atualizado sempre que necessário, a fim de combater eficazmente os riscos criados por estas tecnologias, podendo, a este respeito, beneficiar do facto de ser completado com sólidos princípios éticos orientadores; salienta que, nos casos em que a adoção de atos jurídicos se revele prematura, deve ser utilizado um quadro não vinculativo; |
9. |
Espera que a Comissão integre uma abordagem ética sólida na proposta legislativa solicitada no anexo desta resolução, no seguimento do Livro Branco sobre a Inteligência Artificial, nomeadamente em matéria de segurança, responsabilidade e direitos fundamentais, que maximize as oportunidades e minimize os riscos das tecnologias de IA; espera que a proposta legislativa solicitada inclua soluções políticas para os principais riscos reconhecidos da inteligência artificial, como sejam a recolha e a utilização éticas de megadados, a questão da transparência algorítmica e os enviesamentos algorítmicos; insta a Comissão a desenvolver critérios e indicadores para a rotulagem das tecnologias de IA, a fim de estimular a transparência, a explicabilidade e a prestação de contas e incentivar a adoção de medidas de precaução adicionais por parte dos promotores; salienta a necessidade de investir na integração de disciplinas não técnicas no estudo e investigação sobre IA que tenham em conta o contexto social; |
10. |
Considera que a inteligência artificial, a robótica e as tecnologias conexas devem ser adaptadas às necessidades humanas, em conformidade com o princípio segundo o qual o seu desenvolvimento, implantação e utilização devem estar sempre ao serviço do ser humano e nunca o contrário, e devem procurar melhorar o bem-estar e a liberdade individual, bem como preservar a paz, prevenir conflitos e reforçar a segurança internacional, maximizando, ao mesmo tempo, os benefícios oferecidos e prevenindo e reduzindo os seus riscos; |
11. |
Declara que o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas de alto risco, nomeadamente, mas não de forma exclusiva, por seres humanos, devem ser sempre orientados eticamente e concebidos para respeitar e permitir a ação humana e o controlo democrático, bem como permitir a recuperação do controlo humano quando necessário mediante a aplicação de medidas de controlo adequadas; |
Avaliação dos riscos
12. |
Salienta que qualquer futura regulamentação deve seguir uma abordagem diferenciada, orientada para o futuro e baseada nos riscos para regulamentar a inteligência artificial, a robótica e as tecnologias conexas, incluindo normas tecnologicamente neutras em todos os setores, com normas setoriais específicas, se for caso disso; observa que, para assegurar a aplicação uniforme do sistema de avaliação dos riscos e que há conformidade com as obrigações legais conexas para assegurar condições de concorrência equitativas entre os Estados-Membros e evitar a fragmentação do mercado interno, é necessária uma lista exaustiva e cumulativa de setores de alto risco e de utilizações ou finalidades de alto risco; salienta que essa lista deve ser objeto de reavaliação periódica e observa que, tendo em conta o caráter evolutivo destas tecnologias, a forma como a avaliação dos riscos é realizada poderá ter de ser reavaliada no futuro; |
13. |
Considera que, pare determinar se a inteligência artificial, a robótica e as tecnologias conexas devem ser consideradas de alto risco e assim estar sujeitas ao cumprimento obrigatório das obrigações jurídicas e dos princípios éticos estabelecidos no quadro regulamentar para a IA, é conveniente realizar sempre uma avaliação ex ante imparcial, regulamentada e externa assente em critérios concretos e definidos; |
14. |
Considera, neste contexto, que a inteligência artificial, a robótica e as tecnologias conexas devem ser sempre consideradas de alto risco se o seu desenvolvimento, a sua implantação e a sua utilização implicarem um risco significativo de prejudicar ou de causar danos às pessoas ou à sociedade, em violação dos direitos fundamentais e das regras de segurança previstas no direito da União; considera que, para avaliar se as tecnologias de IA implicam um tal risco, há que ter em conta o setor em que são desenvolvidas, implantadas ou utilizadas, a sua finalidade ou o seu uso específicos, bem como a gravidade do prejuízo ou dos danos que possam vir a ocorrer; destaca que o primeiro e o segundo critérios, a saber, o setor e a utilização ou a finalidade específicas, devem ser considerados cumulativamente; |
15. |
Sublinha que a avaliação de risco destas tecnologias deve ser feita com base numa lista exaustiva e cumulativa de setores de alto risco e de utilizações e finalidades de alto risco; está profundamente convicto de que deve haver coerência na União no que diz respeito à avaliação dos riscos destas tecnologias, especialmente quando avaliadas à luz do seu respeito pelo quadro regulamentar para a IA e em conformidade com qualquer outra legislação setorial aplicável; |
16. |
Considera que esta abordagem baseada no risco deve ser desenvolvida de forma a limitar os encargos administrativos para as empresas e, em particular, as PME, utilizando, tanto quanto possível, os instrumentos existentes; refere que tais instrumentos incluem, entre outros, a lista de avaliação de impacto sobre a proteção de dados prevista no Regulamento (UE) 2016/679; |
Caraterísticas de segurança, transparência e responsabilização
17. |
Recorda que o direito à informação dos consumidores está consagrado como um princípio fundamental ao abrigo do direito da União e sublinha que, por conseguinte, deve ser plenamente aplicado em relação à inteligência artificial, à robótica e às tecnologias conexas; considera que deve incluir, em especial, a transparência no que respeita à interação com os sistemas de inteligência artificial, incluindo os processos de automatização, e ao seu modo de funcionamento, capacidades, por exemplo, a forma como as informações são filtradas e apresentadas, a exatidão e as limitações; considera que essas informações devem ser prestadas às autoridades nacionais de supervisão e às autoridades nacionais de defesa do consumidor; |
18. |
Sublinha que a confiança dos consumidores é essencial para o desenvolvimento e implementação destas tecnologias, que podem comportar riscos inerentes quando se baseiam em algoritmos opacos e em conjuntos de dados que contêm enviesamentos; considera que os consumidores devem ter o direito de ser informados de forma adequada, compreensível, atempada, normalizada, rigorosa e acessível sobre a existência, a fundamentação e os eventuais resultados e consequências para os consumidores dos sistemas algorítmicos, sobre como contactar um ser humano com poder de decisão e sobre o modo como as decisões do sistema podem ser verificadas, contestadas eficazmente e corrigidas; sublinha, neste contexto, a necessidade ter em conta e respeitar os princípios de informação e divulgação sobre os quais o acervo em matéria do direito de defesa do consumidor assenta; considera necessário fornecer informações pormenorizadas aos utilizadores finais em relação ao funcionamento dos sistemas de transporte e dos veículos baseados na IA; |
19. |
Observa que é essencial que os algoritmos e conjuntos de dados utilizados ou produzidos pela inteligência artificial, pela robótica e pelas tecnologias conexas sejam explicáveis e, quando estritamente necessário e no pleno respeito pela legislação da União em matéria de proteção de dados, privacidade e direitos de propriedade intelectual e segredos comerciais, sejam acessíveis às autoridades públicas, nomeadamente as autoridades nacionais de supervisão e as autoridades de fiscalização do mercado; observa ainda que, em conformidade com as normas o mais rigorosas possível aplicáveis ao setor, essa documentação deve ser armazenada pelos que intervêm nas diferentes fases do desenvolvimento de tecnologias de alto risco; assinala a possibilidade de as autoridades de fiscalização do mercado disporem de prerrogativas adicionais a esse respeito; salienta, a este respeito, o papel da engenharia inversa lícita; considera que poderá ser necessário proceder a uma análise da atual legislação em matéria de fiscalização do mercado para garantir que responde de forma ética à emergência da inteligência artificial, da robótica e das tecnologias conexas; |
20. |
Insta à adoção de um requisito para criadores e responsáveis pela implantação de tecnologias de alto risco, sempre que uma avaliação dos riscos assim o indique, de disponibilizarem às autoridades públicas a documentação pertinente sobre a utilização, a conceção e as instruções de segurança, inclusive, sempre que estritamente necessário e no pleno respeito do direito da União em matéria de proteção de dados, privacidade, direitos de propriedade intelectual e segredos comerciais, o código-fonte, os instrumentos de desenvolvimento e os dados utilizados pelo sistema; observa que tal obrigação permitiria avaliar a sua conformidade com o direito da União e os princípios éticos e observa, a este respeito, o exemplo do depósito legal de publicações de uma biblioteca nacional; assinala a importância da distinção entre transparência dos algoritmos e transparência no seu uso; |
21. |
Observa ainda que, a fim de respeitar a dignidade, autonomia e segurança humanas, devem ser tidos em devida conta os dispositivos médicos vitais e avançados e a necessidade de autoridades independentes de confiança conservarem os meios necessários para prestar serviços às pessoas que os utilizam, se o criador ou o responsável pela implantação originais já não os prestarem; refere, a título de exemplo, serviços que incluam manutenção, reparações e melhorias, nomeadamente atualizações de software que resolvam funcionamentos deficientes e vulnerabilidades; |
22. |
Defende que a inteligência artificial, a robótica e as tecnologias conexas de alto risco, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, independentemente do domínio em que são criadas, implantadas e utilizadas, sejam desenvolvidas, desde a conceção, de forma segura, rastreável, rigorosa do ponto de vista técnico, fiável, ética e juridicamente vinculativa e sejam sujeitas a controlo e de supervisão independentes; considera, em particular, que todos os intervenientes ao longo das cadeias de desenvolvimento e de fornecimento de produtos e serviços de inteligência artificial devem ser juridicamente responsáveis e salienta a necessidade de mecanismos que assegurem a responsabilidade e a prestação de contas; |
23. |
Sublinha que a regulamentação e as orientações relativas à explicabilidade, à auditoria, à rastreabilidade e à transparência, bem como, caso tal seja exigido por uma avaliação dos riscos e estritamente necessário e respeitando plenamente o direito da União, como é o caso da proteção de dados, da privacidade, dos direitos de propriedade intelectual e dos segredos comerciais, o acesso por parte das autoridades públicas aos sistemas tecnológicos, de dados e de computação subjacentes a essas tecnologias, são essenciais para garantir a confiança dos cidadãos nessas tecnologias, mesmo que o grau de explicabilidade dependa da complexidade das tecnologias; salienta que nem sempre é possível explicar por que motivo um modelo levou a um resultado ou decisão específicos, como é o caso dos algoritmos de caixa negra; considera, por conseguinte, que o respeito destes princípios é uma condição prévia para garantir a responsabilização; |
24. |
Considera que os cidadãos, incluindo os consumidores, devem ser informados quando interagem com um sistema que utiliza inteligência artificial, nomeadamente para personalizar um produto ou serviço para os seus utilizadores, e sobre se é possível e de que forma podem desativar ou limitar essa personalização; |
25. |
Salienta, a este respeito, que, para serem fiáveis, a inteligência artificial, a robótica e as suas tecnologias conexas devem ser tecnicamente sólidas e exatas; |
26. |
Salienta a importância da proteção das redes de IA e robótica interligadas e que devem ser tomadas medidas vigorosas para evitar violações da segurança, fugas de dados, contaminações de dados, ciberataques e utilizações indevidas de dados pessoais, pelo que será necessário que as agências, os órgãos e as instituições pertinentes, tanto a nível da União como local, colaborem entre si e com os utilizadores finais destas tecnologias; insta a Comissão e os Estados-Membros a zelarem por que os valores da União e o respeito dos direitos fundamentais sejam a todo o momento observados aquando do desenvolvimento e da implantação de tecnologias de IA, a fim de garantir a segurança e a resiliência da infraestrutura digital da União; |
Não enviesamento e não discriminação
27. |
Recorda que, dependendo da forma como é criada e utilizada, a inteligência artificial tem potencial para criar e reforçar enviesamentos, nomeadamente através de enviesamentos inerentes aos conjuntos de dados subjacentes, e, portanto, criar várias formas de discriminação automatizada, incluindo a discriminação indireta, relativamente a determinados grupos de pessoas com características semelhantes; insta a Comissão e os Estados-Membros a tomarem todas as medidas possíveis para evitar tais distorções e assegurar a proteção plena dos direitos fundamentais; |
28. |
Manifesta preocupação pelo facto de existirem riscos de enviesamento e discriminação no desenvolvimento, na implantação e na utilização da inteligência artificial, da robótica e das tecnologias conexas de alto risco, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias; recorda que, em todas as circunstâncias, devem respeitar o direito da União, bem como os direitos humanos e a dignidade, a autonomia e a autodeterminação do indivíduo, e assegurar a igualdade de tratamento e a não discriminação para todos; |
29. |
Salienta que as tecnologias de IA devem ser concebidas para respeitar, servir e proteger os valores da União e a integridade física e mental, defender a diversidade cultural e linguística da União e ajudar a satisfazer as necessidades essenciais; sublinha a necessidade de evitar qualquer utilização que possa levar a uma coerção direta ou indireta inadmissível, ameaçar prejudicar a autonomia psicológica e a saúde mental ou conduzir a uma vigilância injustificada, ao engano ou a uma manipulação inadmissível; |
30. |
Acredita firmemente que os direitos humanos fundamentais consagrados na Carta devem ser rigorosamente respeitados, de modo a garantir que estas tecnologias emergentes não criem lacunas em termos de proteção; |
31. |
Afirma que os eventuais enviesamento e discriminação por parte do software, algoritmos e dados podem causar danos manifestos aos indivíduos e à sociedade, pelo que devem ser abordados incentivando a criação e partilha de estratégias para os combater, como a eliminação do enviesamento de conjuntos de dados usados na investigação e no desenvolvimento e a criação de regras em matéria de tratamento de dados; considera que esta abordagem tem potencial para transformar software, algoritmos e dados num ativo na luta contra o enviesamento e a discriminação em determinadas situações, bem como numa força para a igualdade de direitos e numa mudança social positiva; |
32. |
Considera que os valores éticos de equidade, exatidão, confidencialidade e transparência devem constituir a base destas tecnologias, o que, neste contexto, implica que as suas operações devem adotar uma forma que não gere resultados enviesados; |
33. |
Sublinha a importância da qualidade dos conjuntos de dados utilizados na inteligência artificial, na robótica e nas tecnologias conexas dependendo do seu contexto, especialmente no que diz respeito à representatividade dos dados de treino usados, da correção do enviesamento nos conjuntos de dados, dos algoritmos usados e das normas relativas aos dados e à agregação; salienta que esses conjuntos de dados devem ser verificáveis pelas autoridades nacionais de supervisão sempre que estas sejam chamadas a garantir a sua conformidade com os princípios anteriormente enunciados; |
34. |
Realça que, no contexto da guerra generalizada de desinformação conduzida, em particular, por intervenientes não europeus, as tecnologias de IA podem ter efeitos negativos em termos de ética, ao explorarem enviesamentos em dados e algoritmos ou através de dados de treino deliberadamente modificados por um país terceiro, podendo também estar expostas a outras formas de manipulação mal intencionadas, perigosas e imprevisíveis, com consequências incalculáveis; cumpre, por conseguinte, que a União continue a investir em investigação, na análise, na inovação e na transferência de conhecimentos transfronteiras e intersectorial, de modo a desenvolver tecnologias de IA que sejam claramente isentas de qualquer tipo de definição de perfis, de enviesamentos e de discriminação e possam, efetivamente, contribuir para combater as notícias falsas e a desinformação, respeitando, em simultâneo, a privacidade dos dados e o quadro jurídico da União; |
35. |
Recorda a importância de garantir vias de recurso eficazes para as pessoas e insta os Estados-Membros a assegurarem a existência de procedimentos e mecanismos de recurso acessíveis, económicos, independentes e eficazes para garantir uma análise imparcial, feita por seres humanos, de todas as alegações de violação dos direitos dos cidadãos, como os direitos civis ou os direitos dos consumidores, através do recurso a sistemas algorítmicos, quer imputáveis a intervenientes públicos, quer privados; sublinha a importância do projeto de Diretiva do Parlamento Europeu e do Conselho relativa a ações coletivas para proteger os interesses coletivos dos consumidores e que revoga a Diretiva 2009/22/CE, em relação à qual foi alcançado um acordo político em 22 de junho de 2020, no que respeita a casos que, no futuro, contestem a introdução ou a utilização em curso de um sistema de IA que envolva violações dos direitos dos consumidores, ou solicitem a reparação de uma violação de direitos; solicita à Comissão e aos Estados-Membros que velem por que as organizações de consumidores, a nível nacional e da União, disponham de financiamento suficiente para ajudar os consumidores a exercerem o seu direito de recurso nos casos em que os seus direitos tenham sido violados; |
36. |
Considera, por conseguinte, que qualquer pessoa singular ou coletiva deve poder recorrer de uma decisão da inteligência artificial, da robótica ou de uma tecnologia conexa que lhe seja prejudicial em violação do direito nacional ou da União; |
37. |
Considera que, como primeiro ponto de contacto em caso de suspeita de violação do quadro regulamentar da União neste contexto, os consumidores poderiam igualmente enviar às autoridades nacionais de supervisão pedidos de recurso, com vista a assegurar a aplicação efetiva do referido quadro; |
Responsabilidade social e igualdade de género
38. |
Salienta que a inteligência artificial, a robótica e as tecnologias conexas socialmente responsáveis têm um papel a desempenhar no que toca a contribuir para encontrar soluções que salvaguardem e promovam os valores e os direitos fundamentais da nossa sociedade, nomeadamente a democracia, o Estado de direito, a diversidade e a independência dos meios de comunicação social e uma informação objetiva e de livre acesso, a saúde e a prosperidade económica, a igualdade de oportunidades, os direitos sociais e laborais, a educação de qualidade, a proteção das crianças, a diversidade cultural e linguística, a igualdade de género, a literacia digital, a inovação e a criatividade; recorda a necessidade de garantir que os interesses de todos os cidadãos, incluindo os que são marginalizados ou que se encontram em situações de vulnerabilidade, como as pessoas com deficiência, sejam devidamente tidos em conta e representados; |
39. |
Salienta a importância de alcançar um elevado nível de literacia digital generalizada e de formar profissionais altamente qualificados neste domínio, bem como de garantir o reconhecimento mútuo dessas qualificações em toda a União; frisa a necessidade de contar com equipas diversificadas compostas por criadores e engenheiros, por um lado, e os principais intervenientes na sociedade, por outro, a fim de evitar que os preconceitos de género e os preconceitos culturais sejam incluídos inadvertidamente em algoritmos, sistemas e aplicações de IA; apoia a criação de programas de ensino e atividades de sensibilização do público relativamente às implicações sociais, jurídicas e éticas da inteligência artificial; |
40. |
Salienta a importância vital de garantir a liberdade de pensamento e de expressão, assegurando que estas tecnologias não promovam discursos de ódio ou atos de violência; considera, assim, que impedir ou restringir a liberdade de expressão exercida digitalmente é ilegal ao abrigo dos princípios fundamentais da União, exceto quando o exercício deste direito fundamental implique atos ilegais; |
41. |
Salienta que a inteligência artificial, a robótica e as tecnologias conexas podem contribuir para reduzir as desigualdades sociais e afirma que o modelo europeu para o seu desenvolvimento deve basear-se na confiança dos cidadãos e numa maior coesão social; |
42. |
Salienta que a implantação de qualquer sistema de inteligência artificial não deve restringir indevidamente o acesso dos utilizadores a serviços públicos, como a segurança social; insta, por conseguinte, a Comissão a avaliar a forma como este objetivo pode ser alcançado; |
43. |
Salienta a importância de uma investigação e um desenvolvimento responsáveis que visem maximizar o potencial pleno da inteligência artificial, da robótica e das tecnologias conexas para os cidadãos e para o bem público; solicita a mobilização de recursos da União e dos seus Estados-Membros, a fim de desenvolver e apoiar a inovação responsável; |
44. |
Salienta que as competências tecnológicas serão cada vez mais importantes e, por conseguinte, será necessário atualizar continuamente os cursos de formação, em particular para as gerações futuras, e promover a requalificação das pessoas que já se encontram no mercado de trabalho; defende, a este respeito, que a inovação e a formação devem ser promovidas não só no setor privado, mas também no setor público; |
45. |
Insiste em que o desenvolvimento, a implantação e a utilização destas tecnologias não devem traduzir-se em prejuízos ou danos de qualquer tipo para os indivíduos ou a sociedade, nem para o ambiente, e que, por conseguinte, os criadores, os responsáveis pela implantação e os utilizadores destas tecnologias devem ser responsabilizados por tais prejuízos ou danos, em conformidade com as normas pertinentes a nível nacional e da União em matéria de responsabilidade; |
46. |
Insta os Estados-Membros a avaliarem se as perdas de postos de trabalho resultantes da implantação destas tecnologias devem conduzir a políticas públicas adequadas, como a redução do tempo de trabalho; |
47. |
Defende que é extremamente necessária uma abordagem de conceção baseada em valores e princípios éticos da União para criar as condições para uma aceitação social generalizada da inteligência artificial, da robótica e das tecnologias conexas; considera que esta abordagem, que visa desenvolver uma inteligência artificial fiável, eticamente responsável e tecnicamente robusta, é um elemento importante para uma mobilidade sustentável e inteligente, segura e acessível; |
48. |
Chama a atenção para o elevado valor acrescentado que os veículos autónomos representam para as pessoas com mobilidade reduzida, ao permitir que estas participem melhor no transporte rodoviário individual e, dessa forma, facilitar a sua vida quotidiana; salienta a importância da acessibilidade, especialmente na conceção dos sistemas MaaS (mobilidade enquanto serviço); |
49. |
Insta a Comissão a continuar a apoiar o desenvolvimento de sistemas de IA fiáveis, a fim de tornar os transportes mais seguros, eficientes, acessíveis, económicos e inclusivos, nomeadamente para as pessoas com mobilidade reduzida, em particular as pessoas com deficiência, tendo em conta a Diretiva (UE) 2019/882, do Parlamento Europeu e do Conselho (13), e o direito da União relativo aos direitos dos passageiros; |
50. |
Considera que a IA pode ajudar a aproveitar melhor as aptidões e competências das pessoas com deficiência e que a aplicação da IA no local de trabalho pode contribuir para mercados de trabalho inclusivos e taxas de emprego mais elevadas para as pessoas com deficiência; |
Ambiente e sustentabilidade
51. |
Afirma que a inteligência artificial, a robótica e as tecnologias conexas devem ser utilizados pelos governos e pelas empresas para beneficiar as populações e o planeta, contribuir para a consecução do desenvolvimento sustentável, a preservação do ambiente, a neutralidade climática e os objetivos da economia circular; considera que o desenvolvimento, a implantação e a utilização destas tecnologias devem contribuir para uma transição ecológica, proteger o ambiente, bem como minimizar e reparar quaisquer danos causados ao ambiente durante o seu ciclo de vida e ao longo de toda a sua cadeia de abastecimento em conformidade com o direito da União; |
52. |
Considera que, tendo em conta o seu impacto ambiental significativo, para efeitos do número anterior, o impacto ambiental do desenvolvimento, da implantação e da utilização da inteligência artificial, da robótica e das tecnologias conexas poderá ser avaliado ao longo do ciclo de vida, sempre que pertinente e adequado, por autoridades setoriais específicas; entende que essa avaliação poderá incluir uma estimativa do impacto da extração dos materiais necessários, do consumo de energia e das emissões de gases com efeito de estufa causado pelo seu desenvolvimento, implantação e utilização; |
53. |
Propõe, com o objetivo de desenvolver soluções de inteligência artificial de ponta, que o potencial da inteligência artificial, da robótica e das tecnologias conexas seja explorado, incentivado e maximizado através de uma investigação e desenvolvimento responsáveis, o que exige a mobilização de recursos por parte da União e dos seus Estados-Membros; |
54. |
Realça que o desenvolvimento, a implantação e a utilização destas tecnologias proporcionam oportunidades para a promoção dos Objetivos de Desenvolvimento Sustentável das Nações Unidas, da transição energética mundial e da descarbonização; |
55. |
Considera que os objetivos de responsabilidade social, de igualdade de género, de proteção do ambiente e de sustentabilidade não devem prejudicar as obrigações gerais e setoriais vigentes nestes domínios; considera que devem ser estabelecidas orientações de execução não vinculativas para os criadores, os responsáveis pela implantação e os utilizadores, especialmente no que se refere às tecnologias de alto risco, relativamente à metodologia para avaliar a sua conformidade com o presente regulamento e a realização desses objetivos; |
56. |
Insta a União a promover e financiar o desenvolvimento de inteligência artificial, robótica e tecnologias conexas centradas no ser humano que deem resposta aos desafios ambientais e climáticos e garantam o respeito dos direitos fundamentais através da utilização de incentivos fiscais, incentivos em matéria de contratação pública ou outros incentivos; |
57. |
Salienta que, apesar da atualmente elevada pegada de carbono do desenvolvimento, da implantação e da utilização de inteligência artificial, da robótica e das tecnologias conexas, incluindo as decisões automatizadas e a aprendizagem automática, essas tecnologias podem contribuir para a redução da pegada ambiental atual do setor das TIC; sublinha que estas e outras tecnologias conexas devidamente regulamentadas deverão ser fatores determinantes para atingir os objetivos do Pacto Ecológico, os Objetivos de Desenvolvimento Sustentável das Nações Unidas e os objetivos do Acordo de Paris em muitos setores diferentes e deverão potenciar o impacto de políticas de proteção do ambiente, por exemplo, as políticas relativas à redução de resíduos e à degradação ambiental; |
58. |
Insta a Comissão a realizar um estudo sobre o impacto da pegada carbónica das tecnologias de IA e sobre os impactos positivos e negativos da transição para utilização das tecnologias de IA pelos consumidores; |
59. |
Observa que, dado o desenvolvimento crescente de aplicações de IA, que exigem recursos computacionais, de armazenamento e energéticos, o impacto ambiental dos sistemas de IA deve ser analisado ao longo do respetivo ciclo de vida; |
60. |
Entende que, em domínios como a saúde, a responsabilidade deve caber, em última instância, a uma pessoa singular ou coletiva; salienta a necessidade de dados rastreáveis e publicamente disponíveis para treinar os algoritmos; |
61. |
Apoia firmemente a criação de um espaço europeu de dados de saúde, conforme proposto pela Comissão na sua Comunicação relativa a uma estratégia europeia para os dados, que visa promover o intercâmbio de dados de saúde e apoiar a investigação no pleno respeito da proteção dos dados, incluindo o tratamento de dados com tecnologias de IA, e que reforça e alarga a utilização e a reutilização dos dados de saúde; incentiva a intensificação do intercâmbio transfronteiras de dados de saúde, da ligação e da utilização desses dados através de repositórios federados, seguros, de tipos específicos de informações de saúde, tais como os registos de saúde europeus, as informações genómicas e imagens médicas digitais, para facilitar bases de dados ou registos interoperáveis a nível europeu em domínios como a investigação, a ciência e a saúde; |
62. |
Realça os benefícios da IA para a prevenção, o tratamento e o controlo de doenças, exemplificados pela previsão da epidemia de COVID-19 pela IA antes da OMS; insta a Comissão a dotar adequadamente o ECDC do quadro regulamentar e dos recursos para recolher, de forma independente em articulação com os Estados-Membros, os dados de saúde globais em tempo real anonimizados necessários para, por exemplo, resolver os problemas revelados pela pandemia de COVID-19; |
Privacidade e reconhecimento biométrico
63. |
Faz notar o rápido aumento da produção e utilização de dados, nomeadamente de dados pessoais como os dados biométricos resultantes do desenvolvimento, implantação e utilização da inteligência artificial, da robótica e das tecnologias conexas, o que realça a necessidade de respeitar e proteger os direitos dos cidadãos à privacidade e à proteção dos dados pessoais, em conformidade com o direito da União; |
64. |
Salienta que o facto de essas tecnologias permitirem que dados pessoais e não pessoais sejam utilizados para categorizar e microssegmentar grupos de pessoas, identificar as vulnerabilidades dos indivíduos ou explorar conhecimentos preditivos exatos, deve ser contrabalançado com medidas de proteção dos dados e princípios de privacidade efetivamente aplicados, como a minimização dos dados, o direito de oposição à definição de perfis e de controlo da utilização dos dados, o direito a uma explicação para uma decisão baseada no tratamento automatizado e a privacidade desde a conceção, bem como os princípios da proporcionalidade, da necessidade e da limitação baseada em finalidades claramente definidas, em conformidade com o RGPD; |
65. |
Frisa que sempre que as autoridades públicas utilizem tecnologias de reconhecimento a distância, como o reconhecimento de características biométricas, nomeadamente o reconhecimento facial, para fins de substancial interesse público, devem garantir que essa utilização seja restringida a objetivos específicos, limitada no tempo em conformidade com o direito da União e no devido respeito pela autonomia e dignidade humana e pelos direitos fundamentais consagrados na Carta; salienta que os critérios e limites desses sistemas devem ser sujeitos a revisão judicial e a um controlo democrático e devem ter em conta o seu impacto psicológico e sociocultural na sociedade civil; |
66. |
Assinala que, embora a implantação de inteligência artificial, robótica e tecnologias conexas no âmbito de decisões de poder público tenha benefícios, pode também dar origem a abusos graves, como a vigilância em larga escala, o policiamento preditivo e a violação dos direitos processuais; |
67. |
Considera que as tecnologias capazes de produzir decisões automatizadas, substituindo assim as decisões tomadas pelas autoridades públicas, devem ser tratadas com a máxima precaução, nomeadamente no domínio da justiça e da aplicação da lei; |
68. |
Entende que os Estados-Membros apenas devem fazer uso dessas tecnologias se existirem provas concludentes da sua fiabilidade e se a intervenção e revisão humana significativa for possível ou sistemática nos casos em que estejam em causa liberdades fundamentais; sublinha a importância de as autoridades nacionais procederem a uma avaliação rigorosa do impacto nos direitos fundamentais dos sistemas de inteligência artificial implantados nestes casos, especialmente na sequência da avaliação dessas tecnologias como de alto risco; |
69. |
É de opinião que qualquer decisão tomada pela inteligência artificial, pela robótica ou por tecnologias conexas no quadro das prerrogativas de poder público deve ser sujeita a uma intervenção humana significativa e a um processo equitativo, especialmente na sequência da avaliação dessas tecnologias como de alto risco; |
70. |
Está convicto de que o progresso tecnológico não deve conduzir à utilização da inteligência artificial, da robótica e das tecnologias conexas para tomar autonomamente decisões do setor público que tenham um impacto direto e significativo nos direitos e obrigações dos cidadãos; |
71. |
Observa que a IA, a robótica e as tecnologias conexas no domínio da aplicação da lei e do controlo das fronteiras podem reforçar a segurança pública, mas também requerem um escrutínio público alargado e rigoroso e o mais elevado nível de transparência possível, tanto em termos de avaliação dos riscos de cada aplicação, como de uma panorâmica geral da forma como a IA, a robótica e as tecnologias conexas são utilizadas no domínio da aplicação da lei e do controlo das fronteiras; considera que essas tecnologias comportam importantes riscos éticos que devem ser adequadamente abordados, tendo em conta os possíveis efeitos adversos para as pessoas, em particular para os seus direitos à privacidade, à proteção de dados e à não discriminação; salienta que a sua utilização abusiva pode tornar-se uma ameaça direta para a democracia e que a sua implantação e utilização devem respeitar os princípios da proporcionalidade e da necessidade, a Carta dos Direitos Fundamentais, bem como o direito derivado pertinente da União, nomeadamente as regras em matéria de proteção de dados; sublinha que a IA jamais deverá substituir os seres humanos na emissão de decisões judiciais; considera que decisões como a de colocar em liberdade sob caução ou liberdade condicional, que são tomadas em tribunal, ou as decisões baseadas unicamente no tratamento automatizado que produzam efeitos jurídicos relativamente a pessoas ou que as afetem de forma significativa devem implicar sempre uma avaliação profunda e uma decisão por um ser humano; |
Boa governação
72. |
Insiste em que uma governação adequada do desenvolvimento, implantação e utilização da inteligência artificial, da robótica e das tecnologias conexas, em especial as tecnologias de alto risco, através da adoção de medidas centradas na responsabilização e na abordagem dos potenciais riscos de enviesamento e discriminação, pode aumentar a segurança e a confiança dos cidadãos nessas tecnologias; |
73. |
Considera que um quadro comum para a governação destas tecnologias, coordenado pela Comissão e/ou quaisquer instituições, órgãos e organismos da União pertinentes que possam ser designados para esta função neste contexto e implementado pelas autoridades nacionais de supervisão em cada Estado-Membro, asseguraria uma abordagem da União coerente e evitaria uma fragmentação do mercado único; |
74. |
Observa que grandes volumes de dados são utilizados no desenvolvimento da inteligência artificial, da robótica e das tecnologias conexas, pelo que o seu tratamento e partilha, bem como o acesso a esses dados e a sua utilização, devem estar em conformidade com a legislação e obedecer aos requisitos de qualidade, integridade, interoperabilidade, transparência, segurança, privacidade e controlo nela estabelecidos; |
75. |
Recorda que o acesso aos dados é uma componente essencial do crescimento da economia digital; assinala, a este respeito, que a interoperabilidade dos dados, ao limitar os efeitos de vinculação, desempenha um papel fundamental na garantia de condições de mercado equitativas e na promoção da igualdade das condições de concorrência no mercado único digital; |
76. |
Realça a necessidade de assegurar a proteção adequada dos dados pessoais, em especial dos dados sobre os grupos vulneráveis ou deles provenientes, nomeadamente pessoas com deficiência, doentes, crianças, idosos, minorias, migrantes e outros grupos em risco de exclusão; |
77. |
Observa que o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas pelas autoridades públicas são frequentemente subcontratados a entidades privadas; entende que tal não deve comprometer, de forma alguma, a proteção dos valores públicos e dos direitos fundamentais; defende que os termos e condições dos contratos públicos devem refletir as normas éticas impostas às autoridades públicas, quando aplicável; |
Os consumidores e o mercado interno
78. |
Sublinha a importância de se aplicar um quadro regulamentar em matéria de IA sempre que os consumidores da União sejam utilizadores de um sistema algorítmico, estejam sujeitos, sejam alvo ou sejam orientados para um tal sistema, independentemente do local de estabelecimento das entidades que desenvolvem, vendem ou utilizam o sistema; entende, além disso, que, a bem da certeza jurídica, as regras estabelecidas num tal quadro devem aplicar-se a todos os criadores e em toda a cadeia de valor, nomeadamente o desenvolvimento, a implantação e a utilização das tecnologias pertinentes e respetivas componentes, e devem garantir um elevado nível de proteção dos consumidores; |
79. |
Assinala a ligação intrínseca entre a inteligência artificial, a robótica e as tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, por um lado, e domínios como a Internet das coisas, a aprendizagem automática, os sistemas baseados em regras ou os processos decisórios automatizados e assistidos, por outro; observa ainda que poderiam ser desenvolvidos símbolos normalizados para ajudar a explicar esses sistemas aos consumidores sempre que apresentem algum grau de complexidade ou sejam utilizados para tomar decisões que tenham um impacto significativo nas vidas dos consumidores; |
80. |
Recorda que a Comissão deve examinar o atual quadro jurídico e a respetiva aplicação, incluindo o acervo em matéria do direito de defesa do consumidor, a legislação em matéria de responsabilidade decorrente dos produtos, a legislação em matéria de segurança dos produtos e a legislação relativa à fiscalização do mercado, a fim de identificar lacunas jurídicas, bem como as obrigações regulamentares existentes; considera que tal é necessário para determinar a sua capacidade para responder aos novos desafios decorrentes da emergência da inteligência artificial, da robótica e das tecnologias conexas e para assegurar um elevado nível de proteção dos consumidores; |
81. |
Salienta a necessidade de enfrentar eficazmente os desafios criados pela inteligência artificial, a robótica e as tecnologias conexas e de assegurar que os consumidores estejam capacitados e devidamente protegidos; sublinha a necessidade de ir além dos princípios tradicionais de informação e divulgação sobre os quais o acervo em matéria do direito de defesa do consumidor assenta, uma vez que será necessário prever direitos reforçados para os consumidores e limitações claras no que respeita ao desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas para garantir que tais tecnologias contribuam para melhorar a vida dos consumidores e evoluam de uma forma que respeite os direitos fundamentais e dos consumidores, assim como os valores da União; |
82. |
Assinala que o quadro legislativo introduzido pela Decisão n.o 768/2008/CE (14) prevê uma lista harmonizada de obrigações para os produtores, importadores e distribuidores, incentiva a utilização de normas e prevê vários níveis de controlo em função da perigosidade do produto; considera que esse quadro deve aplicar-se igualmente aos produtos que integram uma componente de IA; |
83. |
Observa que, para efeitos de análise dos impactos da inteligência artificial, da robótica e das tecnologias conexas nos consumidores, o acesso aos dados deve ser alargado às autoridades nacionais competentes, no pleno respeito do direito da União, nomeadamente a legislação em matéria de proteção de dados, privacidade e segredos comerciais; recorda a importância de educar os consumidores para estarem mais informados e disporem de maiores competências quando utilizam a inteligência artificial, a robótica e as tecnologias conexas, a fim de os proteger contra os riscos potenciais e defender os seus direitos; |
84. |
Insta a Comissão a propor medidas para a rastreabilidade dos dados, tendo em conta tanto a legalidade da aquisição de dados como a proteção dos direitos dos consumidores e dos direitos fundamentais, no pleno respeito do direito da União, nomeadamente a legislação em matéria de proteção de dados, privacidade, direitos de propriedade intelectual e segredos comerciais; |
85. |
Observa que estas tecnologias devem centrar-se no utilizador e ser concebidas por forma a permitir que todas as pessoas utilizem os produtos ou serviços de IA, independentemente da sua idade, do seu género, das suas capacidades ou das suas características; faz notar que a acessibilidade a estas tecnologias por pessoas com deficiência se reveste de particular importância; assinala que não deve ser adotada uma abordagem única para todos os casos e que devem ser tomados em consideração os princípios de conceção universal, que visam abranger a maior variedade possível de utilizadores, bem como o respeito pelas normas de acessibilidade pertinentes; salienta que tal permitirá que todas as pessoas tenham um acesso equitativo e uma participação ativa em atividades humanas, existentes e emergentes, que utilizam computadores e tecnologias de apoio; |
86. |
Realça que, sempre que os fundos provenientes de fontes públicas contribuam de forma significativa para o desenvolvimento, a implementação ou a utilização da inteligência artificial, da robótica e das tecnologias conexas, além de normas abertas em matéria de adjudicação e contratação pública, deverá ponderar-se a possibilidade de o código, os dados gerados — desde que não sejam pessoais — e o modelo treinado poderem ser sistematicamente tornados públicos, de comum acordo com o criador, a fim de garantir a transparência, reforçar a cibersegurança e permitir a respetiva reutilização de molde a promover a inovação; salienta que, desta forma, é possível aproveitar plenamente o potencial do mercado único, evitando a fragmentação do mercado; |
87. |
Considera que a IA, a robótica e as tecnologias conexas têm um potencial enorme para oferecer aos consumidores a possibilidade de aceder a diversas comodidades em muitos aspetos das suas vidas, bem com a melhores produtos e serviços, e de beneficiar de uma melhor fiscalização do mercado, desde que continuem a aplicar-se todos os princípios, condições, incluindo a transparência e a auditabilidade, e regulamentos aplicáveis; |
Segurança e defesa
88. |
Salienta que as políticas de segurança e defesa da União Europeia e dos seus Estados-Membros são norteadas pelos princípios consagrados na Carta e na Carta das Nações Unidas e por um entendimento comum dos valores universais de respeito dos direitos invioláveis e inalienáveis da pessoa humana, da dignidade humana, da liberdade, da democracia, da igualdade e do Estado de Direito; sublinha que todos os esforços relacionados com a defesa no quadro da União têm de respeitar esses valores universais promovendo, em simultâneo, a paz, a segurança e o progresso na Europa e no mundo; |
89. |
Saúda a aprovação, pelas Altas Partes Contratantes, da Convenção sobre Certas Armas Convencionais (CCAC) na sua reunião anual de 2019, de 11 princípios orientadores para o desenvolvimento e a utilização de sistemas de armas autónomas; lamenta, contudo, o facto de não se chegar a acordo sobre um instrumento juridicamente vinculativo que regule sistema de armas letais autónomo (SALA), com um mecanismo de execução eficaz; saúda e apoia o relatório do Grupo de Peritos de Alto Nível sobre a Inteligência Artificial da Comissão intitulado «Orientações éticas para uma IA de confiança», publicado em 9 de abril de 2019, bem como a respetiva posição sobre os sistemas de armas letais autónomos (SALA); insta os Estados-Membros a desenvolverem estratégias nacionais para a definição e o estatuto dos sistemas de armas letais autónomos (SALA), tendo em vista uma estratégia global a nível da União e a promoverem, conjuntamente com o Alto Representante/Vice-Presidente da Comissão («AR/VP»), e o Conselho, o debate sobre os SALA no quadro da Convenção sobre Certas Armas Convencionais das Nações Unidas (CCAC) e de outros fóruns relevantes, e a elaboração de normas internacionais relativas aos parâmetros éticos e jurídicos do desenvolvimento e da utilização de sistemas de armas letais totalmente autónomos, semiautónomos e telecomandados; recorda, neste contexto, a sua resolução sobre sistemas de armamento autónomo, de 12 de setembro de 2018, e apela, uma vez mais, ao desenvolvimento e à adoção urgentes de uma posição comum sobre sistemas de armas letais autónomos, a uma proibição internacional do desenvolvimento, produção e utilização de sistemas de armas letais autónomos que permitam levar a cabo ataques sem controlo humano significativo e sem respeito pelo princípio da intervenção humana, em conformidade com a declaração dos investigadores mundiais mais proeminentes em matéria de IA na sua carta aberta de 2015; congratula-se com o acordo do Conselho e do Parlamento com vista à exclusão dos sistemas de armas letais autónomos, sem possibilidade de «controlo humano significativo sobre as decisões de seleção de alvos e lançamento de ataques», das ações financiadas ao abrigo do Fundo Europeu de Defesa; considera que os aspetos éticos de outras aplicações de IA na defesa, como os serviços de informação, vigilância e reconhecimento (ISR), ou as ciberoperações, não podem ser ignorados, impondo-se conceder especial atenção ao desenvolvimento e à implantação de veículos aéreos não tripulados em operações militares; |
90. |
Sublinha que as tecnologias emergentes no domínio da defesa e da segurança não abrangidas pelo Direito internacional devem ser avaliadas à luz do princípio do respeito pela humanidade e dos imperativos de consciência pública; |
91. |
Recomenda que todo e qualquer quadro europeu que regulamente a utilização dos sistemas de IA no domínio da defesa, tanto em situações de combate, como de não combate, tem de respeitar todos os regimes jurídicos aplicáveis, em particular o Direito internacional humanitário e o direito internacional em matéria de direitos humanos, assim como o direito, os princípios e os valores da União, e ter em conta as disparidades em termos de infraestruturas técnicas e de segurança na União; |
92. |
Reconhece que, ao contrário do que acontece com as bases industriais de defesa, as inovações críticas em matéria de IA poderão chegar de Estados-Membros pequenos, pelo que uma abordagem normalizada da PCSD deverá assegurar que os Estados-Membros de menor dimensão e as PME não sejam postos de lado; salienta que um conjunto de capacidades comuns da UE em matéria de IA adaptado aos conceitos operacionais dos Estados-Membros poderá colmatar as lacunas técnicas que poderiam deixar os Estados sem as devidas tecnologias, os conhecimentos especializados ou capacidade para aplicar os sistemas de IA nos seus ministérios da defesa; |
93. |
Considera que as atividades de segurança e defesa atuais e futuras no quadro da União tirarão partido da IA, da robótica e da autonomia e das tecnologias conexas, e que uma IA fiável, robusta e digna de confiança poderia contribuir para um exército moderno e eficaz; considera que a União tem, por conseguinte, de assumir um papel de liderança na investigação e no desenvolvimento de sistemas de IA no domínio da segurança e da defesa; entende que a utilização de aplicações assentes na IA no sector da defesa oferece uma série de vantagens diretas a quem comanda as operações, designadamente dados de melhor qualidade, um melhor conhecimento da situação, uma maior celeridade no processo decisório, uma redução do risco de danos colaterais graças a uma melhor cablagem, proteção das forças no terreno, bem como maior fiabilidade do equipamento militar e, consequentemente, um menor risco para os seres humanos e menos baixas; salienta que o desenvolvimento de uma IA fiável no domínio da defesa é indispensável para assegurar a autonomia estratégica da Europa em termos operacionais e de capacidades; recorda que os sistemas de IA estão também a tornar-se elementos fundamentais na luta contra as novas ameaças à segurança, como a guerra cibernética e híbrida, tanto em linha, como fora de linha; destaca, ao mesmo tempo, todos os riscos e desafios da utilização não regulamentada da IA; faz notar que a IA pode ser sujeita a manipulação, a erros e a imprecisões; |
94. |
Sublinha que, na sua essência, as tecnologias de IA são de dupla utilização e que o desenvolvimento da IA nas atividades relacionadas com a defesa beneficia com os intercâmbios entre as tecnologias militares e civis; realça que, nas atividades relacionadas com a defesa, a IA é uma tecnologia de disrupção transversal, cujo desenvolvimento pode proporcionar oportunidades para a competitividade e a autonomia estratégica da União; |
95. |
Reconhece que, no atual contexto de guerra híbrida e avançada, o volume e a velocidade das informações durante as fases iniciais de uma crise podem ultrapassar os analistas humanos e que um sistema de IA pode processar as informações, de modo a assegurar que os decisores humanos consigam acompanhar todo o espetro de informações num lapso de tempo adequado para uma resposta rápida; |
96. |
Salienta a importância primordial para a IA de investir no capital humano, promovendo as competências e a formação necessárias no domínio das tecnologias de segurança e defesa da IA, com particular ênfase na ética dos sistemas operacionais semiautónomos e autónomos baseados na responsabilização humana num mundo assente na IA; destaca, em particular, a importância de garantir que os especialistas em ética neste domínio disponham de competências adequadas e recebam formação adequada; insta a Comissão a apresentar, o mais rapidamente possível, o seu «Reforço da Agenda de Competências», anunciado no Livro Branco sobre a Inteligência Artificial, em 19 de fevereiro de 2020; |
97. |
Realça que a computação quântica pode representar a mudança mais revolucionária nos conflitos desde o advento da tecnologia nuclear, pelo que exorta a União e os Estados-Membros a conferirem prioridade ao desenvolvimento das tecnologias de computação quântica; reconhece que os atos de agressão — incluindo os ataques a infraestruturas críticas apoiados pela computação quântica — criarão um ambiente de conflito no qual o tempo de decisão disponível será fortemente comprimido, passando de dias e horas para minutos e segundos, forçando os Estados-Membros a desenvolverem capacidades para se protegerem e a formarem os seus decisores e o pessoal militar para que possam dar uma resposta eficaz dentro desses lapsos de tempo; |
98. |
Apela a um maior investimento na IA europeia para a defesa e nas infraestruturas críticas que a sustentam; |
99. |
Recorda que a maioria das atuais potências militares do mundo já encetaram esforços significativos de investigação e desenvolvimento relacionados com a dimensão militar da inteligência artificial; considera que a União tem de assegurar que não fica para trás neste domínio; |
100. |
Solicita à Comissão que integre o reforço das capacidades em matéria de cibersegurança na sua política industrial, de molde a assegurar o desenvolvimento e a implantação de sistemas de robótica e de IA seguros, resilientes e robustos; exorta a Comissão a explorar o recurso a protocolos e aplicações de cibersegurança baseados em cadeias de blocos, para melhorar a resiliência, a fiabilidade e a robustez das infraestruturas de IA através de modelos de encriptação de dados sem intermediários; incentiva as partes interessadas europeias a investigarem e conceberem características avançadas que facilitem a deteção de sistemas de IA e de robótica corruptos e maliciosos, suscetíveis de comprometer a segurança da União e dos cidadãos; |
101. |
Sublinha que todos os sistemas de IA de defesa devem ter um quadro de missão concreto e bem definido, no qual o ser humano conserve a faculdade de detetar e desativar ou desligar os sistemas implantados, caso estes se afastem do quadro de missão definido e atribuído pelo controlo humano ou se envolvam em qualquer ação não intencional ou que redunde numa escalada; considera que os sistemas, os produtos e as tecnologias baseados em IA para uso militar devem estar equipados com uma «caixa negra» para registar todas as transações de dados realizadas pela máquina; |
102. |
Sublinha que toda a responsabilidade e prestação de contas pela decisão de conceber, desenvolver, implantar e utilizar sistemas de IA tem de assentar em operadores humanos, uma vez que se impõe um controlo humano significativo em todo e qualquer sistema de armamento e intenção humana na decisão de utilizar a força na execução de qualquer decisão de sistemas de armas ativadas por IA que possam ter consequências letais; destaca que o controlo humano deve ser mantido no comando e no controlo dos sistemas baseados na IA, de acordo com os princípios da intervenção humana, da supervisão humana e do comando de humano ao nível da direção das operações militares; salienta que os sistemas assentes na IA têm de permitir que a liderança militar dos exércitos assuma a sua total responsabilidade pela utilização de força letal, preste contas e exerça o nível necessário de discernimento, de que as máquinas não dispõem, uma vez que esse discernimento tem de assentar na distinção, proporcionalidade e precaução, para tomar medidas mortais ou de ação destrutiva em larga escala através desses sistemas; realça a necessidade de estabelecer quadros claros e rastreáveis de autorização e de prestação de contas para a implantação de armas inteligentes e outros sistemas baseados na IA, fazendo uso de características únicas do utilizador, como as especificações biométricas, para permitir que a implantação seja feita exclusivamente por pessoal autorizado; |
Transporte
103. |
Destaca o potencial da utilização da inteligência artificial, da robótica e das tecnologias conexas em todos os meios autónomos de transporte rodoviário, ferroviário, marítimo e aéreo, bem como para impulsionar a transição modal e a intermodalidade, uma vez que essas tecnologias podem contribuir para encontrar uma combinação ótima de meios de transporte para o transporte de mercadorias e passageiros; salienta, além disso, o seu potencial para tornar os transportes, a logística e os fluxos de tráfego mais eficientes e todos os modos de transporte mais seguros, mais inteligentes e mais respeitadores do ambiente; insiste em que uma abordagem ética da IA também pode ser vista como um sistema de alerta precoce, nomeadamente no que diz respeito à segurança e à eficiência dos transportes; |
104. |
Destaca o facto de a concorrência mundial entre empresas e regiões económicas significar que a União necessita de promover o investimento e reforçar a competitividade internacional das empresas que operam no setor dos transportes, criando um ambiente favorável ao desenvolvimento e à aplicação de soluções de IA e outras inovações, no âmbito das quais as empresas sediadas na União se possam tornar líderes mundiais no desenvolvimento das tecnologias de IA; |
105. |
Insiste em que o setor dos transportes da União necessita de uma atualização do quadro regulamentar relativo a essas tecnologias emergentes e da sua utilização no setor dos transportes, assim como de um quadro ético claro para alcançar uma IA fiável, que inclua os aspetos da segurança, do respeito da autonomia humana, da supervisão e da responsabilidade, o que aumentará os benefícios partilhados por todos e será fundamental para impulsionar o investimento em investigação e inovação, o desenvolvimento de competências e a aceitação da IA pelos serviços públicos, as PME, as empresas em fase de arranque e as empresas em geral, garantindo simultaneamente a proteção de dados e a interoperabilidade, sem impor encargos administrativos desnecessários às empresas e aos consumidores; |
106. |
Observa que o desenvolvimento e a implementação da IA no setor dos transportes não será possível sem infraestruturas modernas, que constituem uma parte fundamental dos sistemas de transporte inteligentes; salienta que as persistentes divergências no nível de desenvolvimento entre os Estados-Membros geram o risco de que as regiões menos desenvolvidas e os seus habitantes sejam privados dos benefícios decorrentes do desenvolvimento da mobilidade autónoma; apela a que a modernização das infraestruturas de transportes na União, nomeadamente a sua integração na rede 5G, seja devidamente financiada; |
107. |
Recomenda que sejam criadas à escala da União normas fiáveis para todos os modos de transporte, incluindo a indústria automóvel, assim como o ensaio de veículos com IA integrada no seu funcionamento, bem como dos produtos e serviços conexos; |
108. |
Observa que os sistemas de IA podem ajudar a reduzir significativamente o número de mortes na estrada, nomeadamente através de melhores tempos de reação e de um melhor cumprimento das regras; considera, no entanto, que será impossível a utilização de veículos autónomos resultar na eliminação de todos os acidentes e sublinha que isso torna ainda mais importante a explicabilidade das decisões da IA para justificar as lacunas e as consequências não intencionais das decisões da IA; |
Emprego, direitos dos trabalhadores, competências digitais e o local de trabalho
109. |
Assinala que a aplicação da inteligência artificial, da robótica e das tecnologias conexas no local de trabalho pode contribuir para mercados de trabalho inclusivos e ter um impacto na saúde ocupacional e na segurança, podendo, ao mesmo tempo, ser utilizada para acompanhar, avaliar, prever e orientar o desempenho dos trabalhadores com consequências diretas e indiretas nas suas carreiras; faz notar que a IA deve ter um impacto positivo nas condições de trabalho e guiar-se pelo respeito dos direitos humanos, bem como pelos direitos e valores fundamentais da União; releva que a IA deve ser centrada no ser humano, reforçar o bem-estar das pessoas e da sociedade e contribuir para uma transição justa e equitativa; sublinha, por conseguinte, que essas tecnologias devem ter um impacto positivo nas condições de trabalho e guiar-se pelo respeito dos direitos humanos, bem como pelos direitos e valores fundamentais da União; |
110. |
Realça a necessidade de desenvolver competências através da formação e da educação dos trabalhadores e dos seus representantes no que diz respeito à IA no local de trabalho, a fim de melhor compreenderem as implicações das soluções de IA; sublinha que os candidatos e os trabalhadores devem ser devidamente informados por escrito quando a IA é utilizada no decurso dos processos de recrutamento e na tomada de decisões no domínio dos recursos humanos, bem como sobre os meios disponíveis, nestes casos, para requerer uma revisão humana a fim de reverter uma decisão automatizada; |
111. |
Salienta a necessidade de assegurar que os ganhos de produtividade decorrentes do desenvolvimento e da utilização da IA e da robótica não beneficiem apenas os proprietários das empresas e os acionistas, mas também as próprias empresas e os trabalhadores, através de melhores condições de trabalho e de emprego, incluindo melhores salários, o crescimento económico e o desenvolvimento, beneficiando igualmente a sociedade em geral, especialmente nos casos em que esses ganhos sejam obtidos em detrimento de postos de trabalho; insta os Estados-Membros a analisar atentamente o potencial impacto da IA no mercado de trabalho e nos sistemas de segurança social e a desenvolver estratégias para assegurar uma estabilidade a longo prazo, reformando os impostos e as contribuições sociais e adotando outras medidas para compensar o decréscimo das receitas públicas; |
112. |
Sublinha a importância do investimento das empresas na formação formal e informal e na aprendizagem ao longo da vida, a fim de apoiar a transição justa para a economia digital; salienta, neste contexto, a responsabilidade das empresas que utilizam a IA de proporcionar a todos os trabalhadores em causa oportunidades em matéria de requalificação e melhoria das competências, a fim de aprenderem a utilizar as ferramentas digitais e a trabalhar com «cobôs» (robótica de colaboração inteligente) e outras tecnologias novas, adaptando-se assim à evolução das necessidades do mercado de trabalho e mantendo os seus postos de trabalho; |
113. |
Considera que deve ser dada especial atenção às novas formas de trabalho, como os serviços pontuais e o trabalho nas plataformas digitais, resultantes da aplicação das novas tecnologias neste contexto; frisa que, ao regulamentar as condições de teletrabalho em toda a União e assegurar condições dignas de trabalho e de emprego na economia digital, o impacto da IA deve também ser tido em conta; insta a Comissão a consultar a este respeito os parceiros sociais, os criadores de IA, os investigadores e outras partes interessadas; |
114. |
Sublinha que a inteligência artificial, a robótica e as tecnologias conexas não devem de modo algum afetar o exercício dos direitos fundamentais reconhecidos pelos Estados-Membros e a nível da União, nomeadamente o direito à greve ou a tomar outras medidas abrangidas pelos sistemas específicos que regulam as relações industriais nos Estados-Membros, em conformidade com o direito e/ou as práticas nacionais, nem devem afetar o direito à negociação, celebração ou aplicação coerciva de convenções coletivas ou a iniciar ações coletivas, em conformidade com o direito e/ou as práticas nacionais; |
115. |
Reitera a importância da educação e da aprendizagem contínua para desenvolver as qualificações necessárias na era digital e para combater a exclusão digital; insta os Estados-Membros a investir em sistemas de ensino, formação profissional e aprendizagem ao longo da vida de elevada qualidade, reativos e inclusivos, bem como em políticas de requalificação e de melhoria das competências para os trabalhadores dos setores em que a IA pode ter repercussões mais graves; salienta a necessidade de dotar a mão de obra atual e futura das necessárias competências em literacia, numeracia e literacia digital, bem como de competências nos domínios da ciência, tecnologia, engenharia e matemática (CTEM) e de competências sociais transversais, como o pensamento crítico, a criatividade e o empreendedorismo; sublinha que, a este respeito, deve ser dada especial atenção à inclusão de grupos desfavorecidos; |
116. |
Recorda que a inteligência artificial, a robótica e as tecnologias conexas utilizadas no local de trabalho devem ser acessíveis a todos, com base no princípio da conceção para todos os utilizadores; |
Educação e cultura
117. |
Salienta a necessidade de desenvolver critérios para o desenvolvimento, a implantação e a utilização da IA que tenham em conta o seu impacto na educação, na comunicação social, na juventude, na investigação, no desporto e nos setores culturais e criativos, através do desenvolvimento de parâmetros de referência e da definição de princípios de utilização eticamente responsáveis e aceitáveis das tecnologias de IA que possam ser aplicados nestes domínios de forma adequada, nomeadamente um regime de responsabilização clara pelos produtos resultantes do recurso à IA; |
118. |
Releva que todas as crianças gozam do direito a uma educação pública de qualidade a todos os níveis; apela, por conseguinte, ao desenvolvimento, à implantação e à utilização de sistemas de IA de qualidade que facilitem e proporcionem instrumentos educativos de qualidade para todos, a todos os níveis, e salienta que a implantação de novos sistemas de IA nas escolas não deve conduzir a uma maior disparidade digital na sociedade; reconhece o enorme contributo potencial que a IA e a robótica podem dar à educação; observa que os sistemas de aprendizagem personalizados de IA não devem substituir as relações educativas que envolvem professores e que as formas tradicionais de educação não devem ser deixadas para trás, salientando simultaneamente que deve ser prestado apoio financeiro, tecnológico e educativo, designadamente formação especializada em tecnologias da informação e da comunicação, aos professores que procurem adquirir as competências adequadas para se adaptarem às mudanças tecnológicas, não apenas explorando o potencial da IA, mas também compreendendo as suas limitações; apela ao desenvolvimento de uma estratégia a nível da União para ajudar a transformar e a atualizar os nossos sistemas educativos, a preparar os nossos estabelecimentos de ensino a todos os níveis e a equipar os professores e os alunos com as competências e aptidões necessárias; |
119. |
Realça que as instituições de ensino devem procurar utilizar sistemas de IA para fins educativos que tenham recebido um certificado europeu de conformidade ética; |
120. |
Frisa que as oportunidades proporcionadas pela digitalização e pelas novas tecnologias não devem resultar numa perda global de postos de trabalho nos setores culturais e criativos, nem dar origem a que a conservação dos originais seja negligenciada, nem à relativização da importância do acesso tradicional ao património cultural, que deve igualmente ser incentivado; assinala que os sistemas de IA desenvolvidos, implantados e utilizados na União devem refletir a sua diversidade cultural e o seu multilinguismo; |
121. |
Reconhece o potencial crescente da IA nos domínios da informação, dos meios de comunicação social e das plataformas em linha, nomeadamente como um instrumento para combater a desinformação em conformidade com o direito da União; salienta que, se não for regulamentada, a IA poderá também ter efeitos eticamente nocivos, explorando enviesamentos nos dados e nos algoritmos que podem conduzir à disseminação de desinformação e à criação de bolhas de informação; salienta a importância da transparência e da responsabilização no que se refere aos algoritmos utilizados pelas plataformas de partilha de vídeos, bem como pelas plataformas de transmissão em direto, a fim de garantir o acesso a conteúdos culturais e linguísticos variados; |
Autoridades nacionais de controlo
122. |
Regista o valor acrescentado de dispor, em cada Estado-Membro, de autoridades nacionais de controlo designadas, responsáveis por assegurar, avaliar e controlar o cumprimento das obrigações jurídicas e dos princípios éticos inerentes ao desenvolvimento, implantação e utilização da inteligência artificial, da robótica e das tecnologias conexas de alto risco, contribuindo assim para a conformidade jurídica e ética dessas tecnologias; |
123. |
Entende que essas autoridades devem ter a obrigação de, sem duplicar as suas tarefas, cooperar com as autoridades responsáveis pela aplicação da legislação setorial, com o intuito de identificar as tecnologias de alto risco do ponto de vista ético e de supervisionar a aplicação das medidas necessárias e adequadas, sempre que tais tecnologias sejam identificadas; |
124. |
Indica que essas autoridades devem estabelecer contactos não só entre si, mas também com a Comissão Europeia e outras instituições, órgãos e organismos da União pertinentes, a fim de garantir a coerência da ação transfronteiriça; |
125. |
Sugere que, no contexto dessa cooperação, sejam desenvolvidos critérios comuns e um processo de candidatura para a concessão de um certificado europeu de conformidade ética, designadamente na sequência de um pedido de qualquer criador, implantador ou utilizador de tecnologias não consideradas de alto risco que tencione certificar a avaliação positiva da conformidade efetuada pela respetiva autoridade nacional de controlo; |
126. |
Solicita que essas autoridades sejam incumbidas de promover intercâmbios regulares com a sociedade civil e a inovação no âmbito da União, prestando assistência a investigadores, criadores e outras partes interessadas pertinentes, bem como a empresas com menos maturidade digital, sobretudo às pequenas e médias empresas ou às empresas em fase de arranque e em especial no que se refere à sensibilização e ao apoio ao desenvolvimento, à implantação, à formação e à aquisição de talentos, de modo a assegurar a transferência eficiente de tecnologias e o acesso a tecnologias, projetos, resultados e redes; |
127. |
Apela a que cada Estado-Membro proporcione financiamento suficiente às respetivas autoridades nacionais de controlo designadas e salienta a necessidade de reforçar as autoridades nacionais de fiscalização do mercado em termos de capacidades, aptidões e competências, bem como de conhecimentos sobre os riscos específicos da inteligência artificial, da robótica e das tecnologias conexas; |
Coordenação a nível da União
128. |
Sublinha a importância da coordenação a nível da União, tal como levada a cabo pela Comissão e/ou quaisquer instituições, órgãos e organismos da União pertinentes que possam ser designados neste contexto, por forma a evitar a fragmentação, bem como a importância de assegurar uma abordagem harmonizada em toda a União; entende que a coordenação deve centrar-se nos mandatos e nas ações das autoridades nacionais de controlo em cada Estado-Membro, tal como supramencionado, bem como na partilha de boas práticas entre essas autoridades e na facilitação da cooperação em matéria de investigação e desenvolvimento neste domínio em toda a União; convida a Comissão a avaliar e a encontrar a solução mais adequada para estruturar essa coordenação; cita como exemplos de instituições, órgãos e organismos da União pertinentes a ENISA, a AEPD e o Provedor de Justiça Europeu; |
129. |
Considera que uma tal coordenação, bem como uma certificação europeia de conformidade ética, não só beneficiaria o desenvolvimento da indústria e da inovação na União, como também aumentaria a sensibilização dos cidadãos para as oportunidades e os riscos inerentes a essas tecnologias; |
130. |
Propõe a criação de um centro de especialização que reúna o meio académico, os investigadores, a indústria e peritos individuais a nível da União, a fim de promover o intercâmbio de conhecimentos e competências técnicas especializadas e facilitar a colaboração dentro e fora da União; insta ainda a que este centro de especialização inclua organizações das partes interessadas, como as organizações de defesa do consumidor, de modo a garantir uma ampla representação dos consumidores; considera que, devido ao possível impacto desproporcionado dos sistemas algorítmicos nas mulheres e nas minorias, os níveis de decisão de tal estrutura devem ser diversificados e assegurar a igualdade de género; frisa que os Estados-Membros devem desenvolver estratégias de gestão dos riscos para a IA no contexto das suas estratégias nacionais de fiscalização do mercado; |
131. |
Propõe que a Comissão e/ou quaisquer instituições, órgãos e organismos da União pertinentes que possam ser designados neste contexto prestem toda a assistência necessária às autoridades nacionais de controlo no tocante ao seu papel de primeiro ponto de contacto em caso de suspeita de violação das obrigações jurídicas e dos princípios éticos estabelecidos no quadro regulamentar da União para a IA, nomeadamente o princípio da não discriminação; entende, além disso, que devem também prestar toda a assistência necessária às autoridades nacionais de controlo nos casos em que estas realizem avaliações de conformidade com vista a apoiar o direito dos cidadãos a contestar uma decisão e a procurar vias de recurso, nomeadamente apoiando, quando aplicável, a consulta de outras autoridades competentes na União, em especial a rede de cooperação no domínio da defesa do consumidor e os organismos nacionais de defesa do consumidor, organizações da sociedade civil e parceiros sociais situados noutros Estados-Membros; |
132. |
Reconhece o precioso contributo dado pelo grupo de peritos de alto nível sobre a inteligência artificial, composto por representantes do meio académico, da sociedade civil e da indústria, bem como pela Aliança Europeia de IA, em particular as «Orientações éticas para uma inteligência artificial de confiança», e sugere que esse grupo possa proporcionar conhecimentos especializados à Comissão e/ou a quaisquer instituições, órgãos e organismos da União pertinentes que possam ser designados neste contexto; |
133. |
Regista a inclusão de projetos relacionados com a IA no âmbito do Programa Europeu de Desenvolvimento Industrial (EDIDP); considera que o futuro Fundo Europeu de Defesa (FED) e a cooperação estruturada permanente (CEP) poderão também proporcionar quadros para futuros projetos relacionados com a IA, que poderão contribuir para racionalizar os esforços da União neste domínio, bem como para promover simultaneamente o objetivo da União de reforçar os direitos humanos, o Direito internacional e as soluções multilaterais; salienta que os projetos relacionados com a IA devem ser sincronizados com os programas civis mais vastos da União consagrados à IA; observa que, em conformidade com o Livro Branco da Comissão sobre a inteligência artificial, de 19 de fevereiro de 2020, os centros de excelência e de ensaio centrados na investigação e no desenvolvimento de IA no sector da segurança e da defesa devem ser instituídos de acordo com especificações rigorosas, que sustentem a participação e o investimento de partes interessadas do sector privado; |
134. |
Toma conhecimento do Livro Branco da Comissão sobre a inteligência artificial, de 19 de fevereiro de 2020, e lamenta que não tenham sido tidos em conta os aspetos militares; insta a Comissão e o VP/AR a apresentar, também no âmbito de uma abordagem global, uma estratégia sectorial de IA para as atividades relacionadas com a defesa no quadro da União, que garanta o respeito pelos direitos dos cidadãos e os interesses estratégicos da União, e que se funde numa abordagem coerente, desde o início dos sistemas assentes na IA até às suas utilizações militares, e que crie um grupo de trabalho sobre segurança e defesa no âmbito do grupo de peritos de alto nível sobre inteligência artificial, que se debruce especificamente sobre os assuntos em matéria de política e de investimento, bem como sobre os aspetos éticos da IA no sector da segurança e da defesa; solicita ao Conselho, à Comissão e ao VP/AR que encetem um diálogo estruturado com o Parlamento para esse efeito; |
Certificação europeia de conformidade ética
135. |
Sugere que, no contexto da coordenação a nível da União, sejam desenvolvidos critérios comuns e um processo de candidatura relativos à concessão de um certificado europeu de conformidade ética, designadamente na sequência de um pedido de qualquer criador, implantador ou utilizador de tecnologias não consideradas de alto risco que tencione certificar a avaliação positiva da conformidade efetuada pela respetiva autoridade nacional de controlo; |
136. |
Está convicto de que uma certificação europeia de conformidade ética promoveria o princípio da ética desde a conceção em toda a cadeia de abastecimento dos ecossistemas de inteligência artificial; sugere, por conseguinte, que essa certificação, no caso das tecnologias de alto risco, possa ser uma condição prévia obrigatória para a elegibilidade para procedimentos de adjudicação de contratos públicos relativos a inteligência artificial, a robótica e a tecnologias conexas; |
Cooperação internacional
137. |
Entende que só é possível estabelecer uma cooperação transfronteiriça e normas éticas eficazes se todas as partes interessadas procurarem assegurar a intervenção e a supervisão humanas, a solidez técnica e a segurança, a transparência e a responsabilização, a diversidade, a não discriminação e a equidade, o bem-estar social e ambiental, e respeitarem os princípios estabelecidos em matéria de privacidade, governação e proteção dos dados — especificamente os consagrados no Regulamento (UE) 2016/679; |
138. |
Sublinha que as obrigações jurídicas e os princípios éticos da União aplicáveis ao desenvolvimento, à implantação e à utilização destas tecnologias podem fazer da Europa um líder mundial no setor da inteligência artificial e devem, por conseguinte, ser promovidos a nível mundial através da cooperação com parceiros internacionais, prosseguindo simultaneamente o diálogo crítico e baseado na ética com os países terceiros que têm modelos alternativos de regulamentação em matéria de inteligência artificial, bem como modelos alternativos de desenvolvimento e implantação; |
139. |
Reitera que as oportunidades e os riscos inerentes a estas tecnologias têm uma dimensão global, uma vez que o software e os dados que utilizam são frequentemente importados e exportados da União, exigindo, portanto, uma abordagem harmonizada e coerente a nível internacional; convida a Comissão a tomar a iniciativa de avaliar que acordos e tratados bilaterais e multilaterais devem ser ajustados de forma a assegurar uma abordagem coerente e a promover o modelo europeu de conformidade ética a nível mundial; |
140. |
Destaca, ainda neste contexto, o valor acrescentado da coordenação a nível da União, tal como referido acima; |
141. |
Apela à criação de sinergias e de redes entre os vários centros de investigação europeus no domínio da IA e outras instâncias multilaterais, tais como o Conselho da Europa, a Organização das Nações Unidas para a Educação, Ciência e Cultura (UNESCO), a Organização de Cooperação e de Desenvolvimento Económicos (OCDE), a Organização Mundial do Comércio e a União Internacional das Telecomunicações (UIT), para alinhar os seus esforços e melhor coordenar o desenvolvimento da inteligência artificial, da robótica e das tecnologias conexas; |
142. |
Realça que a União deve estar na vanguarda do apoio aos esforços multilaterais, no âmbito do Grupo de Peritos Governamentais CCAC da ONU e de outros fóruns relevantes, para discutir um quadro regulamentar internacional eficaz que garanta um controlo humano significativo dos sistemas de armas autónomos, a fim de dominar essas tecnologias através da criação de processos bem definidos e baseados em padrões de referência e da adoção de legislação para a sua utilização ética, em consulta com os intervenientes militares, a indústria, as autoridades policiais, o meio académico e as partes interessadas da sociedade civil, de molde a compreender os aspetos éticos conexos, a mitigar os riscos inerentes a essas tecnologias e a impedir a sua utilização para fins maliciosos; |
143. |
Reconhece o papel da OTAN na promoção da segurança euro-atlântica e apela à cooperação no seio da OTAN para o estabelecimento de normas comuns e da interoperabilidade dos sistemas de IA na defesa; salienta que a relação transatlântica é importante para preservar os valores comuns e combater as ameaças futuras e emergentes; |
144. |
Salienta a importância da criação de um código deontológico subjacente à implantação de sistemas de armamento assentes na IA em operações militares semelhante ao quadro regulamentar existente, que proíbe a implantação de armas químicas e biológicas; é de opinião que a Comissão deve dar início à elaboração de normas sobre a utilização de sistemas de armas assentes na IA num cenário de guerra, de acordo com o Direito internacional humanitário, e que a União se deve empenhar na adoção internacional dessas normas; considera que a União deve participar na diplomacia da IA nas instâncias internacionais com parceiros que partilhem a mesma visão, como o G7, o G20 e a OCDE; |
Aspetos finais
145. |
Conclui, na sequência das reflexões supra sobre os aspetos relacionados com a dimensão ética da inteligência artificial, da robótica e das tecnologias conexas, que as dimensões jurídica e ética deve ser consagradas num quadro regulamentar eficaz, prospetivo e abrangente a nível da União, apoiado por autoridades nacionais competentes, coordenadas e reforçadas pela Comissão e/ou quaisquer instituições, órgãos e organismos da União pertinentes que possam ser designados neste contexto, apoiado de forma regular pelo referido centro de especialização acima referido e objeto do devido respeito e certificação no âmbito do mercado interno; |
146. |
Solicita à Comissão, em conformidade com o procedimento previsto no artigo 225.o do Tratado sobre o Funcionamento da União Europeia, que apresente uma proposta de regulamento relativo aos princípios éticos para o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas, com base no artigo 114.o do Tratado sobre o Funcionamento da União Europeia e com base nas recomendações pormenorizadas constantes do anexo ao presente projeto de relatório; faz notar que a proposta não deve prejudicar a legislação específica do setor, devendo abranger apenas as lacunas identificadas; |
147. |
Recomenda que a Comissão Europeia, após consultar todas as partes interessadas pertinentes, reveja, se necessário, o direito da União em vigor aplicável à inteligência artificial, à robótica e às tecnologias conexas, a fim de abordar a rapidez da sua evolução, em conformidade com as recomendações constantes do anexo ao presente documento, evitando o excesso de regulamentação, designadamente para as PME; |
148. |
Entende que a avaliação e revisão periódicas, quando necessário, do quadro regulamentar da União relativo à inteligência artificial, à robótica e às tecnologias conexas serão essenciais para garantir que a legislação aplicável se mantém a par do rápido ritmo do progresso tecnológico; |
149. |
Considera que a proposta legislativa solicitada teria implicações financeiras se fosse designado um organismo europeu encarregado das funções de coordenação acima referidas e dos meios técnicos e dos recursos humanos necessários ao desempenho das tarefas recentemente atribuídas; |
o
o o
150. |
Encarrega o seu Presidente de transmitir a presente resolução, bem como as recomendações pormenorizadas que figuram em anexo, à Comissão e ao Conselho. |
(1) JO L 252 de 8.10.2018, p. 1.
(2) JO L 180 de 19.7.2000, p. 22.
(3) JO L 303 de 2.12.2000, p. 16.
(4) JO L 119 de 4.5.2016, p. 1.
(5) JO L 119 de 4.5.2016, p. 89.
(6) JO L 123 de 12.5.2016, p. 1.
(7) JO C 252 de 18.7.2018, p. 239.
(8) JO C 307 de 30.8.2018, p. 163.
(9) JO C 433 de 23.12.2019, p. 86.
(10) Textos Aprovados, P8_TA(2018)0332.
(11) Textos Aprovados, P8_TA(2019)0081.
(12) https://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2020)654179.
(13) Diretiva (UE) 2019/882 do Parlamento Europeu e do Conselho, de 17 de abril de 2019, relativa aos requisitos de acessibilidade dos produtos e serviços (JO L 151 de 7.6.2019, p. 70).
(14) Decisão n.o 768/2008/CE do Parlamento Europeu e do Conselho, de 9 de julho de 2008, relativa a um quadro comum para a comercialização de produtos, e que revoga a Decisão 93/465/CEE (JO L 218 de 13.8.2008, p. 82).
ANEXO DA RESOLUÇÃO:
RECOMENDAÇÕES PORMENORIZADAS QUANTO AO CONTEÚDO DA PROPOSTA SOLICITADA
A. PRINCÍPIOS E OBJETIVOS DA PROPOSTA SOLICITADA
I. |
Os princípios e objetivos principais da proposta solicitada são:
|
II. |
Da proposta fazem parte os seguintes elementos:
|
III. |
O «Regulamento relativo aos princípios éticos para o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas» assenta nos seguintes princípios:
|
IV. |
Para efeitos de coordenação a nível da União, a Comissão e/ou quaisquer instituições, organismos, serviços e agências da União pertinentes que possam ser designados neste contexto deverão desempenhar as seguintes funções principais:
|
V. |
Além disso, a Comissão deve realizar as seguintes tarefas:
|
VI. |
A «autoridade controlo» em cada Estado-Membro deve desempenhar as seguintes funções principais:
|
VII. |
O papel fundamental das partes interessadas deverá ser o de dialogar com a Comissão e/ou quaisquer instituições, órgãos e organismos pertinentes da União que possam vir a ser designadas neste contexto e com a «autoridade de controlo» em cada Estado-Membro. |
B. TEXTO DA PROPOSTA LEGISLATIVA SOLICITADA
Proposta de
REGULAMENTO DO PARLAMENTO EUROPEU E DO CONSELHO
relativo aos princípios éticos para o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas
O PARLAMENTO EUROPEU E O CONSELHO DA UNIÃO EUROPEIA,
Tendo em conta o Tratado sobre o Funcionamento da União Europeia, nomeadamente o artigo 114.o,
Tendo em conta a proposta da Comissão Europeia,
Após transmissão do projeto de ato legislativo aos parlamentos nacionais,
Tendo em conta o parecer do Comité Económico e Social Europeu,
Deliberando de acordo com o processo legislativo ordinário,
Considerando o seguinte:
(1) |
O desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, deverão assentar no desejo de servir a sociedade. As tecnologias referidas podem implicar oportunidades e riscos, que devem ser tratados e regulamentados por um quadro regulamentar exaustivo a nível da União, que seja o reflexo de princípios éticos que devem ser respeitados desde o desenvolvimento e a implantação dessas tecnologias até à sua utilização. |
(2) |
A conformidade com esse quadro regulamentar no que diz respeito ao desenvolvimento, à implantação e à utilização da inteligência artificial, da robótica e das tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias na União, deverá ser de nível equivalente em todos os Estados-Membros, para que se possa tirar partido das oportunidades de forma eficiente e dar uma resposta coerente aos riscos associados a essas tecnologias, assim como para evitar a fragmentação regulamentar. Deverá garantir-se a aplicação homogénea das regras constantes no presente regulamento em toda a União. |
(3) |
Neste contexto, a atual diversidade de regras e práticas seguidas na União representa um risco considerável de fragmentação do mercado único e para a proteção do bem-estar e da prosperidade dos cidadãos e da sociedade, bem como para a exploração coerente do pleno potencial que a inteligência artificial, a robótica e as tecnologias relacionadas têm para promover a inovação e preservar esse bem-estar e essa prosperidade. As diferenças no grau de consideração pelos criadores, implantadores e utilizadores da dimensão ética inerente a estas tecnologias podem evitar que estas sejam desenvolvidas, implantadas e utilizadas livremente na União, podendo essas diferenças constituir um obstáculo à igualdade de condições de concorrência e à prossecução do progresso tecnológico e das atividades económicas a nível da União, distorcer a concorrência e impedir as autoridades de cumprirem as suas obrigações ao abrigo do direito da União. Além disso, a ausência de um quadro regulamentar comum de princípios éticos para o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas redunda em insegurança jurídica para todas as partes, nomeadamente para os criadores, os implantadores e os utilizadores. |
(4) |
No entanto, embora contribua para uma abordagem coerente a nível da União e dentro dos limites por ele estabelecidos, o presente regulamento deve dar margem de manobra aos Estados-Membros, nomeadamente no que respeita à forma como o mandato da respetiva autoridade nacional de controlo deverá ser cumprido, tendo em conta o objetivo que se pretende alcançar, tal como aqui estabelecido. |
(5) |
O presente regulamento não prejudica a legislação setorial existente ou futura. Deverá ser proporcionado em relação ao seu objetivo, para não entravar indevidamente a inovação na União, e estar em conformidade com uma abordagem baseada no risco. |
(6) |
O âmbito geográfico de aplicação desse quadro deve abranger todas as componentes da inteligência artificial, da robótica e das tecnologias conexas ao longo do respetivo desenvolvimento, implantação e utilização na União, inclusive nos casos em que parte das tecnologias possa estar localizada fora da União ou não ter uma localização específica ou única, como no caso dos serviços de computação em nuvem. |
(7) |
É necessário que a União tenha um entendimento comum de conceitos como inteligência artificial, robótica, tecnologias conexas e reconhecimento biométrico, para permitir uma abordagem regulamentar unificada e, por conseguinte, a segurança jurídica, tanto para os cidadãos, como para as empresas. Os conceitos deverão ser neutros em termos tecnológicos e, sempre que necessário, sujeitos a revisão. |
(8) |
Além disso, há que considerar o facto de existirem tecnologias relacionadas com inteligência artificial e a robótica que permitem ao software controlar processos físicos ou virtuais, com um grau de autonomia variável (1). Por exemplo, para a condução automatizada de veículos, foram propostos seis níveis de automatização da condução de acordo com a norma internacional J3016 da SAE. |
(9) |
O desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, deverão complementar as capacidades humanas, sem as substituir, assegurar que a sua execução não seja contrária aos melhores interesses dos cidadãos e que esteja em conformidade com o direito da União, os direitos fundamentais consagrados na Carta dos Direitos Fundamentais da União Europeia («Carta»), na jurisprudência do Tribunal de Justiça da União Europeia e em outros instrumentos europeus e internacionais aplicáveis na União. |
(10) |
As decisões tomadas ou influenciadas pela inteligência artificial, robótica e tecnologias conexas deverão continuar a estar sujeitas a avaliação, exame, intervenção e controlo humano apropriados. A complexidade técnica e operacional dessas tecnologias nunca deverá impedir que o responsável pela implantação ou o utilizador possa, no mínimo, desligá-las em caso de falhas, alterá-las, interrompê-las, invertê-las para um estado anterior restaurando funcionalidades seguras, sempre que esteja em risco o cumprimento do direito da União, das obrigações jurídicas e dos princípios éticos estabelecidos no presente regulamento. |
(11) |
A inteligência artificial, a robótica e as tecnologias conexas, cujo desenvolvimento, implantação e utilização impliquem um risco significativo prejudicar ou de causar danos às pessoas ou à sociedade, em violação dos direitos fundamentais e das regras de segurança previstas no direito da União, deverão ser consideradas tecnologias de alto risco. Para as avaliar enquanto tal, há que ter em conta o setor em que são desenvolvidas, implantadas ou utilizadas, a sua finalidade ou o seu uso específicos, bem como a gravidade do prejuízo ou dos danos que possam vir a ocorrer. O grau de gravidade deverá ser determinado com base na extensão do prejuízo ou do dano potencial resultante do funcionamento, no número de pessoas lesadas, no valor total do dano e no prejuízo para toda a sociedade. Tipos graves de prejuízos e danos são, por exemplo, violações dos direitos das crianças, dos consumidores ou dos trabalhadores que, devido à sua dimensão, ao número de crianças, consumidores ou trabalhadores afetados ou ao seu impacto na sociedade em geral, implicam um risco significativo de violação dos direitos fundamentais e das regras de segurança previstas no direito da União. O presente regulamento deverá incluir uma lista exaustiva e cumulativa de setores de alto risco e utilizações e finalidades de alto risco; |
(12) |
As obrigações previstas no presente regulamento, nomeadamente as relativas às tecnologias de alto risco, deverão aplicar-se apenas à inteligência artificial, à robótica e às tecnologias conexas, incluindo o software, aos algoritmos e aos dados utilizados ou produzidos por essas tecnologias, desenvolvidas, implantadas ou utilizadas na União, que, após a avaliação dos riscos prevista no presente regulamento, sejam consideradas de alto risco. Tais obrigações são cumpridas sem prejuízo da obrigação geral, de acordo com a qual inteligência artificial, robótica e tecnologias conexas, incluindo o software, algoritmos e dados utilizados ou produzidos por essas tecnologias, deverão ser desenvolvidos, implantados e utilizados na União de forma antropocêntrica e assente nos princípios da autonomia e da segurança humanas, em conformidade com o direito da União e no pleno respeito dos direitos fundamentais, como a dignidade humana, o direito à liberdade e segurança e o direito à integridade da pessoa. |
(13) |
As tecnologias de alto risco deverão respeitar os princípios da segurança, da transparência, da responsabilização, do não enviesamento ou da não discriminação, da responsabilidade social e da igualdade de género, do direito de recurso, da sustentabilidade ambiental, da privacidade e da boa governação, na sequência de uma avaliação de risco imparcial, objetiva e externa por parte da autoridade de controlo nacional, em conformidade com os critérios previstos no presente regulamento e da lista constante do seu anexo. Esta avaliação deverá ter em conta os pontos de vista e qualquer autoavaliação efetuada pelo criador ou pelo responsável pela implantação. |
(14) |
A Comissão e/ou quaisquer instituições, organismos, serviços e agências pertinentes da União que possam ser designados para o efeito deverão elaborar orientações de execução não vinculativas para os criadores, os implantadores e os utilizadores sobre a metodologia de conformidade com o presente regulamento. Para o efeito, deverão consultar as partes interessadas pertinentes. |
(15) |
Deverá haver coerência na União no que diz respeito à avaliação dos riscos destas tecnologias, especialmente no caso de serem avaliadas à luz do presente regulamento e em conformidade com a legislação setorial aplicável. Por conseguinte, as autoridades de controlo nacionais deverão informar as demais autoridades que efetuam avaliações de risco em conformidade com qualquer legislação setorial, sempre que essas tecnologias sejam consideradas de alto risco, na sequência da avaliação dos riscos prevista no presente regulamento. |
(16) |
Para serem fiáveis, a inteligência artificial, a robótica e as tecnologias conexas de alto risco, incluindo o software, os algoritmos e os dados utilizados ou produzidos por tais tecnologias deverão ser desenvolvidos, implantados e utilizados de forma segura, transparente e responsável, de acordo com as características de segurança, nomeadamente de robustez, resiliência, segurança, precisão e identificação de erros, explicabilidade, interpretabilidade, auditabilidade, transparência e identificabilidade, e de uma forma que permita desativar as funcionalidades em causa ou voltar a um estado anterior que restaure as funcionalidades seguras, em casos de não conformidade com essas características. A transparência deverá ser garantida, permitindo o acesso às autoridades públicas, sempre que estritamente necessário, aos sistemas tecnológicos, de dados e de computação subjacentes a essas tecnologias. |
(17) |
Os criadores, os implantadores e os utilizadores da inteligência artificial, da robótica e das tecnologias conexas, especialmente as tecnologias de alto risco, são responsáveis, em graus variáveis, pelo cumprimento dos princípios de segurança, transparência e responsabilidade, em função do seu grau de envolvimento nas tecnologias em causa, sem esquecer o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias. Os criadores deverão garantir que as tecnologias em causa sejam concebidas e construídas de acordo com as características de segurança previstas no presente regulamento, devendo os implantadores e os utilizadores implantar e utilizar as tecnologias no pleno respeito dessas características. Para o efeito, os criadores de tecnologias de alto risco deverão avaliar e antecipar os riscos de utilização indevida que se possam razoavelmente esperar no que respeita às tecnologias que desenvolvem. Têm também de garantir que os sistemas que desenvolvem indicam, na medida do possível e através de meios adequados, por exemplo, as mensagens de exoneração de responsabilidade, a probabilidade de erros ou as imprecisões. |
(18) |
Os criadores e os implantadores deverão disponibilizar aos utilizadores todas as atualizações posteriores das tecnologias em causa, nomeadamente no que diz respeito ao software, como estipulado por contrato ou previsto na legislação da União ou nacional. Além disso, sempre que uma avaliação dos riscos assim o indique, os criadores e os implantadores deverão disponibilizar às autoridades públicas, no que diz respeito à documentação pertinente sobre a utilização das tecnologias em causa, as instruções de segurança nessa matéria, inclusive, sempre que estritamente necessário e no pleno respeito do direito da União em matéria de proteção de dados, privacidade, direitos de propriedade intelectual e segredos comerciais, o código-fonte, os instrumentos de desenvolvimento e os dados utilizados pelo sistema. |
(19) |
Os particulares têm o direito de esperar que a tecnologia que utilizam funcione de uma forma razoável e que respeite a sua confiança. A confiança dos cidadãos na inteligência artificial, na robótica e nas tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, depende do conhecimento e da compreensão dos processos técnicos. O grau de explicabilidade desses processos deverá depender do contexto desses processos técnicos e da gravidade das consequências de um resultado errado ou inexato e deverá ser suficiente para os contestar e procurar vias de recurso. A auditabilidade, a rastreabilidade e a transparência deverão solucionar qualquer eventual ininteligibilidade dessas tecnologias. |
(20) |
A confiança da sociedade na inteligência artificial, na robótica e nas tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, depende do grau de avaliação, auditabilidade e rastreabilidade possibilitado por essas tecnologias. Na medida em que a sua participação assim o exija, os criadores deverão garantir que as tecnologias sejam concebidas e construídas de forma a permitir a avaliação, a auditabilidade e a rastreabilidade. Dentro dos limites das possibilidades técnicas, os criadores, os implantadores e os utilizadores deverão assegurar que a inteligência artificial, a robótica e as tecnologias conexas sejam implantadas e utilizadas no pleno respeito dos requisitos de transparência, permitindo a auditabilidade e a rastreabilidade. |
(21) |
Para assegurar a transparência e a responsabilização, os cidadãos deverão ser informados sempre que um sistema utilize inteligência artificial, sempre que os sistemas de inteligência artificial personalizem um produto ou serviço para os seus utilizadores, se podem desligar ou limitar a personalização e sempre que são confrontados com uma tecnologia de tomada de decisões automática. As medidas de transparência deverão ainda ser acompanhadas, tanto quanto tecnicamente possível, de explicações claras e compreensíveis sobre os dados e o algoritmo utilizados, a sua finalidade, os seus resultados e os seus perigos potenciais. |
(22) |
A parcialidade e a discriminação por software, algoritmos e dados são ilegais e deverão ser corrigidos pela regulação dos processos através dos quais o software é concebido e utilizado. A parcialidade pode resultar, tanto de decisões informadas ou tomadas por um sistema automatizado, quanto por conjuntos de dados nos quais se baseia o processo decisório ou nos dados utilizados para treinar o sistema. |
(23) |
O software, os algoritmos e os dados utilizados ou produzidos pela inteligência artificial, pela robótica e pelas tecnologias conexas deverão ser considerados tendenciosos sempre que, por exemplo, apresentem resultados insatisfatórios em relação a qualquer pessoa ou grupo de pessoas, com base numa perceção pessoal, social ou parcial preconceituosa e no posterior tratamento dos dados relativos às suas características. |
(24) |
Segundo o direito da União, o software, os algoritmos e os dados utilizados ou produzidos pela inteligência artificial, pela robótica e pelas tecnologias conexas deverão ser considerados discriminatórios sempre que produzam resultados que tenham efeitos negativos desproporcionados e resultem num tratamento diferente de uma pessoa ou grupo de pessoas, nomeadamente colocando-a numa posição de desvantagem em relação a outras pessoas, com base em elementos como as suas características pessoais, sem uma justificação objetiva ou razoável e independentemente de quaisquer reivindicações de neutralidade das tecnologias. |
(25) |
Em conformidade com o direito da União, os propósitos legítimos que, ao abrigo do presente regulamento, possam justificar objetivamente qualquer diferença de tratamento entre pessoas ou grupos de pessoas são a proteção da segurança e da saúde públicas, a prevenção de infrações penais, a proteção dos direitos e das liberdades individuais, a representação equitativa e requisitos objetivos para o exercício de uma profissão. |
(26) |
A inteligência artificial, a robótica e as tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, deverão contribuir para o progresso sustentável. Estas tecnologias não devem contrariar a causa da preservação do ambiente ou da transição ecológica. As referidas tecnologias deverão contribuir para a concretização dos Objetivos de Desenvolvimento Sustentável das Nações Unidas, tendo em vista a prosperidade das gerações futuras. Podem apoiar o acompanhamento de progressos adequados com base em indicadores de sustentabilidade e de coesão social, bem como através da utilização de ferramentas de investigação e inovação responsáveis que exigem a mobilização de recursos pela União e pelos Estados-Membros, de molde a apoiar e investir em projetos que visem esses objetivos. |
(27) |
O desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, não deverão, de forma alguma, causar intencionalmente danos ou prejuízos de qualquer natureza a indivíduos ou à sociedade. Por conseguinte, as tecnologias de alto risco, em especial, deverão ser desenvolvidas, implantadas e utilizadas de forma socialmente responsável. |
(28) |
Assim, para efeitos do presente regulamento, os criadores, os implantadores e os utilizadores deverão ser responsabilizados, em função da do seu grau de participação na inteligência artificial, na robótica e nas tecnologias conexas, e de acordo com as regras em matéria de responsabilidade nacionais e da União, pelos danos ou prejuízos causados a indivíduos ou à sociedade. |
(29) |
Em particular, os criadores que tomam decisões que determinam e controlam o rumo ou o modo de desenvolvimento da inteligência artificial, da robótica e das tecnologias conexas, bem como os implantadores que desempenham uma função operacional ou de gestão nessa implantação tomando decisões sobre essa implantação e exercendo o controlo dos riscos associados ou ainda beneficiando dessa implantação, deverão ser, de forma geral, considerados responsáveis por evitar a ocorrência de quaisquer danos ou prejuízos, introduzindo medidas adequadas durante o processo de desenvolvimento e respeitando exaustivamente essas medidas durante a fase de implantação. |
(30) |
A inteligência artificial, a robótica e as tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias socialmente responsáveis podem ser definidas como tecnologias que contribuem para encontrar soluções que visam salvaguardar e promover diversos aspetos da sociedade, em especial a democracia, a saúde, a prosperidade económica, a igualdade de oportunidades, os direitos sociais e dos trabalhadores, a diversidade e a independência dos meios de comunicação social e o livre acesso a informações objetivas, permitindo o debate público, a educação de qualidade, a diversidade cultural e linguística, o equilíbrio de género, a literacia digital, a inovação e a criatividade. Também se inserem nesta categoria as que são desenvolvidas, implantadas e utilizadas com devida atenção ao seu impacto no bem-estar físico e mental dos cidadãos e que não incitam ao discurso do ódio ou à violência. Tais objetivos deverão ser alcançados, designadamente, através de tecnologias de alto risco. |
(31) |
A inteligência artificial, a robótica e tecnologias conexas também devem ser desenvolvidas, implantadas e utilizadas para apoiar a inclusão social, a democracia, o pluralismo, a solidariedade, a equidade, a igualdade e a cooperação, e o seu potencial nesse contexto deve ser maximizado e explorado através de projetos de investigação e inovação. A União e os seus Estados-Membros deverão, por conseguinte, mobilizar os seus recursos de comunicação, administrativos e financeiros para apoiar e investir em tais projetos. |
(32) |
Os projetos relacionados com o potencial da inteligência artificial, da robótica e das tecnologias conexas para tratar da questão do bem-estar social deverão ser realizados com base em instrumentos responsáveis de investigação e inovação, a fim de garantir, desde o início, a conformidade desses projetos com os princípios éticos. |
(33) |
O desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, deverão ter em conta a respetiva pegada ecológica. Em conformidade com as obrigações previstas no direito da União aplicável, essas tecnologias não deverão prejudicar o ambiente durante o seu ciclo de vida e ao longo de toda a sua cadeia de aprovisionamento, e devem ser desenvolvidas, implantadas e utilizadas de forma a preservar o ambiente, a atenuar e a corrigir a sua pegada ambiental, a contribuir para a transição ecológica e a apoiar a consecução dos objetivos da neutralidade climática e da economia circular. |
(34) |
Para efeitos do presente regulamento, os criadores, os implantadores e os utilizadores deverão ser responsabilizados, em função do seu grau de participação no desenvolvimento, na implantação e na utilização da inteligência artificial, da robótica e das tecnologias conexas em causa, por quaisquer danos causados ao ambiente de acordo com as regras de responsabilidade ambiental aplicáveis. |
(35) |
Essas tecnologias deverão igualmente ser desenvolvidas, implantadas e utilizadas para apoiar a concretização dos objetivos ambientais, em conformidade com as obrigações estabelecidas no direito da União aplicável, designadamente reduzir a produção de resíduos, diminuir a pegada de carbono, combater as alterações climáticas e preservar o ambiente, e o seu potencial nesse contexto deve ser maximizado e explorado através de projetos de investigação e inovação. A União e os seus Estados-Membros deverão, por conseguinte, mobilizar os seus recursos de comunicação, administrativos e financeiros para apoiar e investir em tais projetos. |
(36) |
Os projetos relacionados com o potencial da inteligência artificial, da robótica e das tecnologias conexas para ter em conta as preocupações ambientais deverão ser realizados com base em instrumentos responsáveis de investigação e inovação, a fim de garantir, desde o início, a conformidade desses projetos com os princípios éticos. |
(37) |
A inteligência artificial, a robótica e as tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, desenvolvidas, implantadas ou utilizadas na União deverão respeitar plenamente o direito dos cidadãos da UE à privacidade e à proteção dos dados pessoais. Em especial, o seu desenvolvimento, implantação e utilização deverão respeitar o disposto no Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho (2) e na Diretiva 2002/58/CE do Parlamento Europeu e do Conselho (3). |
(38) |
Em particular, os limites éticos da utilização da inteligência artificial, da robótica e das tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, deverão ser devidamente tidos em conta aquando da utilização de tecnologias de reconhecimento a distância, como o reconhecimento de identificadores biométricos, para identificar pessoas automaticamente. Sempre que estas estas tecnologias sejam utilizadas pelas autoridades públicas por razões de interesse público importante, a saber, garantir a segurança das pessoas e resolver situações de emergência nacionais, e não para garantir a segurança das propriedades, a utilização deverá ser sempre divulgada, proporcionada, direcionada, restringida a objetivos específicos e limitada no tempo, em conformidade com o direito da União e tendo em devida conta a dignidade humana e a autonomia e os direitos fundamentais enunciados na Carta. Os critérios e limites impostos a essa utilização deverão ser sujeitos a um controlo judicial e submetidos a um escrutínio democrático e a um debate que envolva a sociedade civil; |
(39) |
A governação que se baseia em normas pertinentes melhora a segurança e favorece o aumento da confiança dos cidadãos no desenvolvimento, na implantação e na utilização da inteligência artificial, da robótica e das tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias. |
(40) |
As autoridades públicas deverão realizar avaliações de impacto dos direitos fundamentais antes da implantação de tecnologias de alto risco que prestem apoio a decisões tomadas no setor público e que tenham um impacto direto e significativo nos direitos e nas obrigações dos cidadãos. |
(41) |
Entre as normas de governação aplicáveis existentes encontram-se, por exemplo, a nível europeu, as «Orientações éticas para uma IA de confiança», elaboradas pelo grupo de peritos de alto nível sobre a inteligência artificial criado pela Comissão Europeia, e quaisquer outras normas técnicas, como as adotadas pelo Comité Europeu de Normalização (CEN), pelo Comité Europeu de Normalização Eletrotécnica (CENELEC), e pelo Instituto Europeu de Normalização das Telecomunicações (ETSI), e, a nível internacional, pela Organização Internacional de Normalização (ISO) e pelo Instituto de Engenharia Eletrotécnica e Eletrónica (IEEE). |
(42) |
A partilha e utilização de dados por diversos participantes é sensível, pelo que o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas deverão ser governados por regulamentação, padrões e protocolos pertinentes que reflitam os requisitos de qualidade, integridade, segurança, fiabilidade, privacidade e controlo. A estratégia de governação dos dados deverá centrar-se no tratamento, na partilha e no acesso a esses dados, assim com na sua gestão, auditabilidade e rastreabilidade adequadas, e garantir a proteção correta dos dados de grupos vulneráveis, mormente pessoas com deficiência, doentes, crianças, minorias e migrantes ou outros grupos em risco de exclusão. Acresce que os criadores, os implantadores e os utilizadores deverão poder, sempre que pertinente, basear-se em indicadores-chave de desempenho na avaliação dos conjuntos de dados que utilizam, tendo em vista reforçar a fiabilidade das tecnologias que desenvolvem, implantam e utilizam. |
(43) |
Os Estados-Membros deverão nomear uma autoridade administrativa independente para agir como autoridade de controlo. Em especial, cada autoridade nacional de controlo deverá ser responsável pela identificação da inteligência artificial, da robótica e das tecnologias conexas consideradas de alto risco à luz dos critérios de avaliação dos riscos previstos no presente regulamento, bem como pela avaliação e monitorização da conformidade dessas tecnologias com as obrigações previstas no presente regulamento. |
(44) |
Cada autoridade de controlo nacional deverá também assumir a responsabilidade pela boa governação destas tecnologias sob a coordenação da Comissão e/ou de quaisquer instituições, organismos, serviços ou agências da União que possam ser designados para esse efeito. Por conseguinte, essas autoridades desempenham um papel importante na promoção da confiança e da segurança dos cidadãos da UE, bem como na construção de uma sociedade democrática, pluralista e justa. |
(45) |
Para efeitos de avaliação das tecnologias de alto risco em conformidade com o presente regulamento e de monitorização do seu cumprimento, as autoridades de controlo nacionais deverão, sempre que aplicável, cooperar com as autoridades responsáveis pela avaliação e monitorização dessas tecnologias e pelo cumprimento da sua legislação setorial. |
(46) |
As autoridades nacionais de controlo deverão colaborar de forma substancial e regular entre si, bem como com a Comissão Europeia e com outras instituições, outros órgãos, organismos e agências pertinentes da União, a fim de garantir uma ação transfronteiriça coerente e permitir o desenvolvimento, a implantação e a utilização coerente destas tecnologias na União, em conformidade com as obrigações jurídicas e os princípios éticos estabelecidos no presente regulamento. |
(47) |
No contexto dessa cooperação, e para alcançar a plena harmonização a nível da União, as autoridades de controlo nacionais deverão prestar assistência à Comissão na elaboração de uma lista comum e exaustiva de inteligência artificial, robótica e tecnologias conexas de alto risco, em conformidade com os critérios previstos no presente regulamento e no respetivo anexo. Deverá ainda ser desenvolvido um processo para a emissão de um certificado europeu de conformidade ética, mormente um processo de candidatura voluntária para qualquer criador, implantador ou utilizador de tecnologias não consideradas de alto risco que procure certificar a sua conformidade com o presente regulamento. |
(48) |
As autoridades nacionais de controlo deverão reunir o maior número possível de partes interessadas, como a indústria, empresas, parceiros sociais, investigadores, consumidores e organizações da sociedade civil, e proporcionar um fórum pluralista de reflexão e troca de opiniões, para chegar a conclusões compreensíveis e exatas, tendo em vista orientar a forma como a governação é regulada. |
(49) |
As autoridades nacionais de controlo deverão reunir um número máximo de interessados, tais como a indústria, as empresas, os parceiros sociais, os investigadores, os consumidores e as organizações da sociedade civil, e proporcionar um fórum pluralista de reflexão e troca de pontos de vista, para facilitar a cooperação com, e entre, os interessados, em particular do meio académico, da investigação, da indústria, da sociedade civil e de especialistas, para chegar a conclusões compreensíveis e precisas para orientar a forma como a governação é regulada. |
(50) |
As autoridades nacionais de controlo deverão também prestar orientação e apoio administrativo profissional aos criadores, implantadores e utilizadores, especialmente às pequenas e médias empresas ou às empresas em fase de arranque que se deparem com dificuldades para cumprir os princípios éticos e as obrigações jurídicas previstas no presente regulamento. |
(51) |
A Comissão e/ou quaisquer instituições, organismos, serviços e agências pertinentes da União que possam ser designados para o efeito devem, ao efetuarem a sua avaliação de conformidade, elaborar orientações vinculativas sobre a metodologia a utilizar pelas autoridades nacionais de controlo. |
(52) |
A denúncia de irregularidades chama a atenção das autoridades para violações eventuais, e reais, do direito da União, com o objetivo de evitar ofensas, prejuízos e danos que de outra forma ocorreriam. Além do mais, os procedimentos de comunicação melhoram o fluxo de informações nas empresas e nas organizações, atenuando, deste modo, o risco de serem desenvolvidos produtos ou serviços com falhas ou erros. As empresas e organizações que desenvolvem, implantam ou utilizam inteligência artificial, robótica e tecnologias conexas, incluindo os dados utilizados ou produzidos por essas tecnologias, deverão criar canais de comunicação, e as pessoas que denunciem violações devem ser protegidas contra represálias. |
(53) |
O rápido desenvolvimento da inteligência artificial, da robótica e das tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, bem como a aprendizagem automática técnica, os processos de raciocínio e outras tecnologias subjacentes a esse desenvolvimento, são imprevisíveis. Como tal, é adequado e necessário criar um mecanismo de revisão de acordo com o qual a Comissão, para além de prestar informações sobre a aplicação do regulamento, apresente com caráter periódico um relatório sobre as eventuais alterações ao âmbito de aplicação do presente regulamento. |
(54) |
Atendendo a que os objetivos do presente regulamento, a saber, a criação de um quadro regulamentar de princípios éticos para o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas, não podem ser suficientemente alcançados pelos Estados-Membros, mas podem, devido à sua dimensão ou os efeitos da ação, ser mais bem alcançados ao nível da União, a União pode tomar medidas, em conformidade com o princípio da subsidiariedade consagrado no artigo 5.o do Tratado da União Europeia. Em conformidade com o princípio da proporcionalidade consagrado no mesmo artigo, o presente regulamento não excede o necessário para alcançar esses objetivos. |
(55) |
A coordenação a nível da União, tal como estabelecida no presente regulamento, será melhor alcançada pela Comissão e/ou quaisquer instituições, órgãos, organismos e agências da União que possam ser designados neste contexto, a fim de evitar a fragmentação e garantir a aplicação coerente do presente regulamento. A Comissão deverá, por conseguinte, ser incumbida de encontrar uma solução adequada para estruturar essa coordenação a nível da União, tendo em vista coordenar os mandatos e as ações das autoridades nacionais de controlo em cada Estado-Membro, nomeadamente no que diz respeito à avaliação dos riscos da inteligência artificial, da robótica e das tecnologias conexas, à criação de um quadro comum para a governação do desenvolvimento, da implantação e da utilização dessas tecnologias, ao desenvolvimento e à emissão de um certificado de conformidade com os princípios éticos e as obrigações jurídicas estabelecidos no presente regulamento, apoiando intercâmbios regulares com as partes interessadas e a sociedade civil e criando um centro de conhecimentos especializados que reúna as universidades, a investigação, a indústria e especialistas a nível da União, a fim de estimular o intercâmbio de conhecimentos e de competências técnicas, e promovendo a abordagem da União através da cooperação internacional e da garantia de uma resposta coerente em todo o mundo às oportunidades e aos riscos inerentes a estas tecnologias. |
ADOTARAM O PRESENTE REGULAMENTO:
Capítulo I
Disposições gerais
Artigo 1.o
Objeto
O presente regulamento destina-se a estabelecer um quadro regulamentar abrangente e voltado para o futuro de princípios éticos e obrigações legais para o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas na União.
Artigo 2.o
Âmbito de aplicação
O presente regulamento aplica-se à inteligência artificial, à robótica e às tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, desenvolvidas, implantadas ou utilizadas na União.
Artigo 3.o
Âmbito geográfico
O presente regulamento aplica-se à inteligência artificial, à robótica e às tecnologias conexas, quando uma parte das mesmas seja desenvolvida, implantada ou utilizada na União, independentemente de o software, os algoritmos ou os dados utilizados ou produzidos por essas tecnologias estarem localizados fora da União ou não terem uma localização geográfica específica.
Artigo 4.o
Definições
Para efeitos do presente regulamento, entende-se por:
a) |
«Inteligência artificial», um sistema baseado em software ou integrado em dispositivos físicos que apresenta um comportamento inteligente, recolhendo e tratando dados, analisando e interpretando o seu ambiente e tomando medidas — com um determinado nível de autonomia — para atingir objetivos específicos (4); |
b) |
«Autonomia»: um sistema de IA que funcione interpretando certos dados e utilizando um conjunto de instruções predeterminadas, sem estar limitado a essas instruções, apesar de o comportamento do sistema estar limitado pelo objetivo que lhe foi atribuído e que está destinado a realizar e por outras escolhas de conceção tomadas por quem o desenvolveu; |
c) |
«Robótica», as tecnologias que permitam que máquinas controladas automaticamente, reprogramáveis e multifuncionais (5) executem tarefas no mundo físico tradicionalmente executadas ou iniciadas por seres humanos, nomeadamente por meio de inteligência artificial ou tecnologias conexas; |
d) |
«Tecnologias conexas», as tecnologias que permitam ao software controlar com um grau de autonomia parcial ou total um processo físico ou virtual, as tecnologias capazes de detetar dados biométricos, genéticos ou outros, e as tecnologias que copiem ou utilizem de qualquer outra forma características humanas; |
e) |
«Alto risco», um risco significativo decorrente do desenvolvimento, da implantação e da utilização da inteligência artificial, da robótica e das tecnologias conexas, de causar prejuízo ou danos às pessoas ou à sociedade, em violação dos direitos fundamentais e das regras de segurança previstas no direito da União, tendo em conta a sua finalidade ou o seu uso específicos, o setor em que são desenvolvidas, implantadas ou utilizadas, bem como a gravidade do prejuízo ou dos danos que possam vir a ocorrer. |
f) |
«Desenvolvimento», a construção e conceção de algoritmos, a escrita e conceção de software ou a recolha, armazenagem e gestão de dados para efeitos de criação ou treino da inteligência artificial, da robótica e das tecnologias conexas ou para efeitos de criação de uma nova aplicação para a inteligência artificial, a robótica e as tecnologias conexas já existentes; |
g) |
«Criador», qualquer pessoa singular ou coletiva que tome as decisões que determinam e controlam o rumo ou a modalidade do desenvolvimento da inteligência artificial, da robótica e das tecnologias conexas; |
h) |
«Implantação», o funcionamento e a gestão da inteligência artificial, da robótica e das tecnologias conexas, bem como a sua colocação no mercado ou outra forma de disponibilização aos utilizadores; |
i) |
«Implantador», qualquer pessoa singular ou coletiva envolvida na implantação da inteligência artificial, da robótica e das tecnologias conexas e que desempenhe uma função de controlo ou de gestão tomando decisões, exercendo o controlo dos riscos ou ainda beneficiando dessa implantação; |
j) |
«Utilização», qualquer ação relacionada com a inteligência artificial, a robótica e as tecnologias conexas, com exceção do desenvolvimento ou da implantação; |
k) |
«Utilizador», qualquer pessoa singular ou coletiva que utilize a inteligência artificial, a robótica e as tecnologias conexas, exceto para fins de desenvolvimento ou implantação; |
l) |
«Enviesamento», qualquer perceção pessoal ou social preconceituosa de uma pessoa ou um grupo de pessoas, com base nas suas características pessoais; |
m) |
«Discriminação», qualquer tratamento diferenciado de uma pessoa ou um grupo de pessoas com base num motivo que não tenha qualquer justificação objetiva ou razoável e que, por conseguinte, seja proibido pelo direito da União; |
n) |
«Prejuízos ou danos», quaisquer danos físicos ou mentais e quaisquer danos materiais e imateriais, inclusive quando causados por discurso de ódio, preconceito, discriminação ou estigmatização, como uma perda financeira ou económica, perda de emprego ou de oportunidades educativas, restrição indevida da liberdade de escolha ou expressão ou perda de privacidade, e qualquer violação do direito da União que seja prejudicial para uma pessoa; |
o) |
«Boa governação», a forma de garantir que os criadores, implantadores e utilizadores adotem e observem os padrões e protocolos de comportamento adequados e razoáveis, com base num conjunto formal de regras, procedimentos e valores, e que lhes permita tratar adequadamente as questões éticas, à medida ou antes que estas surjam. |
Artigo 5.o
Princípios éticos da inteligência artificial, da robótica e das tecnologias conexas
1. A inteligência artificial, a robótica e as tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, devem ser desenvolvidas, implantadas ou utilizadas na União em conformidade com o direito da União e no pleno respeito pela dignidade, autonomia e segurança humanas e por outros direitos fundamentais estabelecidos na Carta.
2. Qualquer tratamento de dados pessoais no âmbito do desenvolvimento, da implantação e da utilização da inteligência artificial, da robótica e das tecnologias conexas, incluindo dados pessoais obtidos a partir de dados não pessoais e dados biométricos, deve ser efetuado em conformidade com o Regulamento (UE) 2016/679 e a Diretiva 2002/58/CE.
3. A União e os seus Estados-Membros devem incentivar projetos de investigação destinados a fornecer soluções, baseadas na inteligência artificial, na robótica e nas tecnologias conexas, que visem promover a inclusão social, a democracia, o pluralismo, a solidariedade, a equidade, a igualdade e a cooperação.
Capítulo II
Obrigações relativas às tecnologias de alto risco
Artigo 6.o
Obrigações relativas às tecnologias de alto risco
1. O presente capítulo aplica-se apenas à inteligência artificial, à robótica e às tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, desenvolvidas, implantadas ou utilizadas na União e consideradas de alto risco.
2. A inteligência artificial, a robótica e as tecnologias conexas de alto risco, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, devem ser desenvolvidas, implantadas e utilizadas em conformidade com os princípios éticos estabelecidos no presente regulamento.
Artigo 7.o
Inteligência artificial antropocêntrica e antropogénica
1. As tecnologias de inteligência artificial de alto risco, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, devem ser desenvolvidas, implantadas ou utilizadas de forma a garantir a plena supervisão humana em qualquer momento.
2. As tecnologias referidas no n.o 1 devem ser desenvolvidas, implantadas e utilizadas de forma a permitir a recuperação do controlo humano quando necessário, incluindo através da alteração ou interrupção dessas tecnologias.
Artigo 8.o
Segurança, transparência e responsabilização
1. A inteligência artificial, a robótica e as tecnologias conexas de alto risco, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, devem ser desenvolvidas, implantadas e utilizadas de um modo que garanta que sejam:
a) |
Desenvolvidas, implantadas e utilizadas de forma resiliente, a fim de garantir um nível de segurança adequado mediante a observância de referências mínimas de cibersegurança proporcionais ao risco identificado e que impeça a exploração de eventuais vulnerabilidades técnicas para fins maliciosos ou ilegais; |
b) |
Desenvolvidas, implantadas e utilizadas de forma segura, garantindo a existência de salvaguardas que incluam um plano e medidas de emergência em caso de risco para a segurança intrínseca ou extrínseca; |
c) |
Desenvolvidas, implantadas e utilizadas de forma a garantir um desempenho fiável que o utilizador possa razoavelmente esperar no que se refere ao cumprimento dos objetivos e à realização das atividades para as quais foram concebidas, nomeadamente assegurando que todas as operações sejam reproduzíveis; |
d) |
Desenvolvidas, implantadas e utilizadas de forma a garantir que a realização dos objetivos e das atividades das tecnologias específicas seja exata; se não puderem ser evitadas imprecisões ocasionais, o sistema deve indicar, na medida do possível, a probabilidade de erros e inexatidões aos implantadores e utilizadores através de meios adequados; |
e) |
Desenvolvidas, implantadas e utilizadas de uma forma facilmente explicável, de modo a garantir que possa ser efetuada uma revisão dos processos técnicos das tecnologias; |
f) |
Desenvolvidas, implantadas e utilizadas de forma a informar os utilizadores de que estão a interagir com sistemas de inteligência artificial, revelando devida e completamente as suas capacidades, exatidão e limitações aos criadores, implantadores e utilizadores de inteligência artificial; |
g) |
Em conformidade com o artigo 6.o, desenvolvidas, implantadas e utilizadas de forma a permitir, em caso de incumprimento dos critérios de segurança previstos nas alíneas a) a g), a desativação temporária das funcionalidades em causa e o regresso a um estado anterior que restaure as funcionalidades seguras. |
2. Em conformidade com o artigo 6.o, n.o 1, as tecnologias mencionadas no n.o 1 do presente artigo, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, devem ser desenvolvidas, implantadas e utilizadas de forma transparente e rastreável, de modo a que os seus elementos, processos e fases sejam documentados segundo as normas mais elevadas possíveis e aplicáveis e a que seja possível às autoridades nacionais de controlo referidas no artigo 18.o avaliar a conformidade dessas tecnologias com as obrigações estabelecidas no presente regulamento. Em especial, o criador, implantador ou utilizador dessas tecnologias é responsável pela conformidade com os critérios de segurança previstos no n.o 1 e deve poder demonstrá-la.
3. O criador, implantador ou utilizador das tecnologias mencionadas no n.o 1 deve assegurar que as medidas tomadas para garantir a conformidade com os critérios de segurança previstos no n.o 1 possam ser auditadas pelas autoridades nacionais de controlo a que se refere o artigo 18.o ou, se aplicável, por outras entidades nacionais ou europeias de supervisão setorial.
Artigo 9.o
Não enviesamento e não discriminação
1. O software, os algoritmos ou os dados utilizados ou produzidos pela inteligência artificial, pela robótica e pelas tecnologias conexas de alto risco desenvolvidas, implantadas ou utilizadas na União não devem ser enviesados e, sem prejuízo do disposto no n.o 2, não devem discriminar em razão, nomeadamente, de raça, género, orientação sexual, gravidez, deficiência, características físicas ou genéticas, idade, minoria nacional, etnia ou origem social, língua, religião ou crença, opiniões políticas ou participação cívica, nacionalidade, estado civil ou económico, grau de instrução ou antecedentes penais.
2. Em derrogação do n.o 1, e sem prejuízo do direito da União aplicável à discriminação ilegal, o tratamento diferenciado de pessoas ou grupos de pessoas só pode ser justificado quando exista uma finalidade objetiva, razoável e legítima que seja simultaneamente proporcionada e necessária, na medida em que não haja alternativa que cause menos interferência com o princípio da igualdade de tratamento.
Artigo 10.o
Responsabilidade social e igualdade de género
A inteligência artificial, a robótica e as tecnologias conexas de alto risco, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, desenvolvidas, implantadas e utilizadas na União devem ser desenvolvidas, implantadas e utilizadas em conformidade com ao direito, os princípios e os valores pertinentes da União, de forma a não interferir em eleições ou contribuir para a difusão de desinformação, a respeitar os direitos dos trabalhadores, a promover uma educação de qualidade e a literacia digital, a não aumentar a disparidade de género impedindo a igualdade de oportunidades para todos e a não desrespeitar os direitos de propriedade intelectual e quaisquer limitações ou exceções aos mesmos.
Artigo 11.o
Sustentabilidade ambiental
A inteligência artificial, a robótica e as tecnologias conexas de alto risco, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, devem ser avaliadas quanto à sua sustentabilidade ambiental pelas autoridades nacionais de controlo a que se refere o artigo 18.o ou, se aplicável, por outras entidades nacionais ou europeias de supervisão setorial, assegurando que sejam tomadas medidas para atenuar e remediar o seu impacto geral no que respeita aos recursos naturais, ao consumo de energia, à produção de resíduos, à pegada de carbono, à emergência das alterações climáticas e à degradação do ambiente, a fim de garantir a conformidade com o direito nacional ou da União aplicável, bem como com outros compromissos internacionais assumidos pela União em matéria de ambiente.
Artigo 12.o
Respeito pela vida privada e proteção dos dados pessoais
A utilização e recolha de dados biométricos para fins de identificação a distância em espaços públicos, como o reconhecimento biométrico ou facial, comporta riscos específicos para os direitos fundamentais e deve ser implantada ou utilizada apenas pelas autoridades públicas dos Estados-Membros para fins de interesse público importante. Essas autoridades públicas devem garantir que essa implantação ou utilização seja divulgada ao público, proporcionada, direcionada e restringida a objetivos e locais específicos, bem como limitada no tempo, em conformidade com a legislação da União e nacional, em particular o Regulamento (UE) 2016/679 e a Diretiva 2002/58/CE, e no devido respeito pela dignidade e autonomia humanas e pelos direitos fundamentais estabelecidos na Carta, nomeadamente os direitos ao respeito pela vida privada e à proteção dos dados pessoais.
Artigo 13.o
Direito de recurso
Qualquer pessoa singular ou coletiva tem o direito de procurar obter reparação por prejuízos ou danos causados pelo desenvolvimento, pela implantação e pela utilização de inteligência artificial, robótica e tecnologias conexas de alto risco, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, em violação do direito da União e das obrigações estabelecidas no presente regulamento.
Artigo 14.o
Avaliação dos riscos
1. Para efeitos do presente regulamento, a inteligência artificial, a robótica e as tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, são consideradas tecnologias de alto risco quando, na sequência de uma avaliação dos riscos baseada em critérios objetivos como a sua finalidade ou o seu uso específicos, o setor em que são desenvolvidas, implantadas ou utilizadas, bem como a gravidade dos prejuízos ou dos danos que possam vir a causar, o seu desenvolvimento, a sua implantação e a sua utilização comportem um risco significativo expectável de causar prejuízos ou danos às pessoas ou à sociedade, em violação dos direitos fundamentais e das regras de segurança previstas no direito da União.
2. Sem prejuízo da legislação sectorial aplicável, a avaliação dos riscos da inteligência artificial, da robótica e das tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, é efetuada com base nos critérios objetivos previstos no n.o 1 do presente artigo e na lista exaustiva e cumulativa constante do anexo do presente regulamento, pelas autoridades nacionais de controlo a que se refere o artigo 18.o, sob a coordenação da Comissão e/ou de quaisquer outros organismos, instituições, serviços e agências pertinentes da União que possam ser designados para o efeito no contexto da sua cooperação.
3. Em cooperação com as autoridades nacionais de controlo referidas no n.o 2, a Comissão elabora e, posteriormente, atualiza, através de atos delegados em conformidade com o artigo 20.o, uma lista comum de tecnologias de alto risco identificadas na União.
4. Através de atos delegados em conformidade com o artigo 20.o, a Comissão também atualiza regularmente a lista constante do anexo do presente regulamento.
Artigo 15.o
Avaliação da conformidade
1. A inteligência artificial, a robótica e as tecnologias conexas de alto risco são submetidas a uma avaliação de conformidade com as obrigações estabelecidas nos artigos 6.o a 12.o do presente regulamento, bem como a um acompanhamento posterior, sendo ambos levados a cabo pelas autoridades nacionais de controlo a que se refere o artigo 18.o, sob a coordenação da Comissão e/ou de quaisquer outros organismos, instituições, serviços e agências pertinentes da União que possam ser designados para o efeito.
2. O software, os algoritmos e os dados utilizados ou produzidos por tecnologias de alto risco que tenham sido avaliados como cumprindo as obrigações estabelecidas no presente regulamento nos termos do n.o 1 serão igualmente considerados como cumprindo essas obrigações, a menos que a autoridade nacional de controlo competente decida realizar uma avaliação por sua própria iniciativa ou a pedido do criador, do implantador ou do utilizador.
3. Sem prejuízo da legislação setorial, a Comissão e/ou quaisquer instituições, organismos, serviços e agências pertinentes da União que possam ser especificamente designados para o efeito devem elaborar orientações vinculativas sobre a metodologia a utilizar pelas autoridades nacionais de controlo para a avaliação da conformidade referida no n.o 1 até à data de entrada em vigor do presente regulamento.
Artigo 16.o
Certificado europeu de conformidade ética
1. Sempre que tenha havido uma avaliação da conformidade positiva da inteligência artificial, da robótica e das tecnologias conexas de alto risco, incluindo o software, os algoritmos e os dados utilizados ou produzidos por tais tecnologias, realizada em conformidade com o Artigo 15.o, a respetiva autoridade de controlo nacional emite um certificado europeu de conformidade ética.
2. Os criadores, implantadores ou utilizadores de inteligência artificial, robótica e tecnologias conexas, incluindo software, algoritmos e dados utilizados ou produzidos por essas tecnologias, que não sejam consideradas de alto risco e que, por conseguinte, não estejam sujeitas às obrigações previstas nos artigos 6.o a 12.o e à avaliação dos riscos e da conformidade prevista nos artigos 14.o e 15.o, podem igualmente procurar certificar o cumprimento das obrigações previstas no presente regulamento, ou parte delas, sempre que a natureza da tecnologia em questão o justifique, tal como decidido pelas autoridades de controlo nacionais. Só será emitido um certificado se tiver sido efetuada uma avaliação da conformidade pela autoridade nacional de controlo competente e se essa avaliação for positiva.
3. Para efeitos da emissão do certificado referido no n.o 2, a Comissão e/ou quaisquer organismos, instituições, serviços e agências pertinentes da União que possam ser designados para o efeito elaboram um processo de candidatura.
Capítulo III
Supervisão institucional
Artigo 17.o
Normas de governação e orientações de aplicação
1. A inteligência artificial, a robótica e as tecnologias conexas desenvolvidas, implantadas ou utilizadas na União devem respeitar as normas de governação pertinentes estabelecidas em conformidade com o direito, os princípios e os valores da União pelas autoridades nacionais de controlo referidas no artigo 18.o em conformidade com o direito, os princípios e os valores da União, sob a coordenação da Comissão e/ou de quaisquer instituições, órgãos e organismos, pertinentes da União que possam ser designados para o efeito e em consulta com as partes interessadas em causa.
2. As normas referidas no n.o 1 incluem orientações de aplicação não vinculativas sobre a metodologia para o cumprimento do presente regulamento pelos criadores, implantadores e utilizadores e devem ser publicadas até à data de entrada em vigor do presente regulamento.
3. Os dados utilizados ou produzidos pela inteligência artificial, pela robótica e pelas tecnologias conexas desenvolvidas, implantadas ou utilizadas na União devem ser geridos pelos criadores, implantadores e utilizadores em conformidade com as regras e normas na matéria nacionais, da União e de outras organizações internacionais, bem como com os protocolos industriais e comerciais pertinentes. Em especial, os criadores e implantadores devem efetuar, sempre que possível, controlos de qualidade das fontes externas de dados utilizadas pela inteligência artificial, pela robótica e pelas tecnologias conexas e estabelecer mecanismos de supervisão relativamente à sua recolha, ao seu armazenamento, ao seu tratamento e à sua utilização.
4. Sem prejuízo dos direitos de portabilidade e dos direitos das pessoas cuja utilização da inteligência artificial, da robótica e das tecnologias conexas tenha gerado dados, a recolha, o armazenamento, o tratamento, a partilha e o acesso aos dados utilizados ou produzidos pela inteligência artificial, pela robótica e pelas tecnologias conexas desenvolvidas, implantadas ou utilizadas na União devem respeitar as regras e normas nacionais, da União e de outras organizações internacionais, bem como os protocolos industriais e comerciais pertinentes. Em especial, os criadores e implantadores devem garantir a aplicação desses protocolos durante o desenvolvimento e a implantação da inteligência artificial, da robótica e das tecnologias conexas, definindo claramente os requisitos para o tratamento e a concessão de acesso aos dados utilizados ou produzidos por essas tecnologias, bem como a finalidade, o âmbito e os destinatários do tratamento e da concessão de acesso a esses dados, sendo todos eles passíveis de auditoria e rastreabilidade a qualquer momento.
Artigo 18.o
Autoridades de controlo
1. Cada Estado-membro designa uma autoridade pública independente responsável pelo controlo da aplicação do presente regulamento («autoridade de controlo») e pela realização das avaliações dos riscos e da conformidade e pela certificação previstas nos artigos 14.o, 15.o e 16.o, sem prejuízo da legislação sectorial.
2. As autoridades nacionais de controlo contribuem para a aplicação coerente do presente regulamento em toda a União. Nesse sentido, as autoridades de controlo de cada Estado-Membro cooperam entre si, com a Comissão e com outros organismos, instituições, órgãos serviços e agências competentes da União que possam ser designados para o efeito.
3. Cada autoridade nacional de controlo servirá como primeiro ponto de contacto em caso de suspeita de violação dos princípios éticos e obrigações legais estabelecidos no presente regulamento, incluindo o tratamento discriminatório ou a violação de outros direitos, em resultado do desenvolvimento, da implantação ou da utilização da inteligência artificial, da robótica e das tecnologias conexas. Nesses casos, a respetiva autoridade nacional de controlo procede a uma avaliação da conformidade com vista a apoiar o direito dos cidadãos de contestar e obter reparação.
4. As autoridades nacionais de controlo são responsáveis pelo controlo da aplicação das regras e normas pertinentes de governação nacionais, da União e internacionais referidas no artigo 17.o à inteligência artificial, à robótica e às tecnologias conexas, nomeadamente através da coordenação com o maior número possível de partes interessadas em causa. Para o efeito, as autoridades de controlo de cada Estado-Membro constituem um fórum de intercâmbio regular com e entre as partes interessadas das universidades, da investigação, da indústria e da sociedade civil.
5. As autoridades nacionais de controlo fornecem orientação e apoio profissional e administrativo sobre a aplicação geral do direito da União em matéria de inteligência artificial, robótica e tecnologias conexas e dos princípios éticos definidos no presente regulamento, em especial às organizações de investigação e desenvolvimento pertinentes e às pequenas e médias empresas ou às empresas em fase de arranque.
6. Cada Estado-Membro notifica à Comissão Europeia as disposições legais que adote nos termos do presente artigo até … [JO: inserir a data correspondente a um ano após a data de entrada em vigor] e, sem demora, quaisquer alterações subsequentes que afetem essas disposições.
7. Os Estados-Membros tomam todas as medidas necessárias para garantir a aplicação dos princípios éticos e das obrigações legais estabelecidas no presente regulamento. Os Estados-Membros devem apoiar os intervenientes em causa e a sociedade civil, tanto a nível da União como a nível nacional, nos esforços para dar uma resposta atempada, ética e fundamentada às novas oportunidades e aos novos desafios, em especial de natureza transfronteiriça, decorrentes da evolução tecnológica em matéria de inteligência artificial, robótica e tecnologias conexas.
Artigo 19.o
Denúncia de infrações e proteção dos denunciantes
A Diretiva (UE) 2019/1937 do Parlamento Europeu e do Conselho (6) aplica-se à denúncia de infrações ao presente regulamento e à proteção das pessoas que denunciam essas infrações.
Artigo 20.o
Coordenação a nível da União
1. A Comissão e/ou quaisquer instituições, organismos, serviços e agências da União que possam ser designados neste contexto devem desempenhar as seguintes funções:
— |
Assegurar a realização de uma avaliação coerente dos riscos da inteligência artificial, da robótica e das tecnologias conexas a que se refere o artigo 14.o pelas autoridades nacionais de controlo referidas no artigo 18.o com base nos critérios objetivos comuns previstos no artigo 8.o, n.o 1, e na lista de sectores de alto risco e de utilizações ou finalidades de alto risco constante do anexo ao presente regulamento; |
— |
Tomar nota da avaliação da conformidade e posterior acompanhamento da inteligência artificial, da robótica e das tecnologias conexas de alto risco referidas no artigo 15.o, a efetuar pelas autoridades nacionais de controlo referidas no artigo 18.o; |
— |
Elaborar o processo de candidatura ao certificado referido no artigo 16.o que é emitido pelas autoridades nacionais de controlo referidas no artigo 18.o; |
— |
Sem prejuízo da legislação setorial, as orientações vinculativas referidas no artigo 17.o, n.o 4, sobre a metodologia a utilizar pelas autoridades nacionais de controlo referidas no artigo 18.o; |
— |
Coordenar o estabelecimento das normas de governação pertinentes referidas no artigo 17.o pelas autoridades nacionais de controlo referidas no artigo 18.o, incluindo orientações de aplicação não vinculativas para os criadores, implantadores e utilizadores sobre a metodologia para o cumprimento do presente regulamento; |
— |
Cooperar com as autoridades nacionais de controlo referidas no artigo 18.o relativamente à sua contribuição para a aplicação coerente do presente regulamento em toda a União, nos termos do artigo 18.o, no 2; |
— |
Funcionar como centro de especialização, promovendo o intercâmbio de informações relacionadas com a inteligência artificial, a robótica e as tecnologias conexas e apoiando o desenvolvimento de um entendimento comum no Mercado Único, emitindo orientações, pareceres e aconselhamento adicionais para as autoridades nacionais de controlo referidas no artigo 18.o, controlando a implementação do direito pertinente da União, identificando normas de melhores práticas e, quando apropriado, formulando recomendações de medidas regulamentares; ao fazê-lo, deve estabelecer uma ligação com o maior número possível de partes interessadas pertinentes e assegurar que a composição dos seus níveis de decisão seja diversificada e garanta a igualdade de género; |
— |
Acolher um Grupo de Trabalho sobre Segurança e Defesa destinado a analisar questões políticas e de investimento especificamente relacionadas com a utilização ética da inteligência artificial, da robótica e das tecnologias conexas no domínio da segurança e defesa. |
Artigo 21.o
Exercício da delegação
1. O poder de adotar atos delegados é conferido à Comissão nas condições estabelecidas no presente artigo.
2. O poder de adotar atos delegados referido no artigo 14.o, n.os 3 e 4, é conferido à Comissão por um prazo de 5 anos, a contar de … (data de entrada em vigor do presente regulamento).
3. A delegação de poderes referida no artigo 14.o, n.os 3 e 4, pode ser revogada em qualquer momento pelo Parlamento Europeu ou pelo Conselho. A decisão de revogação põe termo à delegação dos poderes nela especificados e produz efeitos no dia seguinte ao da sua publicação no Jornal Oficial da União Europeia ou numa data posterior nela especificada. A decisão de revogação não afeta os atos delegados já em vigor.
4. Antes de adotar um ato delegado, a Comissão consulta os peritos designados por cada Estado-Membro de acordo com os princípios estabelecidos no Acordo Interinstitucional, de 13 de abril de 2016, sobre legislar melhor.
5. Assim que adotar um ato delegado, a Comissão notifica-o simultaneamente ao Parlamento Europeu e ao Conselho.
6. Os atos delegados adotados nos termos do artigo 14.o, n.os 3 e 4, só entram em vigor se não tiverem sido formuladas objeções pelo Parlamento Europeu ou pelo Conselho no prazo de três meses a contar da notificação do ato ao Parlamento Europeu e ao Conselho, ou se, antes do termo desse prazo, o Parlamento Europeu e o Conselho tiverem informado a Comissão de que não têm objeções a formular. O referido prazo é prorrogável por três meses por iniciativa do Parlamento Europeu ou do Conselho.
Artigo 22.o
Alteração da Diretiva (UE) 2019/1937
A Diretiva (UE) 2019/1937 é alterada do seguinte modo:
1) |
Ao artigo 2.o, n.o 1, é aditado a seguinte subalínea:
|
2) |
Na parte I do anexo, é aditado a seguinte ponto:
|
Artigo 23.o
Revisão
A Comissão examina regularmente o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, e até … [JO: inserir data correspondente a três anos após a entrada em vigor] e, posteriormente, de três em três anos, apresenta ao Parlamento Europeu, ao Conselho e ao Comité Económico e Social Europeu um relatório sobre a aplicação do presente regulamento, incluindo uma avaliação da eventual alteração do seu âmbito de aplicação.
Artigo 24.o
Entrada em vigor
O presente regulamento entra em vigor no vigésimo dia seguinte ao da sua publicação no Jornal Oficial da União Europeia.
O presente regulamento é aplicável a partir de XX.
O presente regulamento é obrigatório em todos os seus elementos e diretamente aplicável em todos os Estados-Membros.
Feito em …,
Pelo Parlamento Europeu
O Presidente
Pelo Conselho
O Presidente
ANEXO
Lista cumulativa e exaustiva dos setores de alto risco e das utilizações ou finalidades de alto risco que encerram um risco de violação dos direitos fundamentais e das regras de segurança
Setores de alto risco |
|
||||||||||||||||||||||||||||
Utilizações ou finalidades de alto risco |
|
(1) Para a condução automatizada de veículos, foram propostos seis níveis de automatização da condução de acordo com a norma internacional J3016 da SAE, atualizada pela última vez em 2018 para J3016_201806, https://www.sae.org/standards/content/j3016_201806/
(2) Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados e que revoga a Diretiva 95/46/CE (Regulamento Geral sobre a Proteção de Dados) (JO L 119 de 4.5.2016, p. 1).
(3) Diretiva 2002/58/CE do Parlamento Europeu e do Conselho, de 12 de julho de 2002, relativa ao tratamento de dados pessoais e à proteção da privacidade no setor das telecomunicações (Diretiva relativa à privacidade e às comunicações eletrónicas) (JO L 201 de 31.7.2002, p. 37).
(4) Definição constante da Comunicação da Comissão Europeia COM(2018)0237 final, 25.4.2018, página 1, adaptada.
(5) Da definição de robô industrial na norma ISO 8373.
(6) Diretiva (UE) 2019/1937 do Parlamento Europeu e do Conselho, de 23 de outubro de 2019, relativa à proteção das pessoas que denunciam infrações ao direito da União (JO L 305 de 26.11.2019, p. 17).