EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52020IP0276

Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime de responsabilidade civil aplicável à inteligência artificial (2020/2014(INL))

JO C 404 de 6.10.2021, p. 107–128 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

6.10.2021   

PT

Jornal Oficial da União Europeia

C 404/107


P9_TA(2020)0276

Regime de responsabilidade civil aplicável à inteligência artificial

Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime de responsabilidade civil aplicável à inteligência artificial (2020/2014(INL))

(2021/C 404/05)

O Parlamento Europeu,

Tendo em conta o artigo 225.o do Tratado sobre o Funcionamento da União Europeia,

Tendo em conta os artigos 114.o e 169.o do Tratado sobre o Funcionamento da União Europeia,

Tendo em conta a Diretiva 85/374/CEE do Conselho, de 25 de julho de 1985, relativa à aproximação das disposições legislativas, regulamentares e administrativas dos Estados-Membros em matéria de responsabilidade decorrente dos produtos defeituosos (1) («Diretiva relativa à responsabilidade decorrente dos produtos»),

Tendo em conta a Diretiva 2005/29/CE do Parlamento Europeu e do Conselho, de 11 de Maio de 2005, relativa às práticas comerciais desleais das empresas face aos consumidores no mercado interno (2) («Diretiva relativa às práticas comerciais desleais das empresas») e a Diretiva 2011/83/CE do Parlamento Europeu e do Conselho, de 25 de outubro de 2011, relativa aos direitos dos consumidores (3), bem como outras regras sobre proteção dos consumidores,

Tendo em conta o Regulamento (UE) 2017/745 do Parlamento Europeu e do Conselho, de 5 de abril de 2017, relativo aos dispositivos médicos (4),

Tendo em conta o Regulamento (UE) 2018/1488 do Conselho, de 28 de setembro de 2018, que cria a Empresa Comum para a Computação Europeia de Alto Desempenho (5),

Tendo em conta a Diretiva (UE) 2019/770 do Parlamento Europeu e do Conselho, de 20 de maio de 2019, sobre certos aspetos relativos aos contratos de fornecimento de conteúdos e serviços digitais (6),

Tendo em conta o Acordo Interinstitucional, de 13 de abril de 2016, sobre legislar melhor, e as Orientações sobre Legislar Melhor (7),

Tendo em conta a proposta de regulamento do Parlamento Europeu e do Conselho, de 6 de junho de 2018, que cria o programa Europa Digital para o período de 2021-2027 (COM(2018)0434),

Tendo em conta a comunicação da Comissão, de 25 de abril de 2018, intitulada «Inteligência artificial para a Europa» (COM(2018)0237),

Tendo em conta a comunicação da Comissão, de 7 de dezembro de 2018, intitulada «Plano Coordenado para a Inteligência Artificial» (COM(2018)0795),

Tendo em conta a comunicação da Comissão, de 8 de abril de 2019, intitulada «Aumentar a confiança numa inteligência artificial centrada no ser humano» (COM(2019)0168),

Tendo em conta o relatório da Comissão, de 19 de fevereiro de 2020, ao Parlamento Europeu, ao Conselho e ao Comité Económico e Social Europeu sobre as implicações em matéria de segurança e de responsabilidade decorrentes da inteligência artificial, da Internet das coisas e da robótica (COM(2020)0064),

Tendo em conta o Livro Branco da Comissão, de 19 de fevereiro de 2020, sobre a inteligência artificial — Uma abordagem europeia virada para a excelência e a confiança (COM(2020)0065),

Tendo em conta a sua Resolução, de 16 de fevereiro de 2017, que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica (8),

Tendo em conta a sua Resolução, de 1 de junho de 2017, sobre a digitalização da indústria europeia (9),

Tendo em conta a sua Resolução, de 12 de setembro de 2018, sobre sistemas de armamento autónomos (10),

Tendo em conta a sua Resolução, de 12 de fevereiro de 2019, sobre uma política industrial europeia completa no domínio da inteligência artificial e da robótica (11),

Tendo em conta a sua Resolução, de 12 de fevereiro de 2020, sobre processos automatizados de tomada de decisões: assegurar a proteção dos consumidores e a livre circulação de bens e serviços (12),

Tendo em conta o relatório, de 8 de abril de 2019, do Grupo de Peritos de Alto Nível em Inteligência Artificial, com o título «Orientações éticas para uma IA de confiança»,

Tendo em conta o relatório, de 8 de abril de 2019, do Grupo de Peritos de Alto Nível em Inteligência Artificial, com o título «Uma definição de IA: principais capacidades e disciplinas»,

Tendo em conta o relatório, de 26 de junho de 2019, do Grupo de Peritos de Alto Nível em Inteligência Artificial, com o título «Recomendações políticas e de investimento para uma IA fiável»,

Tendo em conta o relatório, de 21 de novembro de 2019, do Grupo de Peritos sobre Responsabilidade Civil e Novas Tecnologias — Formação no domínio das novas tecnologias, com o título «Responsabilidade em matéria de inteligência artificial e outras tecnologias digitais emergentes»,

Tendo em conta o estudo de avaliação do valor acrescentado europeu, efetuado pelo Serviço de Estudos do Parlamento Europeu, com o título «Regime de responsabilidade civil aplicável à inteligência artificial: avaliação do valor acrescentado europeu» (13),

Tendo em conta a nota informativa STOA do Serviço de Estudos do Parlamento Europeu, de junho de 2016, sobre considerações jurídicas e éticas acerca da robótica (14),

Tendo em conta o estudo elaborado em outubro de 2016 pela Direção-Geral das Políticas Internas do Parlamento Europeu para a Comissão dos Assuntos Jurídicos, com o título «Disposições de Direito Civil Europeu sobre Robótica» (15),

Tendo em conta os artigos 47.o e 54.o do seu Regimento,

Tendo em conta os pareceres da Comissão do Mercado Interno e da Proteção dos Consumidores e da Comissão dos Transportes e do Turismo,

Tendo em conta o relatório da Comissão dos Assuntos Jurídicos (A9-0178/2020),

A.

Considerando que o conceito de «responsabilidade» desempenha um importante papel duplo no nosso quotidiano: garante, por um lado, que uma pessoa que sofreu danos ou prejuízos tenha o direito de exigir e receber uma indemnização da parte comprovadamente responsável por esses danos ou prejuízos e, por outro, proporciona incentivos económicos para que as pessoas singulares e coletivas evitem, desde logo, causar danos ou prejuízos ou tenham em conta no seu comportamento o risco de terem de pagar uma indemnização;

B.

Considerando que qualquer quadro jurídico de responsabilidade civil orientado para o futuro deve criar confiança na segurança, fiabilidade e coerência dos produtos e serviços, nomeadamente na tecnologia digital, a fim de estabelecer um equilíbrio entre a proteção eficiente e justa das eventuais vítimas de danos ou prejuízos e, ao mesmo tempo, proporcionar margem de manobra suficiente para permitir que as empresas, em especial as pequenas e médias empresas, desenvolvam novas tecnologias, produtos ou serviços; considerando que tal contribuirá para reforçar a confiança e criar estabilidade para o investimento; considerando que, em última análise, o objetivo de um quadro de responsabilidade deve ser proporcionar segurança jurídica para todas as partes, quer se trate do produtor, do operador, da pessoa lesada ou de terceiros;

C.

Considerando que o sistema jurídico de um Estado-Membro pode ajustar as suas regras de responsabilidade para determinados intervenientes ou torná-las mais objetivas para determinadas atividades; que a responsabilidade objetiva significa que uma parte pode ser responsabilizada, não obstante a ausência de culpa; considerando que, em muitas leis nacionais em matéria de responsabilidade civil, se considera que o demandado tem responsabilidade objetiva se o risco que criou para o público, por exemplo, sob a forma de automóveis ou atividades perigosas, ou um risco que não pode controlar, como os animais, resultar em danos ou prejuízos;

D.

Considerando que qualquer legislação futura da União, que tenha como objetivo a atribuição explícita de responsabilidade no que diz respeito aos sistemas de inteligência artificial (IA), deve ser precedido por uma análise e uma consulta com os Estados-Membros sobre a conformidade do ato legislativo proposto com as condições económicas, jurídicas e sociais;

E.

Considerando que a questão de um regime de responsabilidade civil para a IA deve ser objeto de um amplo debate público, tendo em conta todos os interesses em jogo, especialmente os aspetos éticos, jurídicos, económicos e sociais, a fim de evitar mal-entendidos e receios injustificados que a tecnologia possa causar entre os cidadãos; considerando que uma análise cuidadosa das consequências de qualquer novo quadro regulamentar para as partes interessadas, através de uma avaliação de impacto, deve ser uma condição prévia para a adoção de novas medidas legislativas;

F.

Considerando que a noção de sistemas de IA inclui um grande grupo de tecnologias diferentes, incluindo estatísticas simples, aprendizagem automática e aprendizagem profunda;

G.

Considerando que a utilização da expressão «tomada de decisões automatizada» pode evitar a eventual ambiguidade do termo IA; considerando que a «tomada de decisões automatizada» implica um utilizador a delegar inicialmente uma decisão, parcial ou totalmente, numa entidade, através de software ou de um serviço; considerando que essa entidade, por sua vez, utiliza modelos de tomada de decisões executados automaticamente para realizar uma ação em nome do utilizador, ou para informar as decisões do utilizador no desempenho de uma ação;

H.

Considerando que alguns sistemas de IA representam importantes desafios jurídicos para o quadro em vigor em matéria de responsabilidade, podendo resultar em situações em que a sua opacidade torne extremamente dispendiosa, ou mesmo impossível, a identificação de quem controlava o risco associado ao sistema de IA ou que código, intervenção ou dados acabaram por provocar a operação danosa; que este fator pode tornar mais difícil identificar a relação entre os danos ou prejuízos e o comportamento que os provocam, resultando no facto de as vítimas poderem não receber indemnização adequada;

I.

Considerando que os desafios jurídicos também são o resultado da conectividade entre um sistema de IA e outros sistemas, envolvendo IA ou não, da sua dependência de dados externos, da sua vulnerabilidade a violações da cibersegurança, bem como da conceção de sistemas de IA cada vez mais autónomos que utilizam, nomeadamente, técnicas de aprendizagem automática e de aprendizagem profunda;

J.

Considerando que a combinação de normas éticas robustas para os sistemas de IA com procedimentos de indemnização sólidos e justos pode contribuir para dar resposta a esses desafios jurídicos e eliminar o risco de os utilizadores estarem menos dispostos a aceitar tecnologias emergentes; considerando que procedimentos de indemnização justa significam que todos os que sofrerem danos causados por sistemas de IA ou cujos danos patrimoniais sejam causados por sistemas de IA devem beneficiar do mesmo nível de proteção que nos casos em que não esteja envolvida IA; considerando que os utilizadores devem ter a certeza de que os eventuais danos provocados pelos sistemas que utilizam IA estão cobertos por um seguro adequado e que existe uma via legal clara de recurso;

K.

Considerando que a segurança jurídica também é uma condição essencial para a inovação e o desenvolvimento dinâmicos da tecnologia baseada em IA, nomeadamente para as empresas em fase de arranque, as micro, pequenas e médias empresas e a sua aplicação prática no dia a dia; considerando que o papel essencial dessas empresas, sobretudo para a economia europeia, justifica uma abordagem estritamente proporcional que permita que se desenvolvam e inovem.

L.

Considerando que a diversidade dos sistemas de IA e a gama diversificada de riscos que a tecnologia representa dificulta os esforços destinados a encontrar uma solução única, adequada a todos os riscos possíveis; considerando que, a esse respeito, deve ser adotada uma abordagem em que são utilizadas experiências, projetos-piloto e ambientes de teste da regulamentação para encontrar soluções proporcionais e baseadas em dados concretos que se adaptem a situações e setores específicos, sempre que necessário;

Introdução

1.

Considera que o desafio relacionado com a introdução de sistemas de IA na sociedade, no local de trabalho e na economia é uma das questões mais importantes da atual agenda política; considera que as tecnologias baseadas na IA podem e devem esforçar-se por melhorar as nossas vidas em quase todos os setores, desde a esfera pessoal, por exemplo, o setor dos transportes, a educação personalizada, a assistência a pessoas vulneráveis, programas de aptidão física e a concessão de crédito, até ao ambiente de trabalho, por exemplo, o alívio de tarefas entediantes e repetitivas, ou os desafios globais, como as alterações climáticas, os cuidados de saúde, a nutrição e a logística;

2.

Está firmemente convicto de que, para tirar devidamente proveito das vantagens e prevenir potenciais abusos dos sistemas de IA e evitar a fragmentação regulamentar na União, é fundamental que a União se dote, para todos os sistemas de IA, de uma legislação uniforme, baseada em princípios e virada para o futuro; considera que, embora seja preferível uma regulamentação setorial para uma gama vasta de aplicações possíveis, se afigura necessário um quadro jurídico horizontal e harmonizado baseado em princípios comuns, para garantir segurança jurídica, estabelecer normas iguais em toda a União e proteger eficazmente os nossos valores europeus e os direitos dos cidadãos;

3.

Declara que o mercado único digital deve ser totalmente harmonizado, uma vez que a esfera digital se caracteriza por dinâmicas transfronteiriças rápidas e fluxos de dados internacionais; considera que a União só atingirá os objetivos de manutenção da soberania digital da União e de promoção da inovação digital feita na Europa com regras coerentes e comuns em linha com uma cultura de inovação;

4.

Observa que a corrida mundial da IA já está em curso e que a União deve desempenhar um papel de liderança, explorando o seu potencial científico e tecnológico; salienta com veemência que o desenvolvimento tecnológico não deve prejudicar a proteção dos utilizadores contra os danos que possam ser provocados por dispositivos e sistemas que utilizam IA; incentiva a promoção das normas da União em matéria de responsabilidade civil a nível internacional;

5.

Está firmemente convencido de que as novas regras comuns para os sistemas de IA só devem assumir a forma de um regulamento; considera que a questão da responsabilidade em caso de danos ou prejuízos causados por um sistema de IA é um dos principais aspetos a abordar nesse quadro;

Responsabilidade e inteligência artificial

6.

Considera que não é necessário rever completamente os regimes de responsabilidade que funcionam bem, mas que a complexidade, a conectividade, a opacidade, a vulnerabilidade, a capacidade de alteração através de atualizações, a capacidade de autoaprendizagem e a potencial autonomia dos sistemas de IA, bem como a multiplicidade de intervenientes envolvidos, representam, contudo, um desafio significativo para a eficácia das disposições do quadro de responsabilidade da União e dos Estados-Membros; considera que são necessários ajustamentos específicos e coordenados aos regimes de responsabilidade para evitar situações em que as pessoas que sofrem danos ou prejuízos patrimoniais não recebem uma indemnização;

7.

Observa que todas as atividades, dispositivos ou processos físicos ou virtuais operados por sistemas de IA podem, do ponto de vista técnico, ser a causa direta ou indireta de danos ou prejuízos, contudo são quase sempre o resultado de alguém que construiu, utilizou ou interferiu com esses sistemas; observa, a esse respeito, que não é necessário conferir personalidade jurídica aos sistemas de IA; defende que a opacidade, a conectividade e a autonomia dos sistemas de IA podem, na prática, tornar muito difícil, ou mesmo impossível, identificar se determinadas ações danosas dos sistemas de IA tiveram origem numa intervenção humana específica ou em decisões de conceção; recorda que, de acordo com conceitos de responsabilidade amplamente aceites, se pode contornar esse obstáculo atribuindo a responsabilidade às diferentes pessoas da cadeia de valor que criam, fazem a manutenção ou controlam os riscos associados ao sistema de IA;

8.

Considera que a Diretiva relativa à responsabilidade decorrente dos produtos (DRP) tem, há mais de 30 anos, provado ser um meio eficaz de indemnização pelos danos causados por um produto defeituoso, mas deve, no entanto, ser revista para ser adaptada ao mundo digital e dar resposta aos desafios colocados pelas tecnologias digitais emergentes, garantindo, assim, um elevado nível de proteção eficaz dos consumidores, bem como segurança jurídica para os consumidores e as empresas, evitando simultaneamente custos e riscos elevados para as PME e as empresas em fase de arranque; insta a Comissão a avaliar se a DRP deve ser transformada num regulamento, para esclarecer a definição de «produtos», determinando se os conteúdos digitais e os serviços digitais são abrangidos pelo seu âmbito de aplicação e ponderar a adaptação de conceitos como «danos», «defeito» e «produtor»; considera que, para efeitos de segurança jurídica na União, após a revisão da DRP, o conceito de «produtor» deve incluir fabricantes, criadores, programadores, prestadores de serviços e operadores de backend; insta a Comissão a ponderar inverter as regras que regem o ónus da prova em relação aos danos causados pelas tecnologias digitais emergentes em casos bem definidos, e após uma avaliação adequada; refere a importância de garantir que a regulamentação atualizada da União continue a limitar-se aos problemas claramente identificados para os quais já existem soluções viáveis e, ao mesmo tempo, permitir a cobertura de futuros desenvolvimentos tecnológicos, incluindo desenvolvimentos baseados em software gratuito e de fonte aberta; observa que a DRP deve continuar a ser utilizada em relação às ações de responsabilidade civil contra o produtor de um sistema de IA defeituoso, se o sistema de IA puder ser considerado como um produto ao abrigo dessa diretiva; sublinha que qualquer atualização do quadro de responsabilidade dos produtos deve ser acompanhada pela atualização da Diretiva 2001/95/CE do Parlamento Europeu e do Conselho, de 3 de Dezembro de 2001, relativa à segurança geral dos produtos (16), a fim de garantir que os sistemas de IA integram os princípios de proteção e de segurança desde a conceção;

9.

Considera que os atuais regimes nacionais em matéria de responsabilidade culposa oferecem, na maioria dos casos, um nível de proteção suficiente para as pessoas que sofrem danos causados por um terceiro interveniente, como um pirata informático, ou para as pessoas cuja propriedade é danificada por terceiros, uma vez que a interferência geralmente constitui uma ação culposa; refere que apenas em casos específicos, nomeadamente aqueles em que é impossível identificar o terceiro ou este é impecunioso, se afigura necessário acrescentar regras de responsabilidade para complementar a legislação nacional em vigor em matéria de responsabilidade civil;

10.

Considera, por conseguinte, adequado que o relatório se concentre nas ações de responsabilidade civil movidas contra o operador de um sistema de IA; afirma que a responsabilidade do operador se justifica pelo facto de controlar um risco associado ao sistema de IA, comparável ao proprietário de um automóvel; considera que, devido à complexidade e conectividade do sistema de IA, o operador será, em muitos casos, o primeiro ponto de contacto visível para a pessoa lesada;

Responsabilidade do operador

11.

Defende que as regras em matéria de responsabilidade relativas ao operador devem cobrir todas as operações de sistemas de IA, independentemente do local onde a operação se realiza ou de esta ocorrer física ou virtualmente; observa que as operações em espaços públicos que expõem muitas pessoas a um risco constituem, no entanto, situações que requerem uma análise mais aprofundada; considera que, muitas vezes, as potenciais vítimas de danos ou prejuízos não estão cientes da operação e geralmente não instaurariam ações de responsabilidade contratual contra o operador; observa que, em caso de ocorrência de danos ou prejuízos, essas pessoas apenas poderiam mover uma ação de responsabilidade culposa, podendo ter dificuldade em provar a culpa do operador do sistema de IA e, por conseguinte, a correspondente ação de responsabilidade não teria sucesso;

12.

Considera adequado que o termo «operador» seja entendido como abrangendo tanto o operador de frontend como o operador de backend, desde que este último não esteja coberto pela DRP; observa que o operador de frontend deve ser definido como a pessoa singular ou coletiva que exerce um grau de controlo sobre um risco relacionado com a operação e o funcionamento do sistema de IA e beneficia desse facto; afirma que o operador de backend deve ser definido como a pessoa singular ou coletiva que, de forma contínua, define as características da tecnologia, fornece dados e presta serviços essenciais de apoio de backend e, por conseguinte, exerce igualmente algum controlo sobre o risco ligado à operação e ao funcionamento do sistema de IA; considera que exercer controlo significa qualquer ação do operador que influencie a operação do sistema de IA e, por conseguinte, a medida em que expõe terceiros a riscos potenciais; considera que essas ações podem ter um impacto na operação de um sistema de IA do início ao fim, ao determinar dados de entrada ou resultados, ou podendo alterar funções ou processos específicos no sistema de IA;

13.

Observa que poderão existir situações em que há mais do que um operador, por exemplo, um operador de backend e um operador de frontend; considera que, nesse caso, todos os operadores devem ser solidariamente responsáveis, tendo, ao mesmo tempo, o direito de recorrer proporcionalmente uns contra os outros; considera que a proporção da responsabilidade deve ser determinada pelo respetivo nível de controlo que os operadores têm sobre o risco relacionado com a operação e o funcionamento do sistema de IA; considera que a rastreabilidade dos produtos deve ser melhorada para ser mais fácil identificar os intervenientes nas diferentes fases;

Regras diferentes em matéria de responsabilidade para riscos diferentes

14.

Reconhece que o tipo de sistema de IA sobre o qual o operador exerce controlo é um fator determinante para a atribuição de responsabilidade; observa que um sistema de IA que implique um risco elevado inerente e aja de forma autónoma representa, potencialmente, um risco muito superior para o público em geral; considera que, com base nos desafios jurídicos que os sistemas de IA representam para os atuais regimes em matéria de responsabilidade civil, se afigura razoável estabelecer um regime comum de responsabilidade objetiva para esses sistemas de IA autónomos de alto risco; sublinha que essa abordagem baseada nos riscos, que pode abranger vários níveis de risco, se deve basear em critérios claros e numa definição adequada de alto risco e oferecer segurança jurídica;

15.

Considera que um sistema de IA representa um alto risco quando a sua operação autónoma envolve um risco considerável de causar danos a uma ou mais pessoas de forma aleatória e que vai além do que se pode razoavelmente esperar; considera que, ao determinar se um sistema de IA é de alto risco, o setor em que se podem esperar riscos significativos e a natureza das atividades empreendidas também devem ser tidos em conta; considera que a importância do risco depende da relação entre a gravidade dos eventuais danos, a probabilidade de o risco causar esses danos e a forma como o sistema de IA é utilizado;

16.

Recomenda que todos os sistemas de IA de alto risco sejam enumerados exaustivamente num anexo ao regulamento proposto; reconhece que, dada a rápida evolução tecnológica e os conhecimentos técnicos necessários, a Comissão deve rever esse anexo sem demora, pelo menos a cada seis meses e, se necessário, alterá-lo através de um ato delegado; considera que a Comissão deve cooperar estreitamente com um novo comité permanente, semelhante ao atual Comité Permanente dos Precursores ou ao Comité Técnico — Veículos a Motor, que inclua peritos nacionais dos Estados-Membros e representantes das partes interessadas; entende que uma composição equilibrada do Grupo de Peritos de Alto Nível em Inteligência Artificial poderia servir de exemplo para a constituição do grupo de partes interessadas, com a adição de peritos em ética e antropólogos, sociólogos e especialistas em saúde mental; considera igualmente que o Parlamento Europeu deve nomear peritos consultivos para aconselhar o comité permanente recentemente criado;

17.

Observa que o desenvolvimento de tecnologias baseadas em IA é extremamente dinâmico e está em constante aceleração; salienta que, para garantir uma proteção adequada dos utilizadores, é necessária uma abordagem acelerada para analisar os eventuais riscos dos novos dispositivos e sistemas que utilizam sistemas de IA que entram no mercado europeu; recomenda que todos os procedimentos a este respeito sejam simplificados tanto quanto possível; sugere ainda que a avaliação, pela Comissão, da questão de saber se um sistema de IA representa um alto risco deve começar ao mesmo tempo que a avaliação da segurança do produto, a fim de evitar uma situação em que um sistema de IA de alto risco já está aprovado para introdução no mercado mas ainda não está classificado como de alto risco e, por conseguinte, opera sem cobertura de seguro obrigatório;

18.

Observa que a Comissão deve avaliar como os dados recolhidos, registados ou armazenados em sistemas de IA de alto risco para efeitos de recolha de provas em caso de danos ou prejuízos provocados por esse sistema de IA podem ser acedidos e utilizados pela autoridade responsável pelo inquérito e como a rastreabilidade e a auditabilidade desses dados podem ser melhoradas, tendo simultaneamente em conta os direitos fundamentais e de privacidade;

19.

Defende que, em linha com os sistemas de responsabilidade objetiva dos Estados-Membros, o regulamento proposto deve cobrir as violações dos direitos importantes legalmente protegidos, como a vida, a saúde, a integridade física e os bens, e deve estabelecer os montantes e a extensão da indemnização, bem como o prazo de prescrição; considera que o regulamento proposto também deve incluir danos não patrimoniais significativos que resultem numa perda económica verificável que ultrapasse um limite harmonizado na legislação da União em matéria de responsabilidade, que equilibre o acesso à justiça das pessoas afetadas com os interesses das outras pessoas envolvidas; insta a Comissão a reavaliar e a alinhar os limites de indemnização no direito da União; defende que a Comissão deve analisar em profundidade as tradições jurídicas de todos os Estados-Membros e as suas legislações nacionais em vigor que concedem indemnizações por danos não patrimoniais, a fim de avaliar se é necessária a inclusão de danos não patrimoniais em atos legislativos específicos sobre a IA e se essa inclusão contraria o atual quadro jurídico da União ou compromete o direito nacional dos Estados-Membros;

20.

Considera que todas as atividades, dispositivos ou processos comandados por sistemas de IA que causem danos ou prejuízos, mas não estejam enumerados no anexo ao regulamento proposto, continuem sujeitos à responsabilidade culposa; considera que a pessoa afetada deve, não obstante, beneficiar da presunção de culpa por parte do operador, que deve ser capaz de se exonerar, provando que respeitou o seu dever de diligência;

21.

Considera que um sistema de IA que ainda não tenha sido avaliado pela Comissão e pelo comité permanente recém-formado, e, por conseguinte, ainda não tenha sido classificado como de alto risco nem incluído na lista constante do anexo do regulamento proposto, deve, no entanto e em derrogação do sistema previsto no n.o 20, ser sujeito a responsabilidade objetiva se provocar incidentes repetidos que resultem em danos ou prejuízos graves; observa que, se for esse o caso, a Comissão também deve avaliar, sem demora injustificada, a necessidade de rever o referido anexo para acrescentar à lista o sistema de IA em questão; defende que, se a Comissão decidir incluir o sistema de IA na lista na sequência da avaliação, essa inclusão deve ter efeitos retroativos a partir da data do primeiro incidente comprovado causado por esse sistema de IA que tenha resultado em danos ou prejuízos graves;

22.

Solicita à Comissão que avalie a necessidade de disposições legais a nível da União sobre contratos para impedir cláusulas contratuais de exoneração de responsabilidade, incluindo relações entre empresas e entre empresas e a administração pública;

Seguros e sistemas de IA

23.

Considera que a cobertura da responsabilidade é um dos principais fatores que define o sucesso das novas tecnologias, produtos e serviços; observa que uma cobertura adequada da responsabilidade também é essencial para garantir ao público que pode confiar na nova tecnologia, não obstante a possibilidade de existirem danos ou ações legais movidas pelas pessoas lesadas; observa, ainda, que este sistema regulamentar se centra na necessidade de explorar e reforçar as vantagens dos sistemas de IA, ao mesmo tempo que estabelece salvaguardas sólidas;

24.

Considera que, com base no grande potencial de causar danos ou prejuízos e tendo em conta a Diretiva 2009/103/CE do Parlamento Europeu e do Conselho, de 16 de setembro de 2009, relativa ao seguro de responsabilidade civil que resulta da circulação de veículos automóveis e à fiscalização do cumprimento da obrigação de segurar esta responsabilidade (17), todos os operadores dos sistemas de IA de alto risco enumerados no anexo do regulamento proposto devem ser titulares de um seguro de responsabilidade civil; considera que um regime de seguro obrigatório dessa natureza para sistemas de IA de alto risco deve abranger os montantes e a extensão da indemnização previstos no regulamento proposto; está ciente do facto de que essa tecnologia ainda é muito rara, uma vez que pressupõe um elevado grau de tomada de decisão autónoma e que, por conseguinte, os debates atualmente em curso estão sobretudo orientados para o futuro; considera, no entanto, que a incerteza relativamente aos riscos não deve tornar os prémios de seguro proibitivamente elevados e, por conseguinte, um obstáculo à investigação e à inovação;

25.

Considera que um mecanismo de indemnizações a nível da União, financiado com fundos públicos, não é a solução ideal para colmatar eventuais lacunas em matéria de seguros; considera que a falta de dados sobre os riscos associados aos sistemas de IA, combinada com a incerteza quanto à evolução futura, torna difícil o setor dos seguros encontrar produtos de seguros adaptados ou novos; considera provável que deixar que os seguros obrigatórios sejam totalmente desenvolvidos pelo mercado resulte numa solução única aplicável a todos os casos, com prémios desproporcionalmente elevados e incentivos errados, incentivando os operadores a optarem pelo seguro mais barato e não pela melhor cobertura, podendo tornar-se um obstáculo à investigação e à inovação; defende que a Comissão deve trabalhar em estreita colaboração com o setor dos seguros para ver como será possível utilizar dados e modelos inovadores para criar políticas de seguros que ofereçam uma cobertura adequada a um preço acessível;

Considerações finais

26.

Solicita à Comissão que apresente, com base no artigo 225.o do Tratado sobre o Funcionamento da União Europeia, uma proposta de regulamento sobre a responsabilidade pela operação de sistemas de Inteligência Artificial, seguindo as recomendações que figuram em anexo;

27.

Entende que a proposta requerida não tem incidências financeiras;

o

o o

28.   

Encarrega o seu Presidente de transmitir a presente resolução e as respetivas recomendações à Comissão e ao Conselho.


(1)  JO L 210 de 7.8.1985, p. 29.

(2)  JO L 149 de 11.6.2005, p. 22.

(3)  JO L 304 de 22.11.2011, p. 64.

(4)  JO L 117 de 5.5.2017, p. 1.

(5)  JO L 252 de 8.10.2018, p. 1.

(6)  JO L 136 de 22.5.2019, p. 1.

(7)  JO L 123 de 12.5.2016, p. 1.

(8)  JO C 252 de 18.7.2018, p. 239.

(9)  JO C 307 de 30.8.2018, p. 163.

(10)  JO C 433 de 23.12.2019, p. 86.

(11)  Textos Aprovados, P8_TA(2019)0081.

(12)  Textos Aprovados, P9_TA(2020)0032.

(13)  https://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2020)654178'

(14)  https://www.europarl.europa.eu/RegData/etudes/STUD/2016/563501/EPRS_STU(2016)563501(ANN)_EN.pdf

(15)  https://www.europarl.europa.eu/RegData/etudes/STUD/2016/571379/IPOL_STU(2016)571379_EN.pdf

(16)  JO L 11 de 15.1.2002, p. 4.

(17)  JO L 263 de 7.10.2009, p. 11.


ANEXO DA RESOLUÇÃO:

RECOMENDAÇÕES PORMENORIZADAS PARA A ELABORAÇÃO DE UM REGULAMENTO DO PARLAMENTO EUROPEU E DO CONSELHO RELATIVO À RESPONSABILIDADE PELA OPERAÇÃO DE SISTEMAS DE INTELIGÊNCIA ARTIFICIAL

A.   PRINCÍPIOS E OBJETIVOS DA PROPOSTA

O presente relatório aborda um aspeto importante da digitalização, que é, por sua vez, moldado por atividades transfronteiriças, pela concorrência mundial e por considerações sociais fundamentais. Os princípios expostos a seguir devem servir de orientação:

1.

Um verdadeiro mercado único digital exige uma harmonização plena por meio de um regulamento.

2.

É necessário dar resposta aos novos desafios jurídicos colocados pelo desenvolvimento de sistemas de inteligência artificial (IA), criando a maior segurança jurídica possível em toda a cadeia de responsabilidade, nomeadamente o produtor, o operador, a pessoa lesada e qualquer outro terceiro.

3.

Não deve existir regulamentação excessiva e deve-se evitar a burocracia, uma vez que tal prejudicaria a inovação europeia no domínio da IA, especialmente se a tecnologia, o produto ou o serviço for desenvolvido por PME ou empresas em fase de arranque.

4.

As regras em matéria de responsabilidade civil relativas à IA devem procurar estabelecer o equilíbrio entre a proteção do público, por um lado, e os incentivos às empresas para investirem na inovação, em especial em sistemas de IA, por outro.

5.

Em vez de substituir os regimes de responsabilidade existentes que funcionam bem, devem ser feitos alguns ajustamentos necessários através da introdução de ideias novas e orientadas para o futuro.

6.

A futura proposta de regulamento e a Diretiva relativa à responsabilidade decorrente dos produtos constituem dois pilares de um quadro de responsabilidade comum para os sistemas de IA e exigem uma coordenação estreita e coerência entre todos os intervenientes políticos, a nível nacional e da União.

7.

Os cidadãos devem ter o mesmo nível de proteção e os mesmos direitos independentemente de o dano ser ou não causado por um sistema de IA ou de ocorrer no mundo físico ou virtual, para que a sua confiança na nova tecnologia seja reforçada.

8.

Os danos patrimoniais e não patrimoniais devem ser tidos em conta na futura proposta de regulamento. Com base, nomeadamente, na sua comunicação, de 19 de fevereiro de 2020, sobre as implicações em matéria de segurança e de responsabilidade decorrentes da IA e da robótica, solicita-se à Comissão Europeia que analise em profundidade as tradições jurídicas de todos os Estados-Membros e as disposições jurídicas existentes que concedem indemnização por danos não patrimoniais, a fim de avaliar se a inclusão de danos não patrimoniais na futura proposta de regulamento é juridicamente correta e necessária do ponto de vista da pessoa afetada. Com base nas informações atualmente disponíveis, o Parlamento considera que devem ser incluídos os danos não patrimoniais significativos se a pessoa afetada sofrer um prejuízo económico notável, ou seja, verificável.

B.   TEXTO DA PROPOSTA REQUERIDA

Proposta de

REGULAMENTO DO PARLAMENTO EUROPEU E DO CONSELHO

relativo à responsabilidade pela operação de sistemas de inteligência artificial

O PARLAMENTO EUROPEU E O CONSELHO DA UNIÃO EUROPEIA,

Tendo em conta o Tratado sobre o Funcionamento da União Europeia e, nomeadamente, o artigo 114.o,

Tendo em conta a proposta da Comissão Europeia,

Após transmissão do projeto de ato legislativo aos parlamentos nacionais,

Tendo em conta o parecer do Comité Económico e Social Europeu (1),

Deliberando nos termos do processo legislativo ordinário (2),

Considerando o seguinte:

(1)

O conceito de «responsabilidade» desempenha um importante papel duplo no nosso quotidiano: por um lado, garante que uma pessoa que tenha sofrido prejuízos ou danos tenha o direito de exigir uma indemnização à parte que é responsável por esses prejuízos ou danos e, por outro, proporciona incentivos económicos para que as pessoas evitem, desde logo, causar prejuízos ou danos. Qualquer quadro em matéria de responsabilidade deverá procurar incutir confiança na segurança, fiabilidade e coerência dos produtos e serviços, incluindo as tecnologias digitais emergentes, como a inteligência artificial (IA), a Internet das Coisas (IdC) ou a robótica, a fim de estabelecer um equilíbrio entre uma proteção eficaz das potenciais vítimas de danos ou prejuízos e, simultaneamente, prever uma margem de manobra suficiente para permitir o desenvolvimento de novas tecnologias, produtos ou serviços.

(2)

Especialmente no início do ciclo de vida dos novos produtos e serviços, após serem previamente testados, existe um certo grau de risco, tanto para o utilizador como para terceiros, de que algo não funcione corretamente. Este processo por tentativa e erro é, ao mesmo tempo, um vetor essencial do progresso técnico, sem o qual a maior parte das nossas tecnologias não existiria. Até à data, os riscos associados a novos produtos e serviços foram adequadamente atenuados por legislação sólida sobre segurança dos produtos e regras em matéria de responsabilidade.

(3)

Contudo, a ascensão da IA constitui um desafio significativo para os quadros de responsabilidade existentes. A utilização de sistemas de IA no nosso quotidiano conduzirá a situações em que a sua opacidade (elemento de caixa negra) e a série de intervenientes no seu ciclo de vida tornem extremamente dispendioso, ou mesmo impossível, identificar quem exercia o controlo do risco de utilização do sistema de IA em questão ou qual foi o código ou entrada que provocou a operação danosa. Essa dificuldade é agravada pela conectividade entre um sistema de IA e outros sistemas de IA e sem IA, pela sua dependência de dados externos, pela sua vulnerabilidade a violações da cibersegurança e ainda pela crescente autonomia dos sistemas de IA desencadeados pelas capacidades de aprendizagem automática e aprendizagem profunda. Para além destas características complexas e potenciais vulnerabilidades, os sistemas de IA também podem ser utilizados para causar danos graves — como comprometer a dignidade humana e os valores e liberdades europeus — através da localização de pessoas contra a sua vontade, da introdução de sistemas de crédito social, de decisões enviesadas em matérias relacionadas com seguros de doença, concessão de crédito, decisões judiciais, recrutamento ou emprego, ou da construção de sistemas de armas letais autónomas.

(4)

Importa salientar que as vantagens da implantação de sistemas de IA serão muito superiores às desvantagens. A IA contribuirá para combater as alterações climáticas de forma mais eficaz, melhorar os exames médicos e as condições de trabalho, integrar melhor as pessoas com deficiência e os idosos na sociedade e proporcionar cursos de formação personalizados para todos os tipos de estudantes. Para explorar as variadas oportunidades tecnológicas e reforçar a confiança das pessoas na utilização de sistemas de IA, evitando simultaneamente cenários danosos, a melhor forma de avançar é definir normas éticas saudáveis combinadas com processos de indemnização sólido e justo.

(5)

Um regime de responsabilidade adequado é igualmente necessário para contrabalançar a violação das regras de segurança. No entanto, o regime de responsabilidade estabelecido no presente regulamento deve tomar em consideração todos os interesses em jogo. Uma condição prévia para a adoção de novas medidas legislativas é uma análise cuidadosa das consequências de qualquer novo quadro regulamentar para as pequenas e médias empresas (PME) e as empresas em fase de arranque. O papel crucial que essas empresas desempenham na economia europeia justifica uma abordagem estritamente proporcional para que possam desenvolver-se e inovar. Por outro lado, as vítimas de danos ou prejuízos causados por sistemas de IA devem ter direito a reparação e a indemnização integral pelos danos ou prejuízos sofridos.

(6)

Quaisquer alterações necessárias ao quadro jurídico existente deverão começar com a clarificação de que os sistemas de IA não têm personalidade jurídica nem consciência humana e que a sua única missão é servir a humanidade. Muitos sistemas de IA também não são tão diferentes de outras tecnologias, que se baseiam, por vezes, em software ainda mais complexo. Em última análise, a grande maioria dos sistemas de IA é utilizada para efetuar tarefas triviais sem quaisquer riscos, ou com riscos mínimos, para a sociedade. A utilização da expressão «decisão automatizada» pode evitar a eventual ambiguidade da sigla IA. Essa expressão descreve uma situação em que um utilizador delega inicialmente uma decisão, parcial ou totalmente, numa entidade, através de software ou de um serviço. Por sua vez, essa entidade utiliza modelos de decisão executados automaticamente para realizar uma ação em nome de um utilizador, ou para informar a decisão do utilizador no desempenho de uma ação.

(7)

No entanto, também existem sistemas de IA que são desenvolvidos e implantados de forma crítica e se baseiam em tecnologias como as redes neuronais e os processos de aprendizagem profunda. A sua opacidade e autonomia podem tornar muito difícil reconstituir as decisões humanas que estão na origem de ações específicas, em termos de conceção ou de operação. Um operador de um sistema de IA deste tipo poderia, por exemplo, argumentar que a atividade, o dispositivo ou o processo físico ou virtual causador dos prejuízos ou danos estava fora do seu controlo porque estes foram causados por uma operação autónoma do seu sistema de IA. Além disso, a mera operação de um sistema de IA autónomo não deverá constituir motivo suficiente para a admissão da ação de responsabilidade. Consequentemente, poderá haver casos em que a atribuição de responsabilidade pode ser injusta ou ineficaz, ou em que uma pessoa que sofra prejuízos ou danos causados por um sistema de IA não possa provar a culpa do produtor, de um terceiro interveniente ou do operador e acabe por ficar sem indemnização.

(8)

Não obstante, deverá ser sempre claro que quem cria, mantém, controla o sistema de IA, ou nele interfere, deverá ser responsável pelos danos ou prejuízos causados pela atividade, o dispositivo ou o processo. Tal resulta de conceitos jurídicos gerais e amplamente aceites em matéria de responsabilidade, segundo os quais a pessoa que cria ou mantém um risco para o público é responsável se esse risco causar dano ou prejuízo e, por conseguinte, deverá minimizar a priori ou compensar a posteriori esse risco. Consequentemente, a ascensão dos sistemas de IA não implica uma revisão completa das regras em matéria de responsabilidade em toda a União. Para responder aos desafios relacionados com a IA, seria suficiente proceder a ajustamentos específicos da legislação existente e introduzir disposições novas bem avaliadas e orientadas, com vista a evitar a fragmentação regulamentar e a garantir a harmonização da legislação em matéria de responsabilidade civil em toda a União no que toca à IA.

(9)

A Diretiva 85/374/CEE (3) do Conselho («Diretiva relativa à responsabilidade decorrente dos produtos») demonstra ser há mais de 30 anos um meio eficaz para obter indemnização pelos danos causados por um produto defeituoso. Portanto, também deverá ser utilizada no que respeita a ações de responsabilidade civil de uma parte que sofra prejuízos ou danos contra o produtor de um sistema de IA defeituoso. Em conformidade com os princípios da União sobre «legislar melhor», quaisquer ajustamentos legislativos necessários deverão ser debatidos aquando da revisão dessa diretiva. O atual direito dos Estados-Membros em matéria de responsabilidade culposa também oferece, na maioria dos casos, um nível de proteção suficiente das pessoas que sofrem prejuízos ou danos causados pela interferência de um terceiro, uma vez que essa interferência constitui regularmente uma ação culposa em que o terceiro utiliza o sistema de IA para causar prejuízo. Consequentemente, o presente regulamento deverá centrar-se nas ações contra o operador de um sistema de IA.

(10)

A responsabilidade do operador nos termos do presente regulamento baseia-se no facto de este exercer um grau de controlo sobre um risco ligado à operação e ao funcionamento de um sistema de IA, que é comparável à de um proprietário de um automóvel. Quanto mais sofisticado e mais autónomo for um sistema, mais importante se torna o impacto da definição e influência dos algoritmos, por exemplo, através de atualizações contínuas. Uma vez que há com frequência mais do que uma pessoa que pode, de forma significativa, ser considerada «operadora» do sistema de IA, nos termos do presente regulamento, o termo «operador» deverá ser entendido como abrangendo tanto o operador de frontend como o operador de backend. Embora, de um modo geral, o operador de frontend se afigure ser a pessoa que toma as «principais» decisões sobre a utilização do sistema de IA, o operador de backend pode, de facto, exercer um nível de controlo mais elevado sobre os riscos operacionais. Se o operador de backend também for considerado «produtor» na aceção do artigo 3.o da Diretiva relativa à responsabilidade decorrente dos produtos, essa diretiva deverá ser-lhe aplicável. Se houver apenas um operador e esse operador for também o produtor do sistema de IA, o presente regulamento deverá prevalecer sobre a Diretiva relativa à responsabilidade decorrente dos produtos.

(11)

Caso um utilizador — ou seja, a pessoa que utiliza o sistema de IA — esteja envolvido no evento danoso, só deverá ser considerado responsável nos termos do presente regulamento se também for considerado operador. Caso contrário, o grau de contribuição, intencional ou por negligência grave, do utilizador para o risco pode levar à responsabilidade culposa do utilizador para com o requerente. Os direitos dos consumidores aplicáveis ao utilizador não deverão ser afetados.

(12)

O presente regulamento deverá permitir que a pessoa lesada intente ações de responsabilidade ao longo de toda a cadeia de responsabilidade e ao longo de todo o ciclo de vida de um sistema de IA. Deverá também abranger, em princípio, todos os sistemas de IA, independentemente do local de operação e de este ocorrer no mundo físico ou virtual. Contudo, a maioria das ações de responsabilidade ao abrigo do presente regulamento deverá incidir nos casos de responsabilidade de terceiros — em que um sistema de IA funciona num espaço público e expõe muitas pessoas a riscos. Nessa situação, muitas vezes as pessoas lesadas não terão conhecimento do sistema de IA em funcionamento nem qualquer relação contratual ou jurídica com o operador. Consequentemente, a operação do sistema de IA coloca as pessoas lesadas numa situação em que, caso sejam causados prejuízos ou danos, apenas podem intentar ações relativas à responsabilidade culposa contra o operador do sistema de IA, enfrentando simultaneamente graves dificuldades para provar a existência de culpa por parte do operador.

(13)

O tipo de sistema de IA que o operador controla é um fator determinante. Um sistema de IA que implique um alto risco pode pôr o utilizador ou o público em risco num grau muito mais elevado e de uma forma aleatória e que vai além do que se pode razoavelmente esperar. Isto significa que no, início da operação autónoma do sistema de IA, a maioria das pessoas potencialmente lesadas é desconhecida e não identificável (por exemplo, pessoas numa praça pública ou numa casa vizinha), em comparação com a operação de um sistema de IA que envolve pessoas específicas, as quais consentiram previamente e de forma regular na sua implantação (por exemplo, cirurgia num hospital ou demonstração de vendas numa pequena loja). A determinação da importância do potencial de um sistema de IA de alto risco para causar prejuízos ou danos depende da interação entre a finalidade da utilização para a qual o sistema de IA é colocado no mercado, a forma como o sistema de IA é utilizado, a gravidade dos potenciais prejuízos ou danos, o grau de autonomia de decisão que pode resultar em danos e a probabilidade de o risco se concretizar. O grau de gravidade deverá ser determinado com base em fatores pertinentes como a dimensão do dano potencial resultante da operação nas pessoas lesadas, incluindo, em especial, os efeitos nos direitos fundamentais, o número de pessoas lesadas, o valor total do dano potencial e o prejuízo para a sociedade no seu conjunto. A probabilidade de o risco ou o dano se concretizar deverá ser determinada com base em fatores pertinentes como o papel dos cálculos algorítmicos no processo decisório, a complexidade da decisão e a reversibilidade dos efeitos. Em última análise, o modo de utilização deverá depender de fatores pertinentes como o contexto e o setor em que o sistema de IA funciona, a possibilidade de produzir efeitos jurídicos ou factuais sobre importantes direitos legalmente protegidos da pessoa lesada e de os efeitos poderem razoavelmente ser evitados.

(14)

Todos os sistemas de IA de alto risco deverão ser enumerados de forma exaustiva num anexo ao presente regulamento. Tendo em conta a rápida evolução técnica e do mercado a nível mundial, bem como a especialização técnica necessária para uma revisão adequada dos sistemas de IA, o poder de adotar atos delegados nos termos do artigo 290.o do Tratado sobre o Funcionamento da União Europeia deverá ser delegado na Comissão no que diz respeito a alterar o presente regulamento no que respeita aos tipos de sistemas de IA que apresentam um alto risco e aos setores críticos em que são utilizados. Com base nas definições e disposições estabelecidas no presente regulamento, a Comissão deverá rever o anexo sem demora injustificada, mas, pelo menos, de seis em seis meses e, se necessário, alterá-lo por meio de atos delegados. A avaliação pela Comissão da questão de saber se um sistema de IA representa um alto risco deverá começar ao mesmo tempo que a avaliação da segurança do produto, a fim de evitar uma situação em que um sistema de IA de alto risco já esteja aprovado para introdução no mercado, mas ainda não esteja classificado como de alto risco e, por conseguinte, opere sem cobertura de seguro obrigatório. A fim de proporcionar às empresas e às organizações de investigação uma segurança suficiente em matéria de planeamento e investimento, as mudanças nos setores críticos só deverão ser feitas a cada doze meses. Os operadores deverão ser convidados a notificar a Comissão se estiverem a trabalhar numa nova tecnologia ou em novos produtos ou serviços abrangidos por um dos setores críticos existentes previstos no anexo e que posteriormente se possam qualificar como sistema de IA de alto risco.

(15)

É particularmente importante que a Comissão proceda às consultas adequadas com as partes interessadas em causa durante os trabalhos preparatórios, inclusive ao nível de peritos, e que essas consultas sejam conduzidas de acordo com os princípios estabelecidos no Acordo Interinstitucional, de 13 de abril de 2016, sobre legislar melhor (4). Um comité permanente, denominado «Comité Técnico — Sistemas de IA de alto risco», deverá apoiar a Comissão na sua revisão regular ao abrigo do presente regulamento. Esse comité permanente deverá incluir representantes dos Estados-Membros e uma seleção equilibrada das partes interessadas, nomeadamente organizações de consumidores, associações representativas das pessoas lesadas, representantes de empresas de diferentes setores e dimensões, investigadores e cientistas. Em particular, a fim de assegurar a igualdade de participação na preparação dos atos delegados, o Parlamento Europeu e o Conselho recebem todos os documentos ao mesmo tempo que os peritos dos Estados-Membros, e os respetivos peritos têm sistematicamente acesso às reuniões dos grupos de peritos da Comissão e do comité permanente acima referido aquando da preparação dos atos delegados.

(16)

O presente regulamento deverá abranger os prejuízos ou danos causados à vida, à saúde, à integridade física e ao património e os danos não patrimoniais significativos que resultem numa perda económica verificável que ultrapasse um limiar, harmonizado na legislação da União em matéria de responsabilidade, que estabeleça um equilíbrio entre o acesso à justiça das pessoas lesadas e os interesses das outras pessoas envolvidas. A Comissão deverá reavaliar e alinhar os limiares relativos aos danos sofridos no direito da União. Deverão entender-se por danos não patrimoniais significativos os danos em resultado dos quais a pessoa lesada sofra um prejuízo considerável, uma deterioração objetiva e demonstrável dos seus interesses pessoais e uma perda económica calculada tendo em conta, por exemplo, os valores médios anuais de rendimentos passados e outras circunstâncias pertinentes. O presente regulamento deverá também determinar o montante e a dimensão da indemnização, bem como o prazo de prescrição para a introdução de ações de responsabilidade. O presente regulamento deverá estabelecer um limite máximo de indemnização bastante inferior ao previsto na Diretiva relativa à responsabilidade decorrente dos produtos, uma vez que diz respeito apenas aos danos e prejuízos causados a uma única pessoa em resultado de um único tipo de operação de um sistema de IA, ao passo que a diretiva é aplicável a um certo número de produtos ou mesmo a uma linha de produtos com o mesmo defeito.

(17)

Todas as atividades e todos os dispositivos ou processos físicos ou virtuais baseados em sistemas de IA não enumerados como sistema de IA de alto risco no anexo ao presente regulamento deverão continuar sujeitos à responsabilidade culposa, a menos que estejam em vigor disposições ou legislação nacional mais rigorosa em matéria de proteção dos consumidores. Deverão continuar a aplicar-se as legislações nacionais dos Estados-Membros, incluindo qualquer jurisprudência relevante, no que diz respeito ao montante e à dimensão da indemnização e ao prazo de prescrição. Uma pessoa que sofra prejuízos ou danos causados por um sistema de IA não enumerado como sistema de IA de alto risco deverá beneficiar da presunção de culpa do operador.

(18)

A diligência que se pode esperar de um operador deverá ser proporcional i) à natureza do sistema de IA; ii) ao direito legalmente protegido potencialmente afetado; iii) aos prejuízos ou danos potenciais que o sistema de IA poderia causar; iv) à probabilidade de ocorrência desses danos. Neste contexto, dever-se-á ter em conta que o operador pode ter um conhecimento limitado dos algoritmos e dos dados utilizados no sistema de IA. Deverá presumir-se que o operador observou a devida diligência que dele pode razoavelmente ser esperada na seleção de um sistema de IA adequado, se tiver selecionado um sistema de IA certificado ao abrigo de um regime semelhante ao regime voluntário de certificação previsto pela Comissão (5). Deverá presumir-se que o operador observou a devida diligência que dele pode razoavelmente ser esperada durante a operação do sistema de IA, se puder provar que controlou real e regularmente o sistema de IA durante a sua operação e que notificou o fabricante sobre potenciais irregularidades durante a operação. Deverá presumir-se que o operador observou a devida diligência que dele pode razoavelmente ser esperada no que diz respeito à manutenção da fiabilidade da operação, se tiver instalado todas as atualizações disponíveis fornecidas pelo produtor do sistema de IA. Uma vez que o nível de sofisticação dos operadores pode variar consoante se trate de meros consumidores ou profissionais, os deveres de diligência deverão ser adaptados em conformidade.

(19)

A fim de permitir que o operador prove que não tem culpa, ou que a pessoa lesada prove a existência de culpa, os produtores deverão ter o dever de colaborar com ambas as partes em causa, nomeadamente fornecendo informações bem documentadas. Além disso, tanto os produtores estabelecidos na União como os produtores estabelecidos fora da União deverão ter a obrigação de designar um representante em matéria de responsabilidade pela IA na União que sirva como ponto de contacto para responder a todos os pedidos dos operadores, de um modo semelhante ao encarregado da proteção de dados previsto no artigo 37.o do Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho (6), ao representante do fabricante previsto nos artigos 3.o, ponto 41, e 13.o, n.o 4, do Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho (7) ou ao mandatário previsto nos artigos 4.o, n.o 2, e 5.o do Regulamento (UE) 2019/1020 do Parlamento Europeu e do Conselho (8).

(20)

O legislador tem de considerar os riscos de responsabilidade associados aos sistemas de IA durante todo o seu ciclo de vida, desde a criação, passando pela utilização até ao fim da vida, incluindo a gestão dos resíduos e da reciclagem. A inclusão de sistemas de IA num produto ou serviço representa um risco financeiro para as empresas e, consequentemente, terá um forte impacto na capacidade e nas opções tanto das PME como das empresas em fase de arranque no que diz respeito ao seguro e ao financiamento dos seus projetos de investigação e desenvolvimento com base em novas tecnologias. O objetivo da responsabilidade é, por conseguinte, não só salvaguardar importantes direitos legalmente protegidos das pessoas, mas também determinar se as empresas — em especial, as PME e as empresas em fase de arranque — conseguem mobilizar capital, inovar e, em última análise, oferecer novos produtos e serviços, bem como se os consumidores confiam nesses produtos e serviços e estão dispostos a utilizá-los, apesar dos potenciais riscos e ações judiciais que sejam intentadas a respeito desses produtos e serviços.

(21)

Os seguros podem ajudar a garantir que as vítimas recebam uma indemnização efetiva e a agregar os riscos de todos os segurados. Um dos fatores nos quais as seguradoras baseiam a sua oferta de produtos e serviços de seguros é a avaliação dos riscos baseada no acesso a dados históricos suficientes relativos a ações. A falta de acesso a dados de alta qualidade ou uma quantidade insuficiente dos mesmos podem constituir uma justificação para que a criação de produtos de seguros para tecnologias novas e emergentes seja difícil no início. No entanto, um maior acesso aos dados gerados pelas novas tecnologias e uma otimização da sua utilização, combinados com uma obrigação de fornecer informações bem documentadas, aumentaria a capacidade das seguradoras para modelizar o risco emergente e promover o desenvolvimento de uma cobertura mais inovadora.

(22)

Na ausência de dados históricos relativos a ações, deverá ser investigado de que modo e em que condições a responsabilidade pode ser objeto de seguro, a fim de estabelecer uma ligação com o produto, e não com a pessoa responsável. Já existem produtos de seguros que são desenvolvidos por área e por cobertura, à medida que a tecnologia evolui. Muitas seguradoras são especializadas em determinados segmentos do mercado (por exemplo, as PME) ou na oferta de cobertura para certos tipos de produtos (por exemplo, produtos elétricos), o que significa que normalmente haverá um produto de seguro disponível para o segurado. No entanto, é difícil prever uma solução única e o mercado de seguros necessitará de tempo para se adaptar. A Comissão deverá trabalhar em estreita colaboração com o mercado de seguros para desenvolver produtos de seguro inovadores que possam colmatar a lacuna em matéria de seguro. Em casos excecionais, como num evento em que ocorram danos coletivos, em que a indemnização ultrapasse significativamente os montantes máximos estabelecidos no presente regulamento, os Estados-Membros deverão ser incentivados a criar um fundo especial para indemnizações, por um período limitado, para enfrentar as necessidades específicas desses casos. Poderão também ser criados fundos de compensação específicos para cobrir os casos excecionais em que um sistema de IA ainda não classificado como sistema de IA de alto risco e, por conseguinte, ainda não segurado, provoque prejuízos ou danos. A fim de garantir a segurança jurídica e cumprir a obrigação de informar todas as pessoas potencialmente lesadas, a existência do fundo especial de compensação, bem como as condições para dele beneficiar, deverão ser tornadas públicas de forma clara e exaustiva.

(23)

É da maior importância que quaisquer alterações futuras ao presente regulamento sejam acompanhadas de uma revisão necessária da Diretiva relativa à responsabilidade decorrente dos produtos, a fim de o rever de forma abrangente e coerente e de garantir os direitos e obrigações de todas as partes envolvidas em toda a cadeia de responsabilidade. A introdução de um novo regime de responsabilidade aplicável ao operador de sistemas de IA exige que as disposições do presente regulamento e a revisão da Diretiva relativa à responsabilidade decorrente dos produtos sejam estreitamente coordenadas em termos de substância e de abordagem, de modo a que, em conjunto, estes constituam um quadro de responsabilidade coerente aplicável aos sistemas de IA, equilibrando os interesses do produtor, do operador e da pessoa lesada no que respeita ao risco de responsabilidade e às disposições pertinentes em matéria de indemnização. Por conseguinte, é necessário adaptar e racionalizar as definições de sistema de IA, operador de frontend e de backend, produtor, defeito, produto e serviço em todos os atos legislativos, e estes dois processos deverão ser previstos em paralelo.

(24)

Os objetivos do presente regulamento — ou seja, criar uma abordagem orientada para o futuro e unificada a nível da União, estabelecendo normas europeias comuns para os cidadãos e as empresas europeias a fim de garantir a coerência dos direitos e a segurança jurídica em toda a União e de evitar a fragmentação do mercado único digital, que prejudicaria o objetivo de manter a soberania digital, promover a inovação digital na Europa e garantir um elevado nível de proteção dos direitos dos cidadãos e dos consumidores, — exigem que os regimes de responsabilidade aplicáveis aos sistemas de IA sejam plenamente harmonizados. Estes objetivos — devido à rápida evolução tecnológica, ao desenvolvimento transfronteiriço, à utilização de sistemas de IA e, por último, às abordagens legislativas contraditórias em toda a União — não podem ser suficientemente alcançados pelos Estados-Membros, mas podem, devido à dimensão ou aos efeitos da ação, ser mais bem alcançados ao nível da União. A União pode adotar medidas, em conformidade com o princípio da subsidiariedade consagrado no artigo 5.o do Tratado da União Europeia. Em conformidade com o princípio da proporcionalidade consagrado no mesmo artigo, o presente regulamento não excede o necessário para alcançar esses objetivos.

ADOTARAM O PRESENTE REGULAMENTO:

CAPÍTULO I

DISPOSIÇÕES GERAIS

Artigo 1.o

Objeto

O presente regulamento estabelece as regras aplicáveis às ações de responsabilidade civil de pessoas singulares e coletivas contra operadores de sistemas de IA.

Artigo 2.o

Âmbito de aplicação

1.   O presente regulamento aplica-se no território da União, quando uma atividade, um dispositivo ou um processo físico ou virtual baseado num sistema de IA tenha causado prejuízos ou danos à vida, à saúde, à integridade física de uma pessoa singular, ao património de uma pessoa singular ou coletiva ou tenha causado danos não patrimoniais significativos que resultem numa perda económica verificável.

2.   Qualquer acordo entre o operador de um sistema de IA e uma pessoa singular ou coletiva que sofra prejuízos ou danos causados pelo sistema de IA, que contorne ou limite os direitos e obrigações estabelecidos no presente regulamento, celebrado antes ou depois de os prejuízos ou danos terem ocorrido, deve ser considerado nulo no que respeita aos direitos e obrigações estabelecidos no presente regulamento.

3.   O presente regulamento não prejudica quaisquer outras ações de responsabilidade resultantes de relações contratuais, bem como de regulamentações em matéria de responsabilidade por produtos, proteção dos consumidores, luta contra a discriminação, proteção laboral e ambiental, entre o operador e a pessoa singular ou coletiva que sofreu prejuízos ou danos devido ao sistema de IA e que possam ser intentadas contra o operador ao abrigo do direito da União ou do direito nacional.

Artigo 3.o

Definições

Para efeitos do presente regulamento, entende-se por:

a)

«Sistema de IA», um sistema baseado em software ou integrado em dispositivos de físicos e que apresenta um comportamento que simula inteligência, nomeadamente recolhendo e tratando dados, analisando e interpretando o seu ambiente e tomando medidas — com um determinado nível de autonomia — para atingir objetivos específicos;

b)

«Autónomo»: um sistema de IA que funciona interpretando certos dados e utilizando um conjunto de instruções predeterminadas, sem estar limitado a essas instruções, apesar de o comportamento do sistema estar limitado pelo objetivo que lhe foi atribuído e que está destinado a realizar e por outras escolhas de conceção tomadas por quem o desenvolveu;

c)

«Alto risco»: um potencial importante de um sistema de IA que funcione de forma autónoma causar prejuízos ou danos a uma ou várias pessoas de forma aleatória e que vai além do que se pode razoavelmente esperar; a importância deste potencial depende da interligação entre a gravidade dos eventuais prejuízos ou danos, o grau de autonomia de decisão, a probabilidade de o risco se concretizar e a forma e o contexto em que o sistema de IA é utilizado;

d)

«Operador», o operador de frontend e o operador de backend, desde que a responsabilidade do último não esteja já coberta pela Diretiva 85/374/CEE;

e)

«Operador de frontend», qualquer pessoa singular ou coletiva que exerça um grau de controlo sobre um risco relacionado com a operação e o funcionamento do sistema de IA e que beneficie da sua operação;

f)

«Operador de backend», qualquer pessoa singular ou coletiva que, de forma contínua, defina as características da tecnologia, forneça dados e preste serviços essenciais de apoio de backend e, por conseguinte, exerça igualmente algum controlo sobre o risco ligado à operação e ao funcionamento do sistema de IA;

g)

«Controlo», qualquer ação de um operador que influencie a operação de um sistema de IA e, por conseguinte, a medida em que o operador expõe terceiros aos riscos potenciais associados à operação e ao funcionamento do sistema de IA; essas ações podem ter impacto na operação, determinando os dados introduzidos, os dados de saída ou os resultados, ou modificar funções ou processos específicos no sistema de IA; o grau em que esses aspetos da operação do sistema de IA são determinados pela ação depende do nível de influência que o operador tem sobre o risco ligado à operação e ao funcionamento do sistema de IA;

h)

«Pessoa lesada»: qualquer pessoa que sofra prejuízos ou danos causados por uma atividade, um dispositivo ou um processo físico ou virtual baseado num sistema de IA e que não seja o operador;

i)

«Prejuízos ou danos»: consequência adversa que afete a vida, a saúde, a integridade física de uma pessoa singular, o património de uma pessoa singular ou coletiva, ou cause danos não patrimoniais significativos que resultem numa perda económica verificável;

j)

«Produtor», o produtor na aceção do artigo 3.o da Diretiva 85/374/CEE.

CAPÍTULO II

SISTEMAS DE IA DE ALTO RISCO

Artigo 4.o

Responsabilidade objetiva pelos sistemas de IA de alto risco

1.   O operador de um sistema de IA de alto risco tem a responsabilidade objetiva por quaisquer prejuízos ou danos causados por uma atividade, um dispositivo ou um processo físico ou virtual baseado nesse sistema de IA.

2.   Todos os sistemas de IA de alto risco e todos os setores críticos em que são utilizados são enumerados no anexo do presente regulamento. A Comissão fica habilitada a adotar atos delegados, nos termos do artigo 13.o, para modificar essa lista exaustiva:

a)

incluindo novos tipos de sistemas de IA de alto risco e os setores críticos em que são implantados;

b)

suprimindo os tipos de sistemas de IA que deixam de poder ser considerados de alto risco; e/ou

c)

mudando os setores críticos para os sistemas de IA de alto risco existentes.

Os atos delegados que alterem o anexo entram em vigor seis meses após a sua adoção. Ao decidir inserir no anexo novos sistemas de IA de alto risco e/ou setores críticos por meio de atos delegados, a Comissão deve ter plenamente em conta os critérios estabelecidos no presente regulamento, nomeadamente os referidos no artigo 3.o, alínea c).

3.   Os operadores de sistemas de IA de alto risco não podem eximir-se da sua responsabilidade, alegando que agiram com a devida diligência ou que os prejuízos ou danos foram causados por uma atividade, um dispositivo ou um processo autónomo baseado no seu sistema de IA. Os operadores não são considerados responsáveis pelos prejuízos ou danos se estes tiverem sido causados por motivos de força maior.

4.   O operador de frontend de um sistema de IA de alto risco deve assegurar que todas as operações desse sistema de IA estejam cobertas por um seguro de responsabilidade adequado aos montantes e à dimensão das indemnizações previstos nos artigos 5.o e 6.o do presente regulamento. O operador de backend deve assegurar que os seus serviços estejam cobertos por um seguro de responsabilidade empresa ou produtos, adequado aos montantes e à dimensão das indemnizações previstos nos artigos 5.o e 6.o do presente regulamento. Se se considerar que os regimes de seguro obrigatório do operador de frontend e de backend já vigentes em virtude de outra legislação da União ou nacional ou de fundos voluntários existentes de seguro das sociedades cobrem a operação do sistema de IA ou o serviço prestado, reputa-se cumprida a obrigação de subscrever um seguro para o sistema de IA ou o serviço prestado nos termos do presente regulamento, desde que o seguro obrigatório existente ou o fundo de seguro voluntário da sociedade cubra os montantes e a dimensão das indemnizações previstos nos artigos 5.o e 6.o do presente regulamento.

5.   O presente regulamento prevalece sobre os regimes nacionais de responsabilidade em caso de classificação divergente da responsabilidade objetiva dos sistemas de IA.

Artigo 5.o

Montante da indemnização

1.   O operador de um sistema de IA de alto risco que tenha sido considerado responsável por prejuízos ou danos a título do presente regulamento deve proceder à indemnização de:

a)

um montante máximo de dois milhões de EUR em caso de morte ou de danos causados à saúde ou à integridade física de uma pessoa lesada em resultado de uma operação de um sistema de IA de alto risco;

b)

um montante máximo de um milhão de EUR em caso de danos não patrimoniais significativos que resultem numa perda económica verificável ou de danos causados ao património, incluindo quando vários bens de uma pessoa lesada ficarem danificados em resultado de uma única operação de um mesmo sistema de IA de alto risco; caso a pessoa lesada também intente uma ação de responsabilidade contratual contra o operador, não será paga qualquer indemnização a título do presente regulamento se o montante total dos danos patrimoniais ou dos danos não patrimoniais significativos for de um valor inferior a [500 EUR] (9).

2.   Se a indemnização global que deve ser paga a várias pessoas que sofram prejuízos ou danos causados pela mesma operação de um mesmo sistema de IA de alto risco for superior aos montantes totais máximos previstos no n.o 1, os montantes que devem ser pagos a cada pessoa são reduzidos proporcionalmente, de modo a que a indemnização global não seja superior aos montantes máximos fixados no n.o 1.

Artigo 6.o

Cálculo da indemnização

1.   Dentro dos limites do montante fixado no artigo 5.o, n.o 1, alínea a), a indemnização que o operador considerado responsável deve pagar em caso de danos físicos que provoquem a morte da pessoa lesada deve ser calculada com base nos custos do tratamento médico que a pessoa lesada tenha recebido antes da morte, bem como no prejuízo financeiro sofrido antes da morte como consequência da cessação ou da redução da capacidade de obter rendimentos ou do aumento das necessidades enquanto duram os danos antes da morte. O operador considerado responsável deve, além disso, reembolsar as despesas de funeral da pessoa lesada falecida à parte que é responsável por assumir essas despesas.

Se, no momento do incidente que causou o dano que conduziu à morte, a pessoa lesada mantiver uma relação com um terceiro e tiver a obrigação legal de apoiar esse terceiro, o operador considerado responsável deve indemnizar o terceiro mediante o pagamento de uma pensão de alimentos, na medida em que a pessoa lesada tivesse tido a obrigação de a pagar, durante o período correspondente à esperança média de vida de uma pessoa da sua idade e condição geral. O operador deve igualmente indemnizar o terceiro se, no momento do incidente que causou a morte, o terceiro tiver sido concebido, mas não tiver ainda nascido.

2.   Dentro dos limites do montante fixado no artigo 5.o, n.o 1, alínea b), a indemnização que o operador considerado responsável deve pagar em caso de danos causados à saúde ou à integridade física da pessoa lesada deve incluir o reembolso dos custos do tratamento médico necessário, bem como o pagamento do prejuízo financeiro sofrido pela pessoa lesada em consequência da suspensão temporária, redução ou cessação definitiva da capacidade de obter rendimentos ou do consequente aumento das suas necessidades comprovado por um médico.

Artigo 7.o

Prazo de prescrição

1.   As ações de responsabilidade civil, intentadas nos termos do artigo 4.o, n.o 1, relativas a danos à vida, à saúde ou à integridade física estão sujeitas a um prazo de prescrição especial de 30 anos a contar da data em que os danos ocorreram.

2.   As ações de responsabilidade civil, intentadas nos termos do artigo 4.o, n.o 1, relativas a danos patrimoniais ou a danos não patrimoniais significativos que resultem numa perda económica verificável estão sujeitas a um prazo de prescrição especial de:

a)

10 anos a contar da data em que ocorreram os danos patrimoniais ou a perda económica verificável resultante dos danos não patrimoniais significativos, ou

b)

30 anos a contar da data em que teve lugar a operação do sistema de IA de alto risco que posteriormente causou os danos patrimoniais ou os danos não patrimoniais.

Relativamente aos prazos referidos no primeiro parágrafo, é aplicável o prazo que termina em primeiro lugar.

3.   O presente artigo aplica-se sem prejuízo do direito nacional que rege a suspensão ou a interrupção dos prazos de prescrição.

CAPÍTULO III

OUTROS SISTEMAS DE IA

Artigo 8.o

Responsabilidade culposa relativa a outros sistemas de IA

1.   O operador de um sistema de IA que não constitua um sistema de IA de alto risco na aceção dos artigos 3.o, alínea c), e 4.o, n.o 2, e, consequentemente, não figure no anexo do presente regulamento, está sujeito à responsabilidade culposa por quaisquer prejuízos ou danos causados por uma atividade, um dispositivo ou um processo físico ou virtual baseado no sistema de IA.

2.   O operador não é considerado responsável pelos danos ou prejuízos se puder provar que estes foram causados sem culpa da sua parte, baseando-se num dos seguintes motivos:

a)

O sistema de IA foi ativado sem o seu conhecimento, embora tenham sido tomadas todas as medidas razoáveis e necessárias para evitar essa ativação fora do controlo do operador, ou

b)

Foi observada a devida diligência através da execução das seguintes ações: seleção de um sistema de IA adequado para as tarefas e capacidades em causa, correta colocação em operação do sistema de IA, controlo das atividades e manutenção da fiabilidade da operação, graças à instalação regular de todas as atualizações disponíveis.

O operador não pode furtar-se à sua responsabilidade, alegando que os prejuízos ou danos foram causados por uma atividade, um dispositivo ou um processo autónomo baseado no seu sistema de IA. O operador não é considerado responsável pelos prejuízos ou danos se estes tiverem sido causados por motivos de força maior.

3.   Caso os prejuízos ou danos tenham sido causados por um terceiro que tenha interferido no sistema de IA alterando o seu funcionamento ou os seus efeitos, o operador é, não obstante, responsável pelo pagamento da indemnização, se esse terceiro não for localizável ou carecer de recursos financeiros.

4.   O produtor de um sistema de IA tem o dever de cooperar com o operador ou a pessoa lesada, a pedido destes, bem como a fornecer-lhes informações, na medida em que a importância do pedido de indemnização o justifique, a fim de permitir o apuramento da responsabilidade.

Artigo 9.o

Disposições nacionais em matéria de indemnização e prazo de prescrição

No que respeita aos prazos de prescrição, aos montantes e à dimensão da indemnização, as ações de responsabilidade civil intentadas nos termos do artigo 8.o, n.o 1, estão sujeitas à legislação do Estado-Membro em que os prejuízos ou danos tenham ocorrido.

CAPÍTULO IV

IMPUTAÇÃO DE RESPONSABILIDADES

Artigo 10.o

Culpa do lesado

1.   Se os prejuízos ou danos forem causados tanto por uma atividade, um dispositivo ou um processo físico ou virtual baseado num sistema de IA como pelas ações de uma pessoa lesada ou de qualquer pessoa pela qual a pessoa lesada seja responsável, a extensão da responsabilidade do operador ao abrigo do presente regulamento deve ser reduzida em conformidade. O operador não é considerado responsável se a pessoa lesada ou a pessoa pela qual esta é responsável for a única culpada pelos prejuízos ou danos causados.

2.   Um operador considerado responsável pode utilizar os dados gerados pelo sistema de IA para provar a concorrência de culpa da pessoa lesada, em conformidade com o Regulamento (UE) 2016/679 ou outra legislação pertinente em matéria de proteção de dados. A pessoa lesada pode também utilizar esses dados como meio de prova ou esclarecimento no âmbito da ação de responsabilidade.

Artigo 11.o

Responsabilidade solidária

Se houver mais do que um operador de um sistema de IA, estes devem ser solidariamente responsáveis. Se o operador de frontend for também o produtor do sistema de IA, o presente regulamento prevalece sobre a Diretiva relativa à responsabilidade decorrente dos produtos. Se o operador de backend também for considerado produtor na aceção do artigo 3.o da Diretiva relativa à responsabilidade decorrente dos produtos, a presente Diretiva é aplicável. Se houver apenas um operador e esse operador for também o produtor do sistema de IA, o presente regulamento prevalece sobre a Diretiva relativa à responsabilidade decorrente dos produtos.

Artigo 12.o

Ação de indemnização

1.   O operador não pode intentar uma ação de regresso, a menos que a pessoa lesada tenha recebido na íntegra a eventual indemnização a que tenha direito ao abrigo do presente regulamento.

2.   Caso o operador seja solidariamente responsável com outros operadores em relação a uma pessoa lesada e tenha indemnizado na íntegra essa pessoa, nos termos do artigo 4.o, n.o 1, ou do artigo 8.o, n.o 1, esse operador pode recuperar uma parte da indemnização dos demais operadores, proporcionalmente à sua responsabilidade.

As proporções da responsabilidade baseiam-se nos respetivos níveis de controlo que os operadores têm sobre o risco relacionado com a operação e o funcionamento do sistema de IA. Se não for possível obter de um operador solidariamente responsável a contribuição que lhe é imputável, o montante em falta deve ser suportado pelos demais operadores. Na medida em que um operador solidariamente responsável indemnize a pessoa lesada e solicite um ajustamento dos adiantamentos aos demais operadores que sejam responsáveis por prejuízos ou danos, o operador fica sub-rogado na ação da pessoa lesada contra os demais operadores. Não é possível recorrer à sub-rogação em detrimento da ação inicial.

3.   No caso de o operador de um sistema de IA defeituoso indemnizar na íntegra a pessoa lesada por prejuízos ou danos, em conformidade com o artigo 4.o, n.o 1, ou o artigo 8.o, n.o 1, do presente regulamento, pode intentar uma ação de reparação contra o produtor do sistema de IA defeituoso, em conformidade com a Diretiva 85/374/CEE e com as disposições nacionais relativas à responsabilidade decorrente dos produtos defeituosos.

4.   No caso de a seguradora do operador indemnizar a pessoa lesada por prejuízos ou danos, nos termos do artigo 4.o, n.o 1, ou do artigo 8.o, n.o 1, a seguradora do operador fica sub-rogada em qualquer ação de responsabilidade civil da pessoa lesada contra outra pessoa pelos mesmos danos até ao montante em que a seguradora do operador indemnizou a pessoa lesada.

CAPÍTULO V

DISPOSIÇÕES FINAIS

Artigo 13.o

Exercício da delegação

1.   O poder de adotar atos delegados é conferido à Comissão nas condições estabelecidas no presente artigo.

2.   O poder de adotar os atos delegados referidos no artigo 4.o, n.o 2, é conferido à Comissão por um prazo de cinco anos a contar de [data de aplicação do presente regulamento].

3.   A delegação de poderes referida no artigo 4.o, n.o 2, pode ser revogada em qualquer momento pelo Parlamento Europeu ou pelo Conselho. A decisão de revogação põe termo à delegação dos poderes nela especificados. A decisão de revogação produz efeitos a partir do dia seguinte ao da sua publicação no Jornal Oficial da União Europeia ou de uma data posterior nela especificada. A decisão de revogação não afeta os atos delegados já em vigor.

4.   Antes de adotar um ato delegado, a Comissão consulta o comité permanente denominado «Comité Técnico — Sistemas de IA de alto risco» de acordo com os princípios estabelecidos no Acordo Interinstitucional, de 13 de abril de 2016, sobre legislar melhor.

5.   Assim que adotar um ato delegado, a Comissão notifica-o simultaneamente ao Parlamento Europeu e ao Conselho.

6.   Os atos delegados adotados nos termos do artigo 4.o, n.o 2, só entram em vigor se não tiverem sido formuladas objeções pelo Parlamento Europeu ou pelo Conselho no prazo de dois meses a contar da notificação do ato ao Parlamento Europeu e ao Conselho, ou se, antes do termo desse prazo, o Parlamento Europeu e o Conselho tiverem informado a Comissão de que não têm objeções a formular. O referido prazo é prorrogável por dois meses por iniciativa do Parlamento Europeu ou do Conselho.

Artigo 14.o

Revisão

Até 1 de janeiro de 202X [3 anos após a data de aplicação do presente regulamento] e, posteriormente, de três em três anos, a Comissão apresenta ao Parlamento Europeu, ao Conselho e ao Comité Económico e Social Europeu um relatório circunstanciado em que procederá à revisão do presente regulamento à luz da evolução da inteligência artificial.

No âmbito da elaboração do relatório a que se refere o primeiro parágrafo, a Comissão deve solicitar aos Estados-Membros informações pertinentes sobre a jurisprudência e as transações judiciais, bem como estatísticas sobre acidentes, como o número de acidentes registados, os danos sofridos, as aplicações de IA envolvidas, as indemnizações pagas pelas companhias de seguros, bem como uma avaliação do número de ações intentadas pelas pessoas lesadas, a título individual ou coletivo, e dos prazos em que essas ações são tratadas em tribunal.

O relatório da Comissão deve ser acompanhado, se for caso disso, de propostas legislativas destinadas a colmatar as eventuais lacunas nele identificadas.

Artigo 15.o

Entrada em vigor

O presente regulamento entra em vigor no vigésimo dia seguinte ao da sua publicação no Jornal Oficial da União Europeia.

É aplicável a partir de 1 de janeiro de 202X.

O presente regulamento é obrigatório em todos os seus elementos e diretamente aplicável em todos os Estados-Membros.

Feito em …,

Pelo Parlamento Europeu

O Presidente

Pelo Conselho

O Presidente

ANEXO

[…]


(1)  JO …

(2)  JO …

(3)  Diretiva 85/374/CEE do Conselho, de 25 de julho de 1985, relativa à aproximação das disposições legislativas, regulamentares e administrativas dos Estados-Membros em matéria de responsabilidade decorrente dos produtos defeituosos (JO L 210 de 7.8.1985, p. 29).

(4)  JO L 123 de 12.5.2016, p. 1.

(5)  Vide pág. 24 do Livro Branco da Comissão, de 19 de fevereiro de 2020, sobre a inteligência artificial — Uma abordagem europeia virada para a excelência e a confiança (COM(2020)0065).

(6)  Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados e que revoga a Diretiva 95/46/CE (Regulamento Geral sobre a Proteção de Dados) (JO L 119 de 4.5.2016, p. 1).

(7)  Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho, de 30 de maio de 2018, relativo à homologação e à fiscalização do mercado dos veículos a motor e seus reboques e dos sistemas, componentes e unidades técnicas destinados a esses veículos, que altera os Regulamentos (CE) n.o 715/2007 e (CE) n.o 595/2009, e revoga a Diretiva 2007/46/CE (JO L 151 de 14.6.2018, p. 1).

(8)  Regulamento (UE) 2019/1020 do Parlamento Europeu e do Conselho, de 20 de junho de 2019, relativo à fiscalização do mercado e à conformidade dos produtos e que altera a Diretiva 2004/42/CE e os Regulamentos (CE) n.o 765/2008 e (UE) n.o 305/2011 (JO L 169 de 25.6.2019, p. 1.)

(9)  A rever pela Comissão, tal como indicado no n.o 19 da resolução.


Top