Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52022PC0496

Proposta de DIRETIVA DO PARLAMENTO EUROPEU E DO CONSELHO relativa à adaptação das regras de responsabilidade civil extracontratual à inteligência artificial (Diretiva Responsabilidade da IA)

COM/2022/496 final

Bruxelas, 28.9.2022

COM(2022) 496 final

2022/0303(COD)

Proposta de

DIRETIVA DO PARLAMENTO EUROPEU E DO CONSELHO

relativa à adaptação das regras de responsabilidade civil extracontratual à inteligência artificial
(Diretiva Responsabilidade da IA)

(Texto relevante para efeitos do EEE)

{SEC(2022) 344 final} - {SWD(2022) 318 final} - {SWD(2022) 319 final} - {SWD(2022) 320 final}


EXPOSIÇÃO DE MOTIVOS

1.CONTEXTO DA PROPOSTA

·Razões e objetivos da proposta

A presente exposição de motivos acompanha a proposta de diretiva relativa à adaptação das regras de responsabilidade civil extracontratual à inteligência artificial (IA). Num inquérito representativo de 2020 1 , a responsabilidade encontrava-se entre os três principais obstáculos à utilização da IA pelas empresas europeias. Foi considerada o obstáculo externo mais importante (43 %) para as empresas que planeiam adotar a IA, mas ainda não o fizeram.

Nas suas Orientações Políticas, a presidente da Comissão, Ursula von der Leyen, definiu uma abordagem europeia coordenada em matéria de IA 2 . No seu Livro Branco sobre a IA 3 , de 19 de fevereiro de 2020, a Comissão comprometeu-se a promover a adoção da IA e a abordar os riscos associados a algumas das suas utilizações, fomentando a excelência e a confiança. No seu relatório relativo à responsabilidade decorrente da IA 4 que acompanha o livro branco, a Comissão identificou os desafios específicos que a IA coloca às regras existentes em matéria de responsabilidade. Nas suas Conclusões sobre «Construir o futuro digital da Europa», de 9 de junho de 2020, o Conselho congratulou-se com a consulta realizada sobre as propostas estratégicas constantes do Livro Branco sobre a IA e exortou a Comissão a apresentar propostas concretas. Em 20 de outubro de 2020, o Parlamento Europeu adotou uma resolução de iniciativa legislativa nos termos do artigo 225.º do TFUE, na qual solicita à Comissão que adote uma proposta de regime de responsabilidade civil para a IA com base no artigo 114.º do Tratado sobre o Funcionamento da UE (TFUE) 5 .

As atuais regras nacionais de responsabilidade, em especial em matéria de responsabilidade culposa, não se adequam ao tratamento de ações de indemnização por danos causados por produtos e serviços assentes em IA. Por força dessas regras, é necessário que as vítimas provem uma ação ou omissão ilícita por parte de uma pessoa que tenha causado o dano. As características específicas da IA, incluindo a complexidade, a autonomia e a opacidade (o denominado efeito de «caixa negra»), podem dificultar ou tornar proibitivamente oneroso para as vítimas a identificação da pessoa responsável e a prova dos requisitos necessários a uma ação de indemnização bem-sucedida. Em especial, ao intentarem uma ação de indemnização, as vítimas podem incorrer em custos iniciais muito elevados e depararem-se com processos judiciais significativamente mais longos, em comparação com casos que não envolvem a IA. Por conseguinte, as vítimas podem ser totalmente dissuadidas de pedir uma indemnização. O Parlamento Europeu (PE) teve igualmente em conta estas preocupações na sua Resolução, de 3 de maio de 2022, sobre a inteligência artificial na era digital  6

Se uma vítima intentar uma ação, os tribunais nacionais, confrontados com as características específicas da IA, podem adaptar pontualmente o modo como aplicam as regras em vigor, de forma a chegar a um resultado justo para a vítima, o que provocará insegurança jurídica. As empresas terão dificuldades em prever de que forma as atuais regras de responsabilidade serão aplicadas e, por conseguinte, em avaliar e segurar a sua exposição em matéria de responsabilidade. Este efeito será amplificado para as empresas com atividade comercial transfronteiras, uma vez que a insegurança abrangerá diferentes jurisdições. Tal afetará particularmente as pequenas e médias empresas (PME), que não podem contar com conhecimentos jurídicos internos ou reservas de capital.

As estratégias nacionais de IA demonstram que vários Estados-Membros estão a ponderar, ou mesmo planear de forma concreta, medidas legislativas de responsabilidade civil decorrente da IA. Por conseguinte, se a UE não atuar, prevê-se que os Estados-Membros adaptem as suas regras nacionais de responsabilidade aos desafios da IA. Tal resultará numa maior fragmentação e em maiores custos para as empresas ativas em toda a UE.

A consulta pública que está na base da avaliação de impacto da presente proposta confirmou os problemas acima expostos. Segundo o público, o efeito de «caixa negra» pode dificultar a prova da culpa e do nexo de causalidade por parte da vítima, podendo haver insegurança quanto à forma como os tribunais interpretarão e aplicarão as regras nacionais existentes em matéria de responsabilidade nos casos que envolvam a IA. Além disso, revelou uma preocupação do público quanto à forma como as medidas legislativas relativas à adaptação das regras de responsabilidade iniciadas por cada Estado-Membro e a consequente fragmentação afetariam os custos das empresas, especialmente das PME, impedindo a adoção da IA em toda a União.

Por conseguinte, a presente proposta tem por objetivo promover a implantação de uma IA de confiança, a fim de tirar proveito de todos os seus benefícios para o mercado interno. Fá-lo assegurando que as vítimas de danos causados pela IA obtêm uma proteção equivalente à das vítimas de danos causados por produtos em geral. Além disso, reduz a insegurança jurídica das empresas que desenvolvem ou utilizam IA no que diz respeito à sua eventual exposição em matéria de responsabilidade e impede o surgimento de adaptações fragmentadas das regras nacionais de responsabilidade civil específicas para a IA.

·Coerência com as disposições existentes da mesma política setorial

A presente proposta faz parte de um pacote de medidas destinadas a apoiar a implantação da IA na Europa mediante a promoção da excelência e da confiança. Este pacote compreende três vertentes de trabalho complementares:

uma proposta legislativa que estabelece regras horizontais para os sistemas de inteligência artificial (Regulamento Inteligência Artificial) 7 ,

uma revisão das regras setoriais e horizontais em matéria de segurança dos produtos,

regras da UE destinadas a abordar problemas no domínio da responsabilidade relacionados com os sistemas de IA.

Na proposta de Regulamento Inteligência Artificial, a Comissão propôs regras que procuram reduzir os riscos para a segurança e proteger os direitos fundamentais. A responsabilidade são duas faces da mesma moeda: aplicam-se em momentos diferentes e reforçam-se mutuamente. Não obstante o facto de reduzirem os riscos, as regras destinadas a garantir a segurança e proteger os direitos fundamentais não os eliminam totalmente 8 . Caso esse risco se materialize, podem, ainda assim, ocorrer danos. Nesses casos, serão aplicáveis as regras de responsabilidade da presente proposta.

A existência de regras eficazes em matéria de responsabilidade também constitui um incentivo económico para o cumprimento das regras de segurança e, por conseguinte, contribui para evitar o surgimento de danos 9 . Além disso, a presente proposta contribui para a aplicação dos requisitos aplicáveis aos sistemas de IA de risco elevado impostos pelo Regulamento Inteligência Artificial, uma vez que o incumprimento desses requisitos constitui um elemento importante que desencadeia a redução do ónus da prova. A presente proposta é igualmente coerente com as regras gerais 10 e setoriais propostas em matéria de segurança dos produtos aplicáveis às máquinas e seus componentes e acessórios assentes em IA 11 e aos equipamentos de rádio 12 .

A Comissão adota uma abordagem holística na sua política em matéria de responsabilidade no domínio da IA, propondo adaptações à responsabilidade do produtor por produtos defeituosos no âmbito da Diretiva Responsabilidade dos Produtos e da harmonização específica efetuada ao abrigo da presente proposta. Estas duas iniciativas políticas estão estreitamente ligadas e formam um pacote, uma vez que as ações abrangidas pelo respetivo âmbito de aplicação dizem respeito a diferentes tipos de responsabilidade. A Diretiva Responsabilidade dos Produtos abrange a responsabilidade objetiva do produtor por produtos defeituosos, conduzindo a uma indemnização por certos tipos de danos, principalmente sofridos por particulares. A presente proposta abrange as ações nacionais de indemnização baseadas principalmente na culpa de qualquer pessoa, com vista a indemnizar todo o tipo de danos e todo o tipo de vítimas. Complementam-se mutuamente no intuito de formar um regime de responsabilidade civil global eficaz.

Estas regras promoverão, em conjunto, a confiança na IA (e noutras tecnologias digitais), assegurando que as vítimas sejam efetivamente indemnizadas em caso de danos, não obstante os requisitos preventivos do Regulamento Inteligência Artificial e outras regras de segurança.

·Coerência com outras políticas da União

A proposta é coerente com a estratégia digital global da União, uma vez que contribui para promover o conceito de «tecnologia ao serviço das pessoas», um dos três principais pilares da orientação política e dos objetivos anunciados na Comunicação «Construir o futuro digital da Europa» 13 .

Neste contexto, a presente proposta visa reforçar a confiança na IA e aumentar a sua adoção. Tal permitirá obter sinergias e complementar o [ato legislativo sobre a ciber-resiliência europeia] 14 , que visa também aumentar a confiança nos produtos com elementos digitais através da redução das vulnerabilidades cibernéticas e proteger melhor as empresas e os consumidores.

A presente proposta não afeta as regras estabelecidas pelo [Regulamento Serviços Digitais (RSD)], que prevê um quadro abrangente e totalmente harmonizado das obrigações de diligência devida para a tomada de decisões algorítmicas pelas plataformas em linha, incluindo a sua isenção de responsabilidade dos prestadores de serviços intermediários.

Além disso, ao promover a implantação da IA, a presente proposta estabelece uma ligação com as iniciativas ao abrigo da estratégia da UE para os dados 15 . Reforça igualmente o papel que a União desempenha no contributo prestado para a conceção das regras e normas mundiais e na promoção de uma IA de confiança coerente com os valores e os interesses da União.

A proposta também tem ligações indiretas ao Pacto Ecológico Europeu 16 . As tecnologias digitais, em especial, incluindo a IA, são um fator essencial para alcançar os objetivos de sustentabilidade do Pacto Ecológico em muitos setores diferentes (incluindo os cuidados de saúde, os transportes, o ambiente e a agricultura).

·Principais consequências a nível económico, social e ambiental

A diretiva contribuirá para a implantação da IA. As condições para a implantação e o desenvolvimento de tecnologias de IA no mercado interno podem ser significativamente melhoradas mediante a prevenção da fragmentação e o reforço da segurança jurídica por meio de medidas harmonizadas a nível da UE, em comparação com eventuais adaptações das regras de responsabilidade a nível nacional. O estudo económico 17 subjacente à avaliação de impacto da presente proposta chegou à conclusão — numa estimativa prudente — de que a tomada de medidas específicas de harmonização de responsabilidade civil para a IA teria um impacto positivo de 5 % a 7 % no valor de produção do comércio transfronteiras relevante, em comparação com o cenário de base. Este valor acrescentado gerar-se-ia, nomeadamente, por meio da redução da fragmentação e do reforço da segurança jurídica no que diz respeito à exposição em matéria de responsabilidade das partes interessadas. Tal reduziria os custos de informação/representação jurídica, de gestão interna dos riscos e de conformidade das partes interessadas, facilitaria o planeamento financeiro e o processo de estimativa de risco para efeitos de seguros e permitiria que as empresas — em especial as PME — explorassem novos mercados transfronteiras. Com base no valor global do mercado de IA da UE afetado pelos problemas relacionados com a responsabilidade abordados pela presente diretiva, estima-se que esta gerará um aumento do valor de mercado entre aproximadamente 500 milhões de EUR e 1 100 milhões de EUR.

Em termos de impactos sociais, a diretiva aumentará a confiança da sociedade nas tecnologias de IA e o acesso a um sistema de justiça eficaz. Contribuirá para um regime de responsabilidade civil eficiente, adaptado às especificidades da IA, em que as ações justificadas de indemnização por danos são bem-sucedidas. O aumento da confiança da sociedade beneficiaria igualmente todas as empresas da cadeia de valor da IA, uma vez que o reforço da confiança dos cidadãos contribuirá para uma adoção mais rápida da IA. Devido ao efeito de incentivo das regras de responsabilidade, a prevenção da existência de lacunas em termos de responsabilidade também beneficiaria indiretamente todos os cidadãos por meio de um maior nível de proteção da saúde e da segurança (artigo 114.º, n.º 3, do TFUE) e da redução das fontes de riscos para a saúde (artigo 168.º, n.º 1, do TFUE).

No que diz respeito aos impactos ambientais, espera-se igualmente que a diretiva contribua para a consecução das metas e objetivos de desenvolvimento sustentável (ODS) conexos. A adoção de aplicações de IA traz benefícios para o ambiente. Por exemplo, os sistemas de IA utilizados na otimização dos processos proporcionam uma economia de recursos (por exemplo, reduzindo a quantidade de fertilizantes e pesticidas necessários, reduzindo o consumo de água para o mesmo nível de produção, etc.). A diretiva teria também um impacto positivo nos ODS, uma vez que uma legislação eficaz em matéria de transparência, responsabilização e direitos fundamentais orientará as potencialidades da IA para beneficiar as pessoas e a sociedade no sentido de alcançar os ODS.

2.BASE JURÍDICA, SUBSIDIARIEDADE E PROPORCIONALIDADE

·    Base jurídica

A base jurídica da proposta é o artigo 114.º do TFUE, que prevê a adoção de medidas destinadas a assegurar o estabelecimento e o funcionamento do mercado interno.

Os problemas que a presente proposta visa resolver, em especial a insegurança jurídica e a fragmentação jurídica, inibem o desenvolvimento do mercado interno e, por conseguinte, constituem obstáculos significativos ao comércio transfronteiras de produtos e serviços assentes em IA.

A proposta aborda os obstáculos decorrentes do facto de as empresas que pretendem produzir, difundir e explorar produtos e serviços assentes em IA além-fronteiras não saberem se, e de que forma, os regimes de responsabilidade existentes são aplicáveis aos danos causados pela IA. Esta insegurança afeta, em especial, os Estados-Membros para os quais as empresas exportarão os seus produtos e serviços ou onde os explorarão. Num contexto transfronteiras, a lei aplicável à responsabilidade extracontratual decorrente de um delito é, por norma, a lei do país onde ocorre o dano. Para estas empresas, é essencial conhecer os riscos relevantes em termos de responsabilidade e conseguir segurar-se contra eles.

Além disso, há sinais concretos de que vários Estados-Membros estão a ponderar tomar medidas legislativas unilaterais para fazer face aos desafios específicos que a IA apresenta no que diz respeito à responsabilidade. Por exemplo, as estratégias de IA adotadas na Chéquia 18 , na Itália 19 , em Malta 20 , na Polónia 21 e em Portugal 22 referem iniciativas destinadas a clarificar a responsabilidade. Dada a grande divergência entre as regras existentes nos Estados-Membros em matéria de responsabilidade civil, é provável que qualquer medida nacional em matéria de responsabilidade específica para a IA siga as diferentes abordagens nacionais existentes e, por conseguinte, aumente a fragmentação.

Por conseguinte, as adaptações das regras de responsabilidade adotadas puramente a nível nacional aumentariam os obstáculos à implantação de produtos e serviços assentes em IA em todo o mercado interno e contribuiriam para o aumento da fragmentação.

·Subsidiariedade

Os objetivos da presente proposta não podem ser adequadamente alcançados a nível nacional, uma vez que o surgimento de regras nacionais divergentes aumentaria a insegurança jurídica e a fragmentação, criando obstáculos à implantação de produtos e serviços assentes em IA em todo o mercado interno. A insegurança jurídica afetaria particularmente as empresas ativas a nível transfronteiras, impondo a necessidade de suportar custos adicionais de informação/representação jurídica e de gestão dos riscos, bem como a perda de receitas. Ao mesmo tempo, a existência de diferentes regras nacionais em matéria de ações de indemnização por danos causados por IA aumentaria os custos de transação das empresas, especialmente no comércio transfronteiras, o que implicaria obstáculos significativos no mercado interno. Além disso, a insegurança jurídica e a fragmentação afetam de forma desproporcionada as empresas em fase de arranque e as PME, que representam a maior parte das empresas e dos investimentos nos mercados relevantes.

Na ausência de regras harmonizadas a nível da UE para a indemnização dos danos causados por sistemas de IA, os fornecedores, os operadores e os utilizadores de sistemas de IA, por um lado, e as pessoas lesadas, por outro, ver-se-iam confrontados com 27 regimes de responsabilidade diferentes, o que conduziria a diferentes níveis de proteção e a uma distorção da concorrência entre empresas de diferentes Estados-Membros.

A adoção de medidas harmonizadas a nível da UE melhoraria significativamente as condições para a implantação e o desenvolvimento de tecnologias de IA no mercado interno mediante a prevenção da fragmentação e o reforço da segurança jurídica. Este valor acrescentado gerar-se-ia, nomeadamente, por meio da redução da fragmentação e do reforço da segurança jurídica no que diz respeito à exposição em matéria de responsabilidade das partes interessadas. Além disso, só a ação da UE pode alcançar de forma coerente o efeito desejado de promover a confiança dos consumidores nos produtos e serviços assentes em IA mediante a prevenção de lacunas em matéria de responsabilidade relacionadas com as características específicas da IA em todo o mercado interno. Tal asseguraria um nível (mínimo) de proteção coerente para todas as vítimas (pessoas e empresas) e incentivos coerentes para prevenir danos e garantir a responsabilização.

·Proporcionalidade

A proposta assenta numa abordagem faseada. Na primeira fase, os objetivos são alcançados com uma abordagem minimamente invasiva. A segunda fase implica reavaliar a necessidade de medidas mais rigorosas ou abrangentes.

A primeira fase limita-se às medidas relativas ao ónus da prova destinadas a resolver os problemas específicos da IA identificados. Tem como ponto de partida as condições substantivas da responsabilidade que atualmente existem nas regras nacionais, como o nexo de causalidade ou a culpa, mas centra-se em medidas específicas relacionadas com a prova, garantindo que as vítimas dispõem do mesmo nível de proteção que nos casos que não envolvem sistemas de IA. Além disso, de entre os vários instrumentos disponíveis no direito nacional para facilitar a prova 23 , a presente proposta opta por recorrer à presunção ilidível por ser o instrumento menos intervencionista. Tais presunções são geralmente previstas nos regimes nacionais de responsabilidade, equilibrando os interesses dos demandantes e dos demandados. Ao mesmo tempo, são concebidos para incentivar o cumprimento dos deveres de diligência existentes estabelecidos a nível da União ou a nível nacional. A proposta não conduz a uma inversão do ónus da prova, a fim de evitar expor os fornecedores, os operadores e os utilizadores de sistemas de IA a riscos de responsabilidade mais elevados, o que pode prejudicar a inovação e reduzir a adoção de produtos e serviços assentes na IA.

A segunda fase incluída na proposta assegura que, ao avaliar o efeito da primeira fase em termos de proteção das vítimas e de adoção da IA, é tida em conta a futura evolução tecnológica, regulamentar e jurisprudencial na reavaliação da necessidade de harmonizar outros elementos das ações de indemnização ou outros instrumentos relacionados com ações de indemnização, incluindo em situações em que a responsabilidade objetiva seria mais adequada, tal como solicitado pelo Parlamento Europeu. Essa avaliação também teria provavelmente em conta a necessidade de essa harmonização ser associada a um seguro obrigatório, de forma a garantir a eficácia.

·Escolha do instrumento

Uma diretiva é o instrumento mais adequado para a presente proposta, uma vez que proporciona o efeito de harmonização e a segurança jurídica desejados, ao mesmo tempo que proporciona flexibilidade para permitir que os Estados-Membros integrem, sem atrito, as medidas harmonizadas nos seus regimes nacionais de responsabilidade.

Um instrumento obrigatório evitaria lacunas de proteção decorrentes de uma aplicação parcial ou inexistente. Embora um instrumento não vinculativo seja menos intrusivo, é pouco provável que resolva os problemas identificados de forma eficaz. É difícil prever a taxa de execução de instrumentos não vinculativos e não há indicações suficientes de que o efeito persuasivo de uma recomendação seria suficientemente forte de forma a resultar numa adaptação coerente das legislações nacionais.

Este efeito é ainda mais improvável no caso de medidas de direito privado, nas quais se integram as regras de responsabilidade extracontratual. Este domínio caracteriza-se por tradições jurídicas de longa data, pelo que os Estados-Membros mostram-se relutantes em empreender uma reforma coordenada, a menos que seja motivada por uma nítida perspetiva de obtenção de vantagens no mercado interno ao abrigo de um instrumento vinculativo da UE ou pela necessidade de adaptação a novas tecnologias na economia digital.

As divergências significativas existentes entre os quadros em matéria de responsabilidade dos Estados-Membros são outra razão pela qual é pouco provável que uma recomendação seja aplicada de forma coerente.

1.RESULTADOS DAS AVALIAÇÕES EX POST, DAS CONSULTAS DAS PARTES INTERESSADAS E DAS AVALIAÇÕES DE IMPACTO

·Consultas das partes interessadas

Foi implementada uma estratégia de consulta abrangente para assegurar uma ampla participação das partes interessadas ao longo do ciclo político da presente proposta. A estratégia de consulta baseou-se em consultas públicas e em várias consultas específicas (webinários, debates bilaterais com empresas e várias organizações).

Após as perguntas iniciais sobre a responsabilidade que integraram a consulta pública relativa ao Livro Branco sobre a IA e o relatório da Comissão sobre a segurança e a responsabilidade, esteve aberta, de 18 de outubro de 2021 a 10 de janeiro de 2022, uma consulta pública específica em linha, com vista a recolher os pontos de vista de uma grande variedade de partes interessadas, incluindo consumidores, organizações da sociedade civil, associações industriais, empresas, incluindo PME, e o poder público. Uma vez analisadas todas as respostas recebidas, a Comissão publicou uma síntese dos resultados e as respostas individuais no seu sítio Web 24 .

No total, receberam-se 233 respostas de inquiridos de 21 Estados-Membros, bem como de países terceiros. De um modo geral, a maior parte das partes interessadas confirmou os problemas relacionados com o ónus da prova, a insegurança jurídica e a fragmentação e apoiou a ação a nível da UE.

Os cidadãos da UE, as organizações de consumidores e as instituições académicas confirmaram, na sua esmagadora maioria, a necessidade de uma ação da UE para atenuar os problemas das vítimas relacionados com o ónus da prova. Pese embora o facto de reconhecerem os efeitos negativos da insegurança em torno da aplicação das regras de responsabilidade, as empresas revelaram-se mais prudentes e solicitaram medidas seletivas, a fim de evitar limitar a inovação.

No que diz respeito às opções políticas, surgiu um quadro semelhante. Os cidadãos da UE, as organizações de consumidores e as instituições académicas apoiaram convictamente as medidas relativas ao ónus da prova e à harmonização da responsabilidade não culposa (designada por «responsabilidade objetiva»), bem como ao seguro obrigatório. As empresas revelaram estar mais divididas em termos de opções políticas, dependendo as diferenças, em parte, da sua dimensão. A maior parte das empresas inquiridas considerou a responsabilidade objetiva desproporcionada. A harmonização da redução do ónus da prova colheu um maior apoio, em especial entre as PME. No entanto, as empresas alertaram para os riscos de uma inversão total do ónus da prova.

Por conseguinte, a opção política preferida foi desenvolvida e aperfeiçoada à luz das observações recebidas das partes interessadas no decurso do processo de avaliação de impacto, de modo a encontrar um equilíbrio entre as necessidades expressas e as preocupações suscitadas por todos os grupos de partes interessadas.

·Recolha e utilização de conhecimentos especializados

A proposta assenta em quatro anos de análise e na participação em estreita proximidade das partes interessadas, incluindo académicos, empresas, associações de consumidores, Estados-Membros e cidadãos. Os trabalhos preparatórios tiveram início em 2018 com a criação do Grupo de Peritos em Responsabilidade e Novas Tecnologias (Subgrupo para as Novas Tecnologias). O grupo de peritos elaborou um relatório em novembro de 2019 25 que avaliou os desafios que algumas características da IA colocam às regras nacionais de responsabilidade civil.

O contributo do relatório do grupo de peritos foi complementado por outros três estudos externos:

um estudo de direito comparado baseado numa análise jurídica comparativa da legislação europeia de responsabilidade civil, centrado em questões fundamentais relacionadas com a IA 26 ,

um estudo de economia comportamental sobre os impactos de adaptações específicas do regime de responsabilidade na tomada de decisões dos consumidores, em especial a sua confiança e disponibilidade para adotar produtos e serviços assentes em IA 27 ,

um estudo económico 28 que abrange diversos temas: os desafios que as vítimas das aplicações de IA enfrentam em comparação com as vítimas de dispositivos sem IA na obtenção de uma indemnização pela sua perda; a questão de saber se, e em que medida, as empresas se sentem inseguras quanto à aplicação das atuais regras de responsabilidade às suas operações que envolvem a IA e se o impacto da insegurança jurídica pode dificultar o investimento em IA; a questão de saber se uma maior fragmentação das legislações nacionais de responsabilidade reduziria a eficácia do mercado interno para as aplicações e serviços de IA e se, e em que medida, a harmonização de determinados aspetos da responsabilidade civil nacional por meio da legislação da UE reduziria estes problemas e facilitaria a adoção global da tecnologia de IA pelas empresas da UE.

·Avaliação de impacto

Em consonância com a sua política «Legislar melhor», a Comissão realizou uma avaliação de impacto para a presente proposta, que foi analisada pelo Comité de Controlo da Regulamentação da Comissão. A reunião do Comité de Controlo da Regulamentação, realizada em 6 de abril de 2022, resultou num parecer positivo com observações.

Foram avaliadas três opções políticas:

Opção política 1: três medidas destinadas a reduzir o ónus da prova para as vítimas que tentam provar o seu direito a indemnização.

Opção política 2: as medidas previstas na opção n.º 1 + harmonização das regras de responsabilidade objetiva para os casos de utilização da IA com um perfil de risco específico, juntamente com um seguro obrigatório.

Opção política 3: uma abordagem faseada que consiste:

numa primeira fase: nas medidas previstas na opção n.º 1,

numa segunda fase: num mecanismo de reexame destinado a reavaliar, em especial, a necessidade de harmonizar a responsabilidade objetiva para os casos de utilização da IA com um perfil de risco específico (eventualmente associado a um seguro obrigatório).

As opções políticas foram comparadas recorrendo a uma análise com diversos critérios, que teve em conta a sua eficácia, eficiência, coerência e proporcionalidade. Os resultados da análise com diversos critérios e da análise de sensibilidade mostram que a opção n.º 3, ou seja, a redução do ónus da prova para as ações relacionadas com a IA + reexame seletivo relacionado com a responsabilidade objetiva, eventualmente associado a um seguro obrigatório, obteve a melhor classificação, sendo, por conseguinte, a opção política preferida para a presente proposta.

A opção preferida asseguraria que as vítimas de produtos e serviços assentes em IA (pessoas singulares, empresas e quaisquer outras entidades públicas ou privadas) não ficassem menos protegidas do que as vítimas de tecnologias tradicionais. Aumentaria o nível de confiança na IA e promoveria a sua adoção.

Além disso, reduziria a insegurança jurídica e evitaria a fragmentação, ajudando assim as empresas e a maior parte das PME que pretendem concretizar todo o potencial do mercado único da UE mediante a implantação transfronteiras de produtos e serviços assentes em IA. A opção preferida também cria melhores condições para as seguradoras oferecerem uma cobertura das atividades relacionadas com a IA, o que é essencial para a gestão dos riscos das empresas, especialmente as PME. Estima-se que a opção política preferida geraria um aumento do valor de mercado da IA na UE-27 entre aproximadamente 500 milhões de EUR e 1 100 milhões de EUR em 2025.

·Direitos fundamentais

Uma das funções mais importantes das regras de responsabilidade civil é garantir que as vítimas de danos possam pedir uma indemnização. Ao garantir uma efetiva indemnização, estas regras contribuem para a proteção do direito à ação e a um tribunal imparcial (artigo 47.º da Carta dos Direitos Fundamentais da UE, a seguir designada por «Carta»), incentivando simultaneamente as pessoas potencialmente responsáveis a prevenir os danos, de modo a evitar que sejam chamadas à responsabilidade.

Com a presente proposta, a Comissão visa assegurar que as vítimas de danos causados por IA tenham um nível de proteção ao abrigo das regras de responsabilidade civil equivalente ao das vítimas de danos causados sem o envolvimento da IA. A proposta permitirá o efetivo exercício dos direitos fundamentais por parte das entidades privadas e preservará o direito à ação nos casos em que os riscos específicos da IA se tenham materializado. A proposta contribuirá, em especial, para proteger direitos fundamentais, como o direito à vida (artigo 2.º da Carta), o direito à integridade física e mental (artigo 3.º) e o direito de propriedade (artigo 17.º). Além disso, dependendo do sistema de direito civil e das tradições de cada Estado-Membro, as vítimas poderão pedir uma indemnização por danos causados a outros interesses jurídicos, como as violações da dignidade pessoal (artigos 1.º e 4.º da Carta), o respeito pela vida privada e familiar (artigo 7.º), o direito à igualdade (artigo 20.º) e a não discriminação (artigo 21.º).

Além disso, a presente proposta complementa outras vertentes da política em matéria de IA da Comissão baseada em requisitos regulamentares e de supervisão preventivos diretamente destinados a evitar violações dos direitos fundamentais (como a discriminação). São elas o Regulamento Inteligência Artificial, o Regulamento Geral sobre a Proteção de Dados, o Regulamento Serviços Digitais e a legislação da UE em matéria de não discriminação e igualdade de tratamento. Ao mesmo tempo, a presente proposta não cria nem harmoniza os deveres de diligência ou a responsabilidade de várias entidades cuja atividade é regulamentada por esses atos jurídicos e, por conseguinte, não cria novos direitos a indemnização nem afeta as isenções da responsabilidade previstas nesses outros atos jurídicos. A presente proposta apenas introduz medidas de redução do ónus da prova para as vítimas de danos causados por sistemas de IA em ações suscetíveis de se basearem no direito nacional ou nesta outra legislação da UE. Ao complementar estas outras vertentes, a presente proposta protege o direito da vítima a uma indemnização ao abrigo do direito privado, incluindo uma indemnização por violações dos direitos fundamentais.

4.INCIDÊNCIA ORÇAMENTAL

A presente proposta não terá incidência no orçamento da União Europeia.

5.OUTROS ELEMENTOS

·Planos de execução e acompanhamento, avaliação, programa de acompanhamento e reexame seletivo

A presente proposta sugere uma abordagem faseada. A fim de assegurar a disponibilidade de suficientes elementos de prova para o reexame seletivo na segunda fase, a Comissão elaborará um plano de acompanhamento, especificando como e com que frequência se recolherá os dados e outros elementos de prova necessários.

O mecanismo de acompanhamento pode abranger os seguintes tipos de dados e de prova:

comunicação e partilha de informações pelos Estados-Membros sobre a aplicação de medidas destinadas a reduzir o ónus da prova nos processos nacionais de resolução judicial ou extrajudicial de litígios,

informações recolhidas pela Comissão ou pelas autoridades de fiscalização do mercado ao abrigo do Regulamento Inteligência Artificial (em especial o artigo 62.º) ou de outros instrumentos pertinentes,

informações e análises que apoiem a avaliação do Regulamento Inteligência Artificial e os relatórios a elaborar pela Comissão sobre a aplicação desse ato,

informações e análises que apoiem a avaliação de futuras medidas políticas pertinentes ao abrigo da legislação em matéria de segurança abrangida pela «antiga abordagem», a fim de garantir que os produtos colocados no mercado da União cumprem elevados requisitos em matéria de saúde, segurança e ambiente,

informações e análises que fundamentem o relatório da Comissão sobre a aplicação da Diretiva Seguro Automóvel à luz dos desenvolvimentos tecnológicos (em especial os veículos autónomos e semiautónomos), em conformidade com o seu artigo 28.º-C, n.º 2, alínea a).

·Explicação pormenorizada das disposições específicas da proposta

1. Objeto e âmbito (artigo 1.º)

A presente diretiva tem por objetivo melhorar o funcionamento do mercado interno, estabelecendo requisitos uniformes para certos aspetos da responsabilidade civil extracontratual por danos causados com o envolvimento de sistemas de IA. Surge na sequência da Resolução 2020/2014(INL) do Parlamento Europeu e adapta o direito privado às necessidades da transição para a economia digital.

A escolha de instrumentos jurídicos adequados é limitada, dada a natureza da questão do ónus da prova e as características específicas da IA que constituem um problema para as regras existentes em matéria de responsabilidade. A este respeito, a presente diretiva reduz o ónus da prova de forma muito seletiva e proporcionada mediante o recurso à divulgação e a presunções ilidíveis. Estabelece a possibilidade de as pessoas que procuram obter uma indemnização por danos obterem as informações sobre sistemas de IA de risco elevado a registar/documentar nos termos do Regulamento Inteligência Artificial. Além disso, as presunções ilidíveis darão às pessoas que procuram obter uma indemnização por danos causados por sistemas de IA um ónus da prova mais razoável e uma oportunidade de êxito nas ações de indemnização justificadas.

Estes instrumentos não são novos, podendo ser encontrados nos sistemas legislativos nacionais. Por conseguinte, estes instrumentos nacionais constituem pontos de referência úteis para a questão de saber como abordar os problemas que a IA suscita relativamente às regras de responsabilidade existentes com a menor interferência possível nos diferentes regimes jurídicos nacionais.

Além disso, quando questionadas sobre alterações mais profundas, como a inversão do ónus da prova ou uma presunção inilidível, as empresas apresentaram observações negativas no âmbito das consultas. Escolheu-se as medidas específicas de redução do ónus da prova sob a forma de presunções ilidíveis como meio pragmático e adequado de ajudar as vítimas a satisfazer o seu ónus da prova da forma mais seletiva e proporcionada possível.

O artigo 1.º indica o objeto e o âmbito de aplicação da presente diretiva: é aplicável a ações de indemnização de direito civil extracontratual por danos causados por um sistema de IA, sempre que tais ações sejam intentadas ao abrigo de regimes de responsabilidade culposa. Tal significa regimes que preveem a responsabilidade legal de indemnizar os danos causados intencionalmente ou por ação ou omissão negligente. As medidas previstas na presente diretiva podem inserir-se nos sistemas de responsabilidade civil existentes sem com eles entrarem em conflito, uma vez que refletem uma abordagem que não afeta a definição de conceitos fundamentais como «culpa» ou «dano», já que o significado desses conceitos varia consideravelmente entre os Estados-Membros. Assim, com exceção das presunções que estabelece, a presente diretiva não afeta as regras nacionais ou da União que determinam, por exemplo, sobre que parte recai o ónus da prova, que grau de certeza é necessário no que respeita ao nível de prova ou a definição de «culpa».

Além disso, a presente diretiva não afeta as regras em vigor que regulam as condições da responsabilidade no setor dos transportes nem as estabelecidas pelo Regulamento Serviços Digitais.

Embora não seja aplicável em matéria de responsabilidade penal, a presente diretiva pode ser aplicável no que diz respeito à responsabilidade do Estado. As autoridades estatais são igualmente abrangidas pelas disposições do Regulamento Inteligência Artificial enquanto objeto das obrigações nele previstas.

A presente diretiva não é retroativamente aplicável, sendo apenas aplicável às ações de indemnização por danos ocorridos a partir da data da sua transposição.

A proposta da presente diretiva foi adotada juntamente com a proposta de revisão da Diretiva 85/374/CEE relativa à responsabilidade dos produtos, num pacote destinado a adaptar as regras de responsabilidade à era digital e à IA, assegurando o necessário alinhamento entre estes dois instrumentos jurídicos complementares.

2.Definições (artigo 2.º)

As definições constantes do artigo 2.º seguem as do Regulamento Inteligência Artificial, a fim de assegurar a coerência.

O artigo 2.º, n.º 6, alínea b), estabelece que as ações de indemnização podem ser intentadas não só pela pessoa lesada, mas também por pessoas que tenham sucedido ou sido sub-rogadas nos direitos da pessoa lesada. A sub-rogação é a assunção por um terceiro (como uma companhia de seguros) do direito legal de outra parte de cobrar uma dívida ou pedir uma indemnização. Por conseguinte, uma determinada pessoa tem o direito de fazer valer os direitos de outra em benefício próprio. A sub-rogação abrangeria igualmente os herdeiros de uma vítima falecida.

Além disso, o artigo 2.º, n.º 6, alínea c), prevê a possibilidade de alguém que atue em nome de uma ou mais partes lesadas, em conformidade com o direito da União ou nacional, intentar igualmente uma ação de indemnização. Esta disposição visa proporcionar mais possibilidades às pessoas lesadas por um sistema de IA para que vejam os seus pedidos apreciados por um tribunal, mesmo nos casos em que se afigure demasiado oneroso ou demasiado moroso intentar ações individuais ou em que as ações conjuntas possam apresentar vantagens em termos de escala. A fim de permitir que as vítimas de danos causados por sistemas de IA façam valer os seus direitos em relação à presente diretiva por meio de ações coletivas, o artigo 6.º altera o anexo I da Diretiva (UE) 2020/1828.

3.Divulgação de elementos de prova (artigo 3.º)

A presente diretiva visa proporcionar às pessoas que procuram obter uma indemnização por danos causados por sistemas de IA de risco elevado meios eficazes para identificar as pessoas potencialmente responsáveis e os elementos de prova relevantes para uma ação. Tais meios servem simultaneamente para excluir potenciais demandados incorretamente identificados, poupando tempo e reduzindo custos para as partes implicadas e reduzindo o volume de processos dos tribunais.

A este respeito, o artigo 3.º, n.º 1, da diretiva estabelece que um tribunal pode ordenar a divulgação de elementos de prova relevantes sobre sistemas de IA de risco elevado específicos suspeitos de terem causado danos. Os pedidos de elementos de prova são dirigidos ao fornecedor de um sistema de IA, a uma pessoa sujeita às obrigações do fornecedor estabelecidas no artigo 24.º ou no artigo 28.º, n.º 1, do Regulamento Inteligência Artificial ou a um utilizador nos termos do Regulamento Inteligência Artificial. Os pedidos devem fundamentar-se em factos e elementos de prova suficientes que permitam determinar a plausibilidade da ação de indemnização planeada, devendo os elementos de prova solicitados estar à disposição dos destinatários. Os pedidos não podem ser dirigidos a partes que não tenham obrigações por força do Regulamento Inteligência Artificial e, por conseguinte, não tenham acesso aos elementos de prova.

Nos termos do artigo 3.º, n.º 2, o demandante só pode solicitar a divulgação de elementos de prova junto de fornecedores ou utilizadores que não sejam demandados se tiverem sido feitas todas as tentativas proporcionadas para recolher os elementos de prova junto do demandado.

Para que os meios judiciais sejam eficazes, o artigo 3.º, n.º 3, da diretiva prevê a possibilidade de o tribunal ordenar igualmente a conservação desses elementos de prova.

Tal como previsto no artigo 3.º, n.º 4, primeiro parágrafo, o tribunal só pode ordenar a divulgação na medida do necessário para fundamentar a ação, uma vez que as informações podem constituir elementos de prova essenciais para a ação da pessoa lesada em caso de danos que envolvam sistemas de IA.

Ao limitar a obrigação de divulgação ou conservação aos elementos de prova necessários e proporcionados, o artigo 3.º, n.º 4, primeiro parágrafo, visa assegurar a proporcionalidade na divulgação de elementos de prova, ou seja, limitar a divulgação ao mínimo necessário e evitar pedidos genéricos.

O artigo 3.º, n.º 4, segundo e terceiro parágrafos, visa ainda encontrar um equilíbrio entre os direitos do demandante e a necessidade de assegurar que essa divulgação esteja sujeita a salvaguardas destinadas a proteger os interesses legítimos de todas as partes em causa, tais como segredos comerciais ou informações confidenciais.

No mesmo contexto, o artigo 3.º, n.º 4, quarto parágrafo, visa assegurar que a pessoa objeto da ordem de divulgação ou de conservação disponha de vias de recurso processuais em relação à referida ordem.

O artigo 3.º, n.º 5, introduz uma presunção de incumprimento do dever de diligência. Trata-se de um instrumento processual, relevante apenas nos casos em que o próprio demandado numa ação de indemnização suporta as consequências do incumprimento de um pedido de divulgação ou conservação de elementos de prova. O demandado terá o direito de ilidir essa presunção. A medida prevista neste número visa não só promover a divulgação como também acelerar os processos judiciais.

4.Presunção do nexo de causalidade em caso de culpa (artigo 4.º)

No que diz respeito aos danos causados por sistemas de IA, a presente diretiva visa proporcionar uma base eficaz para pedir uma indemnização relacionada com o facto culposo que consiste no incumprimento de um dever de diligência nos termos do direito da União ou do direito nacional.

Os demandantes podem ter dificuldade em estabelecer um nexo de causalidade entre o incumprimento e o resultado produzido pelo sistema de IA ou a incapacidade do sistema de IA de produzir um resultado que deu origem ao dano relevante. Por conseguinte, o artigo 4.º, n.º 1, estabelece uma presunção de causalidade ilidível seletiva no que diz respeito a este nexo de causalidade. Esta presunção é a medida menos onerosa para dar resposta à necessidade de uma indemnização justa da vítima.

A culpa do demandado tem de ser provada pelo demandante de acordo com as regras da União ou nacionais aplicáveis. Essa culpa pode ser demonstrada, por exemplo, por incumprimento de um dever de diligência nos termos do Regulamento Inteligência Artificial ou de outras regras estabelecidas a nível da União, como as que regulam o uso da monitorização e da tomada de decisões automatizadas para o trabalho em plataformas digitais ou as que regulam o funcionamento de aeronaves não tripuladas. O tribunal também a pode presumir com base no incumprimento de uma decisão judicial de divulgação ou conservação de elementos de prova ordenada nos termos do artigo 3.º, n.º 5. No entanto, só é adequado estabelecer uma presunção de causalidade caso se afigure provável que o facto culposo em causa tenha influenciado o resultado do sistema de IA pertinente ou a inexistência de resultado, o que pode ser avaliado com base nas circunstâncias gerais do caso. Ao mesmo tempo, o demandante tem ainda de provar que o sistema de IA (ou seja, o seu resultado ou a incapacidade de produzir um resultado) deu origem aos danos.

Os n.os 2 e 3 distinguem entre, por um lado, as ações intentadas contra o fornecedor de um sistema de IA de risco elevado ou contra uma pessoa sujeita às obrigações do fornecedor nos termos do Regulamento Inteligência Artificial e, por outro, as ações intentadas contra o utilizador desses sistemas. Nesta matéria, estes números seguem as respetivas disposições e condições pertinentes do Regulamento Inteligência Artificial. No caso das ações baseadas no artigo 4.º, n.º 2, o cumprimento, por parte dos demandados, das obrigações enumeradas nesse número deve ser igualmente apreciado à luz do sistema de gestão de riscos e dos seus resultados, ou seja, medidas de gestão dos riscos, nos termos do Regulamento Inteligência Artificial.

No caso de sistemas de IA de risco elevado, na aceção do Regulamento Inteligência Artificial, o artigo 4.º, n.º 4, estabelece uma exceção à presunção de causalidade, caso o demandado demonstre que estão razoavelmente acessíveis ao demandante elementos de prova e conhecimentos especializados suficientes para provar o nexo de causalidade. Esta possibilidade pode incentivar os demandados a cumprirem as suas obrigações de divulgação, as medidas estabelecidas pelo Regulamento Inteligência Artificial para assegurar um elevado nível de transparência da IA ou os requisitos de documentação e registo.

No caso de sistemas de IA que não são de risco elevado, o artigo 4.º, n.º 5, estabelece uma condição para a aplicabilidade da presunção de causalidade, segundo a qual esta última depende de uma determinação do tribunal em como é excessivamente difícil para o demandante provar o nexo de causalidade. Tal dificuldade deve ser apreciada à luz das características de determinados sistemas de IA, como a autonomia e a opacidade, que, na prática, tornam muito difícil explicar o funcionamento interno do sistema de IA, afetando negativamente a capacidade do demandante em provar o nexo de causalidade entre o facto culposo do demandado e o resultado da IA.

Nos casos em que o demandado utiliza o sistema de IA no decurso de uma atividade pessoal não profissional, o artigo 4.º, n.º 6, estabelece que a presunção de causalidade só deve aplicar-se se o demandado tiver interferido substancialmente nas condições de funcionamento do sistema de IA ou se o demandado tivesse a obrigação e a capacidade determinar as condições de funcionamento do sistema de IA e não o tiver feito. Esta condição justifica-se pela necessidade de equilibrar os interesses das pessoas lesadas e dos utilizadores não profissionais, isentando da aplicação da presunção de causalidade os casos em que os utilizadores não profissionais não aumentam o risco devido ao seu comportamento.

Por último, o artigo 4.º, n.º 7, dispõe que o demandado tem o direito de ilidir a presunção de causalidade baseada no artigo 4.º, n.º 1.

Estas regras eficazes em matéria de responsabilidade civil têm a vantagem adicional de proporcionar a todas as partes que exercem atividades relacionadas com sistemas de IA um incentivo adicional para respeitarem as suas obrigações relativamente à conduta que delas se espera.

5.Avaliação e reexame seletivo (artigo 5.º)

Vários sistemas jurídicos nacionais preveem diferentes regimes de responsabilidade objetiva. O Parlamento Europeu propôs, na sua resolução de iniciativa de 20 de outubro de 2020, os elementos de um tal regime a nível da União, que consiste num regime de responsabilidade objetiva limitado para determinadas tecnologias assentes em IA e num ónus da prova simplificado ao abrigo das regras de responsabilidade culposa. As consultas públicas puseram igualmente em evidência a preferência dos inquiridos (exceto para as empresas que não eram PME) por um regime deste tipo, associado ou não a um seguro obrigatório.

No entanto, a proposta tem em conta as diferenças entre as tradições jurídicas nacionais e o facto de os tipos de produtos e serviços equipados com sistemas de IA suscetíveis de afetar o público em geral e pôr em risco direitos jurídicos importantes, como o direito à vida, à saúde e de propriedade, e, por conseguinte, suscetíveis de estar sujeitos a um regime de responsabilidade objetiva, ainda não estarem amplamente disponíveis no mercado.

É criado um programa de acompanhamento para comunicar à Comissão informações sobre incidentes que envolvam sistemas de IA. No reexame seletivo avaliar-se-á a eventual necessidade de medidas adicionais, como a introdução de um regime de responsabilidade objetiva e/ou um seguro obrigatório.

6.Transposição (artigo 7.º)

Ao notificarem à Comissão as medidas nacionais de transposição tomadas para dar cumprimento à presente diretiva, os Estados-Membros devem igualmente transmitir documentos explicativos com informações suficientemente claras e precisas e que indiquem, para cada disposição da presente diretiva, a disposição ou disposições nacionais que asseguram a sua transposição. Tal é necessário para permitir à Comissão identificar, relativamente a cada disposição da diretiva que exija transposição, a parte relevante das medidas nacionais de transposição que criam a obrigação jurídica correspondente na ordem jurídica nacional, independentemente da forma escolhida pelos Estados-Membros.



2022/0303 (COD)

Proposta de

DIRETIVA DO PARLAMENTO EUROPEU E DO CONSELHO

relativa à adaptação das regras de responsabilidade civil extracontratual à inteligência artificial
(Diretiva Responsabilidade da IA)

(Texto relevante para efeitos do EEE)

O PARLAMENTO EUROPEU E O CONSELHO DA UNIÃO EUROPEIA,

Tendo em conta o Tratado sobre o Funcionamento da União Europeia, nomeadamente o artigo 114.º,

Tendo em conta a proposta da Comissão Europeia,

Após transmissão do projeto de ato legislativo aos parlamentos nacionais,

Tendo em conta o parecer do Comité Económico e Social Europeu 29 ,

Tendo em conta o parecer do Comité das Regiões 30 ,

Deliberando de acordo com o processo legislativo ordinário,

Considerando o seguinte:

(1)A inteligência artificial («IA») é um conjunto de tecnologias facilitadoras que pode contribuir para uma vasta gama de benefícios em todo o espetro da economia e da sociedade. Tem grandes potencialidades de progresso tecnológico e permite novos modelos de negócio em muitos setores da economia digital.

(2)Ao mesmo tempo, dependendo das circunstâncias da sua aplicação e utilização específicas, a IA pode gerar riscos e prejudicar interesses e direitos protegidos pelo direito da União ou pelo direito nacional. Por exemplo, a utilização da IA pode afetar negativamente uma série de direitos fundamentais, incluindo o direito à vida, à integridade física, bem como no que diz respeito ao direito à não discriminação e à igualdade de tratamento. O Regulamento (UE) …/… do Parlamento Europeu e do Conselho [Regulamento Inteligência Artificial] 31 estabelece requisitos destinados a reduzir os riscos para a segurança e os direitos fundamentais, enquanto outros instrumentos do direito da União regulamentam as regras gerais 32 e setoriais em matéria de segurança dos produtos aplicáveis igualmente às máquinas e seus componentes e acessórios assentes em IA 33 e aos equipamentos de rádio 34 . Embora se destinem a prevenir, acompanhar e combater os riscos e, por conseguinte, dar resposta às preocupações da sociedade, os requisitos destinados a reduzir os riscos para a segurança e os direitos fundamentais não permitem uma reparação individual das pessoas que tenham sofrido danos causados pela IA. Os requisitos existentes preveem, em especial, autorizações, controlos, o acompanhamento e sanções administrativas em relação aos sistemas de IA, a fim de evitar danos. Não preveem a indemnização da pessoa lesada por danos causados por um resultado ou pela incapacidade de produzir um resultado de um sistema de IA.

(3)Quando uma pessoa lesada pede uma indemnização por um dano sofrido, as regras gerais dos Estados-Membros em matéria de responsabilidade culposa normalmente exigem que essa pessoa faça prova de uma ação ou omissão negligente ou intencional («facto culposo») por parte da pessoa potencialmente responsável por esse dano, bem como de um nexo de causalidade entre esse facto culposo e o dano em causa. No entanto, quando uma IA se interpõe entre a ação ou omissão de uma pessoa e o dano, as características específicas de determinados sistemas de IA, como a opacidade, o comportamento autónomo e a complexidade, podem tornar excessivamente difícil, ou mesmo impossível, à parte lesada cumprir este ónus da prova. Em especial, pode ser excessivamente difícil provar que um determinado dado de entrada da responsabilidade de uma pessoa potencialmente responsável causou um resultado específico de um sistema de IA que conduziu ao dano em causa.

(4)Nesses casos, o nível de reparação proporcionado pelas regras nacionais de responsabilidade civil pode ser inferior ao dos casos cuja causa do dano envolva outras tecnologias que não a IA. Tais lacunas em matéria de indemnização podem contribuir para um menor nível de aceitação social da IA e de confiança nos produtos e serviços assentes em IA.

(5)Para colher os benefícios económicos e sociais da IA e promover a transição para a economia digital, é necessário adaptar de forma seletiva determinadas regras nacionais de responsabilidade civil a essas características específicas de determinados sistemas de IA. Essas adaptações devem contribuir para a confiança da sociedade e dos consumidores, promovendo assim a implantação da IA. Tais adaptações devem igualmente manter a confiança no sistema de justiça garantindo que as vítimas de danos causados com o envolvimento da IA têm a mesma indemnização efetiva que as vítimas de danos causados por outras tecnologias.

(6)As partes interessadas — pessoas lesadas que sofreram danos, pessoas potencialmente responsáveis, seguradoras — enfrentam uma insegurança jurídica quanto à forma como os tribunais nacionais, quando confrontados com os desafios específicos da IA, podem aplicar em cada caso as regras existentes em matéria de responsabilidade, a fim de alcançar resultados justos. Na ausência de uma ação da União, é provável que pelo menos alguns Estados-Membros adaptem as suas regras de responsabilidade civil de modo a colmatar as lacunas em matéria de indemnização e a insegurança jurídica associada às características específicas de determinados sistemas de IA. Tal criaria uma fragmentação jurídica e obstáculos no mercado interno para as empresas que desenvolvem ou fornecem/prestam produtos ou serviços inovadores assentes em IA. As pequenas e médias empresas seriam especialmente afetadas.

(7)A presente diretiva tem por objetivo contribuir para o bom funcionamento do mercado interno mediante a harmonização de determinadas regras nacionais de responsabilidade culposa extracontratual, de modo a assegurar que as pessoas que pedem uma indemnização por danos que lhes sejam causados por um sistema de IA gozam de um nível de proteção equivalente ao nível de que gozam as pessoas que pedem uma indemnização por danos causados sem o envolvimento de um sistema de IA. Este objetivo não pode ser suficientemente realizado pelos Estados-Membros, uma vez que os obstáculos relevantes no mercado interno estão associados ao risco de medidas regulamentares unilaterais e fragmentadas a nível nacional. Atendendo à natureza digital dos produtos e serviços abrangidos pelo âmbito de aplicação da presente diretiva, esta última é particularmente relevante num contexto transfronteiras.

(8)O objetivo de garantir a segurança jurídica e prevenir lacunas em matéria de indemnização nos casos em que estejam envolvidos sistemas de IA pode, portanto, ser mais bem alcançado a nível da União. Por conseguinte, a União pode tomar medidas em conformidade com o princípio da subsidiariedade consagrado no artigo 5.º do TUE. Em conformidade com o princípio da proporcionalidade consagrado no mesmo artigo, a presente diretiva não excede o necessário para alcançar esse objetivo.

(9)Por conseguinte, é necessário harmonizar de forma seletiva aspetos específicos das regras de responsabilidade culposa a nível da União. Tal harmonização deve aumentar a segurança jurídica e criar igualdade ao nível das condições de concorrência para os sistemas de IA, melhorando assim o funcionamento do mercado interno no que diz respeito à produção e difusão de produtos e serviços assentes em IA.

(10)A fim de assegurar a proporcionalidade, é adequado harmonizar de forma seletiva apenas as regras de responsabilidade culposa que regem o ónus da prova para as pessoas que pedem uma indemnização por danos causados por sistemas de IA. A presente diretiva não deve harmonizar os aspetos gerais da responsabilidade civil regulados de diferentes formas pelas regras nacionais de responsabilidade civil, tais como a definição de «culpa» ou de «causalidade», os diferentes tipos de danos que dão origem a direitos de indemnização, a repartição da responsabilidade por vários infratores, a conduta que concorre para a origem do dano, o cálculo dos danos ou os prazos de prescrição.

(11)As legislações dos Estados-Membros em matéria de responsabilidade dos produtores por danos causados por defeito dos seus produtos já se encontram harmonizadas a nível da União pela Diretiva 85/374/CEE do Conselho 35 . No entanto, essas legislações não afetam as regras de responsabilidade contratual ou extracontratual dos Estados-Membros, como a garantia, a culpa ou a responsabilidade culposa, assentes em fundamentação diferente do defeito do produto. Embora a revisão da Diretiva 85/374/CEE do Conselho vise simultaneamente clarificar e assegurar a possibilidade de a pessoa lesada pedir uma indemnização por danos causados por produtos assentes em IA defeituosos, há que esclarecer, portanto, que as disposições da presente diretiva não afetam os direitos que uma pessoa lesada possa ter ao abrigo das regras nacionais de execução da Diretiva 85/374/CEE. Além disso, no domínio dos transportes, o direito da União que regulamenta a responsabilidade dos operadores de transporte, não deve ser afetado pela presente diretiva.

(12)O [Regulamento Serviços Digitais (RSD) 36 ] harmoniza totalmente as regras aplicáveis aos prestadores de serviços intermediários no mercado interno, abrangendo os riscos sociais decorrentes dos serviços oferecidos por esses prestadores, nomeadamente no que diz respeito aos sistemas de IA que utilizam. A presente diretiva não afeta as disposições do [Regulamento Serviços Digitais (RSD)] que estabelecem um quadro abrangente e totalmente harmonizado das obrigações de diligência devida para a tomada de decisões algorítmicas por prestadores de serviços de alojamento virtual, incluindo a isenção de responsabilidade pela difusão de conteúdos ilegais carregados pelos destinatários dos seus serviços, sempre que estejam preenchidas as condições previstas no referido regulamento.

(13)Com exceção das presunções que estabelece, a presente diretiva não harmoniza as legislações nacionais no que respeita à parte sobre a qual recai o ónus da prova ou ao grau de certeza necessário no que respeita ao nível de prova. 

(14)A presente diretiva deve seguir uma abordagem de harmonização mínima. Esta abordagem permite que os demandantes de ações de indemnização por danos causados por sistemas de IA invoquem regras mais favoráveis do direito nacional. Assim, as legislações nacionais podem, por exemplo, manter a inversão do ónus da prova ao abrigo dos regimes nacionais de responsabilidade culposa ou regimes nacionais de responsabilidade não culposa (denominada por «responsabilidade objetiva»), dos quais já existe uma grande diversidade nas legislações nacionais e que possivelmente são aplicáveis aos danos causados por sistemas de IA.

(15)É igualmente necessário assegurar a coerência com o [Regulamento Inteligência Artificial]. Por conseguinte, é adequado que a presente diretiva utilize as mesmas definições no que diz respeito aos sistemas, fornecedores e utilizadores de IA. Além disso, a presente diretiva deve abranger apenas as ações de indemnização por danos quando o dano é causado por um resultado ou pela incapacidade de produzir um resultado de um sistema de IA decorrente de facto culposo de uma pessoa, por exemplo, o fornecedor ou o utilizador de acordo com o [Regulamento Inteligência Artificial]. Não é necessário abranger as ações de indemnização cujo dano é causado por uma avaliação humana seguida de uma ação ou omissão humana, tendo o sistema de IA apenas prestado informações ou aconselhamento que foram tidos em conta pelo interveniente humano em causa. Neste último caso, é possível seguir o rasto do dano causado até chegar a uma ação ou omissão humana, uma vez que o resultado do sistema de IA não se interpõe entre a ação ou omissão humana e o dano, pelo que a determinação da causalidade não é mais difícil do que em situações em que não esteja envolvido um sistema de IA.

(16)O acesso a informações sobre sistemas de IA de risco elevado específicos suspeitos de terem causado danos é um fator importante para determinar se há lugar a uma ação de indemnização e para fundamentar as ações de indemnização. Além disso, para os sistemas de IA de risco elevado, [o Regulamento Inteligência Artificial] prevê requisitos específicos em matéria de documentação, informação e registo, mas não confere à pessoa lesada o direito de aceder a essas informações. Por conseguinte, é conveniente estabelecer regras relativas à divulgação de elementos de prova pertinentes por quem deles disponha, para efeitos de determinação da responsabilidade. Tal deve igualmente proporcionar um incentivo adicional para cumprir os requisitos pertinentes de documentação ou registo das informações pertinentes estabelecidos no [Regulamento Inteligência Artificial].

(17)O grande número de pessoas que habitualmente estão implicadas na conceção, no desenvolvimento, na implantação e na exploração de sistemas de IA de risco elevado dificulta, para as pessoas lesadas, a identificação da pessoa potencialmente responsável pelo dano causado e a prova das condições de uma ação de indemnização. A fim de permitir que as pessoas lesadas determinem se uma ação de indemnização tem fundamento, é adequado conceder aos potenciais demandantes o direito de requerer a um tribunal que ordene a divulgação de elementos de prova pertinentes antes de se intentar uma ação de indemnização. Tal divulgação só deve ser ordenada se o potencial demandante apresentar factos e informações suficientes para fundamentar a plausibilidade de uma ação de indemnização e tiver previamente apresentado, ao fornecedor, à pessoa sujeita às obrigações de um fornecedor ou ao utilizador, um pedido de divulgação dos elementos de prova de que disponha sobre sistemas de IA de risco elevado específicos suspeitos de terem causado danos que tenha sido recusado. A ordem de divulgação deve conduzir a uma redução dos litígios desnecessários e evitar custos para os eventuais litigantes decorrentes de pedidos injustificados ou suscetíveis de serem infrutíferos. A recusa do fornecedor, da pessoa sujeita às obrigações de um fornecedor ou do utilizador em divulgar elementos de prova, antes do pedido dirigido ao tribunal, não deve desencadear a presunção de incumprimento dos deveres de diligência pertinentes por parte da pessoa que se recusa a efetuar essa divulgação.

(18)A limitação da divulgação de elementos de prova no que diz respeito a sistemas de IA de risco elevado é coerente com o [Regulamento Inteligência Artificial], que prevê determinadas obrigações específicas em matéria de documentação, conservação de registos e informação dos operadores implicados na conceção, no desenvolvimento e na implantação de sistemas de IA de risco elevado. Tal coerência assegura igualmente a proporcionalidade necessária ao evitar-se a expectativa de que os operadores de sistemas de IA que apresentam um risco mais baixo ou nulo documentem informações a um nível semelhante ao exigido a sistemas de IA de risco elevado por força do [Regulamento Inteligência Artificial].

(19)Os tribunais nacionais devem ter a capacidade de, no decurso de um processo civil, ordenar a divulgação ou a conservação de elementos de prova pertinentes relacionados com os danos causados por sistemas de IA de risco elevado por pessoas que já tenham a obrigação de documentar ou registar informações por força do [Regulamento Inteligência Artificial], sejam eles fornecedores, pessoas sujeitas às mesmas obrigações que os fornecedores ou utilizadores de um sistema de IA, na qualidade de demandados ou de terceiros na ação. Pode dar-se o caso de os elementos de prova relevantes para o processo estarem na posse de entidades que não seriam partes na ação de indemnização, mas que têm a obrigação de documentar ou registar esses elementos de prova nos termos do [Regulamento Inteligência Artificial]. Por conseguinte, é necessário prever as condições em que se pode ordenar esses terceiros na ação a divulgar os elementos de prova pertinentes.

(20)A fim de manter o equilíbrio entre os interesses das partes implicadas na ação de indemnização e de terceiros pertinentes, os tribunais só devem ordenar a divulgação de elementos de prova se tal for necessário e proporcionado para fundamentar a ação ou potencial ação de indemnização. A este respeito, a divulgação só deve dizer respeito aos elementos de prova que sejam necessários para uma decisão sobre a respetiva ação de indemnização, por exemplo, apenas as partes dos registos ou conjuntos de dados pertinentes necessárias para provar o incumprimento de um requisito estabelecido no [Regulamento Inteligência Artificial]. A fim de assegurar a proporcionalidade de tais medidas de divulgação ou conservação, há que dotar os tribunais nacionais de meios eficazes para salvaguardar os interesses legítimos de todas as partes implicadas, por exemplo, a proteção de segredos comerciais na aceção da Diretiva (UE) 2016/943 do Parlamento Europeu e do Conselho 37 e de informações confidenciais, tais como as informações relativas à segurança pública ou nacional. No que diz respeito aos segredos comerciais ou alegados segredos comerciais que o tribunal tenha considerado confidenciais na aceção da Diretiva (UE) 2016/943, os tribunais nacionais devem ser habilitados a tomar medidas específicas para assegurar a confidencialidade dos segredos comerciais durante e após o processo, assegurando simultaneamente um equilíbrio justo e proporcionado entre o interesse do titular do segredo comercial em manter o segredo e o interesse da pessoa lesada. Tal deve incluir medidas para restringir o acesso a documentos que contenham segredos comerciais e o acesso a audiências ou documentos e respetivas transcrições a um número limitado de pessoas. Ao decidir sobre tais medidas, os tribunais nacionais devem ter em conta a necessidade de salvaguardar o direito à ação e a um tribunal imparcial, os interesses legítimos das partes e, se for caso disso, de terceiros, assim como os eventuais prejuízos a qualquer das partes ou, se for caso disso, a terceiros, resultantes do deferimento ou indeferimento dessas medidas. Além disso, a fim de assegurar uma aplicação proporcionada de uma medida de divulgação em relação a terceiros em ações de indemnização, os tribunais nacionais só devem ordenar a divulgação, por parte de terceiros, se não for possível obter os elementos de prova junto do demandado.

(21)Embora os tribunais nacionais disponham de meios para executar as suas decisões de divulgação por meio de várias medidas, tais medidas de execução podem atrasar as ações de indemnização e, por conseguinte, criar potencialmente despesas adicionais para os litigantes. Para as pessoas lesadas, estes atrasos e despesas adicionais podem dificultar o seu recurso a uma ação judicial. Por conseguinte, se um demandado numa ação de indemnização não divulgar elementos de prova de que disponha cuja divulgação tenha sido ordenada por um tribunal, é adequado estabelecer uma presunção de incumprimento dos deveres de diligência que esses elementos de prova se destinavam a provar. Esta presunção ilidível reduzirá a duração dos litígios e proporcionará mais eficácia nos processos judiciais. O demandado deve poder ilidir essa presunção apresentando provas em contrário.

(22)A fim de ultrapassar as dificuldades em provar que um determinado dado de entrada da responsabilidade da pessoa potencialmente responsável causou um determinado resultado de um sistema de IA que conduziu ao dano em causa, é adequado prever, sob determinadas condições, uma presunção de causalidade. Embora, numa ação de responsabilidade culposa, o demandante tenha normalmente de provar o dano, a ação ou omissão humana que constitui o facto culposo do demandado e o nexo de causalidade entre ambos, a presente diretiva não harmoniza as condições em que os tribunais nacionais determinam a culpa. Continuam a reger-se pelo direito nacional aplicável e, se harmonizados, pelo direito da União aplicável. De igual modo, a presente diretiva não harmoniza as condições relacionadas com o dano, por exemplo, que danos podem ser indemnizados, as quais são igualmente regulamentadas pelo direito nacional e da União aplicável. Para que a presunção de causalidade prevista na presente diretiva seja aplicável, é necessário determinar a existência de culpa do demandado enquanto ação ou omissão humana que não respeita um dever de diligência nos termos do direito da União ou do direito nacional diretamente destinado a proteger contra o dano ocorrido. Assim, esta presunção pode aplicar-se, por exemplo, a uma ação de indemnização por danos corporais, quando o tribunal determinar a culpa do demandado por não ter respeitado as instruções de utilização destinadas a evitar danos a pessoas singulares. O incumprimento dos deveres de diligência que não se destinavam diretamente a proteger contra os danos ocorridos não conduz à aplicação da presunção; por exemplo, o facto de um fornecedor não apresentar a documentação exigida às autoridades competentes não conduziria à aplicação da presunção em ações de indemnização por danos corporais. Deve ser igualmente necessário determinar a possibilidade de se considerar que é razoavelmente provável, com base nas circunstâncias do caso, que o facto culposo influenciou o resultado produzido pelo sistema de IA ou a incapacidade do sistema de IA de produzir um resultado. Por último, o demandante deve, ainda assim, ser obrigado a provar que o resultado ou a incapacidade de produzir um resultado causou o dano.

(23)Tal culpa pode ser estabelecida relativamente ao incumprimento das regras da União que regulamentam de forma específica os sistemas de IA de risco elevado, como os requisitos introduzidos para determinados sistemas de IA de risco elevado pelo [Regulamento Inteligência Artificial], os requisitos que eventualmente sejam introduzidos por legislação setorial futura para outros sistemas de IA de risco elevado nos termos do [artigo 2.º, n.º 2, do Regulamento Inteligência Artificial] ou os deveres de diligência que estão associados a determinadas atividades e que são aplicáveis independentemente de a IA ser utilizada para essa atividade. Simultaneamente, a presente diretiva não cria nem harmoniza os requisitos ou a responsabilidade das entidades cuja atividade seja regulamentada por esses atos jurídicos, não criando, portanto, novos direitos a indemnização. A determinação da existência de uma violação de tal requisito que equivale à existência de culpa efetuar-se-á de acordo com as disposições das regras aplicáveis do direito da União, uma vez que a presente diretiva não introduz novos requisitos nem afeta os requisitos existentes. Por exemplo, a isenção de responsabilidade dos prestadores de serviços intermediários e as obrigações em matéria de diligência devida a que estão sujeitos nos termos do [Regulamento Serviços Digitais] não são afetadas pela presente diretiva. De igual modo, o cumprimento dos requisitos impostos às plataformas em linha para evitar a comunicação não autorizada ao público de obras protegidas por direitos de autor deve ser apurado nos termos da Diretiva (UE) 2019/790 relativa aos direitos de autor e direitos conexos no mercado único digital e de outra legislação pertinente da União em matéria de direitos de autor. 

(24)Nos domínios não harmonizados pelo direito da União, o direito nacional continua a ser aplicável e a existência de culpa é determinada nos termos do direito nacional aplicável. Todos os regimes nacionais de responsabilidade dispõem de deveres de diligência, tendo como norma de conduta diferentes manifestações do princípio do comportamento de uma pessoa razoável, o que garante igualmente o funcionamento seguro dos sistemas de IA, a fim de evitar danos a interesses jurídicos reconhecidos. Tais deveres de diligência podem, por exemplo, obrigar os utilizadores de sistemas de IA a escolher, para determinadas tarefas, um determinado sistema de IA com características concretas ou a impedir que determinados segmentos da população sejam expostos a um determinado sistema de IA. O direito nacional pode igualmente introduzir obrigações específicas destinadas a prevenir riscos para certas atividades, que são aplicáveis independentemente de a IA ser utilizada para essa atividade, por exemplo, regras de trânsito ou obrigações especificamente concebidas para sistemas de IA, tais como requisitos nacionais adicionais para os utilizadores de sistemas de IA de risco elevado nos termos do artigo 29.º, n.º 2, do [Regulamento Inteligência Artificial]. A presente diretiva não introduz tais requisitos nem afeta as condições para determinar a existência de culpa em caso de violação desses requisitos.

(25)Mesmo que se determine a existência de culpa, que consiste no incumprimento de um dever de diligência diretamente destinado a proteger contra o dano ocorrido, nem todo o facto culposo deve conduzir à aplicação da presunção ilidível que o associa ao resultado da IA. Tal presunção só deve ser aplicável quando se puder considerar que é razoavelmente provável, a partir das circunstâncias em que ocorreu o dano, que tal facto culposo influenciou o resultado produzido pelo sistema de IA ou a incapacidade do sistema de IA de produzir um resultado que deu origem ao dano. Por exemplo, pode-se considerar que é razoavelmente provável que o facto culposo tenha influenciado o resultado ou a incapacidade de produzir um resultado, quando esse facto culposo consiste numa violação de um dever de diligência no que diz respeito à limitação do perímetro de funcionamento do sistema de IA e o dano tenha ocorrido fora do perímetro de funcionamento. Pelo contrário, não se poderia considerar que uma violação de um requisito de apresentação de determinados documentos ou de registo junto de uma determinada autoridade, mesmo que tal esteja eventualmente previsto para a atividade específica ou seja expressamente aplicável à exploração de um sistema de IA, é razoavelmente suscetível de ter influenciado o resultado produzido pelo sistema de IA ou a incapacidade do sistema de IA de produzir um resultado.

(26)A presente diretiva abrange os factos culposos que constituem um incumprimento de determinados requisitos enumerados nos capítulos 2 e 3 do [Regulamento Inteligência Artificial] que incumbem aos fornecedores e utilizadores de sistemas de IA de risco elevado, cujo incumprimento pode conduzir, sob determinadas condições, a uma presunção de causalidade. O Regulamento Inteligência Artificial prevê a total harmonização dos requisitos aplicáveis aos sistemas de IA, salvo disposição explícita em contrário no referido regulamento. O referido regulamento harmoniza os requisitos específicos aplicáveis aos sistemas de IA de risco elevado. Por conseguinte, para efeitos das ações de indemnização em que seja aplicada a presunção de causalidade nos termos da presente diretiva, a potencial existência de culpa dos fornecedores ou das pessoas sujeitas às obrigações de um fornecedor nos termos do [Regulamento Inteligência Artificial] só se verifica mediante um incumprimento de tais requisitos. Uma vez que, na prática, o demandante pode ter dificuldade em provar esse incumprimento quando o demandado é um fornecedor do sistema de IA, e em plena coerência com a lógica do [Regulamento Inteligência Artificial], a presente diretiva deve igualmente prever que as medidas tomadas pelo fornecedor no âmbito do sistema de gestão de riscos e os resultados do sistema de gestão de riscos, ou seja, a decisão de tomar ou não tomar determinadas medidas de gestão de riscos, devem ser tidas em conta para determinar se o fornecedor cumpriu os requisitos pertinentes no âmbito do Regulamento Inteligência Artificial referidos na presente diretiva. O sistema de gestão de riscos instituído pelo fornecedor nos termos do [Regulamento Inteligência Artificial] é um processo iterativo contínuo executado no decurso do ciclo de vida do sistema de IA de risco elevado, por meio do qual o fornecedor assegura o cumprimento dos requisitos obrigatórios destinados a atenuar os riscos, e pode, por conseguinte, ser um elemento útil para efeitos da avaliação desse cumprimento. A presente diretiva abrange igualmente os casos de culpa dos utilizadores, sempre que o facto culposo consista no incumprimento de determinados requisitos específicos estabelecidos pelo [Regulamento Inteligência Artificial]. Além disso, pode-se determinar a existência de culpa dos utilizadores de sistemas de IA de risco elevado mediante um incumprimento de outros deveres de diligência estabelecidos no direito da União ou no direito nacional, à luz do artigo 29.º, n.º 2, do [Regulamento Inteligência Artificial].

(27)Embora as características específicas de determinados sistemas de IA, como a autonomia e a opacidade, possam tornar excessivamente difícil, para o demandante, satisfazer o ónus da prova, pode dar-se o caso de tais dificuldades não existirem, uma vez que o autor do pedido pode ter à sua disposição elementos de prova e conhecimentos especializados suficientes para provar o nexo de causalidade. É o que acontece, por exemplo, com os sistemas de IA de risco elevado em que o demandante pode aceder razoavelmente a elementos de prova e conhecimentos especializados suficientes por meio dos requisitos de documentação e registo nos termos do [Regulamento Inteligência Artificial]. Nesses casos, o tribunal não deve aplicar a presunção.

(28)A presunção de causalidade pode igualmente aplicar-se a sistemas de IA que não sejam sistemas de IA de risco elevado, uma vez que o demandante pode encontrar dificuldades excessivas em termos de prova. Por exemplo, tais dificuldades podem ser apreciadas à luz das características de determinados sistemas de IA, como a autonomia e a opacidade, que, na prática, tornam muito difícil explicar o funcionamento interno do sistema de IA, afetando negativamente a capacidade do demandante em provar o nexo de causalidade entre o facto culposo do demandado e o resultado da IA. O tribunal nacional deve aplicar a presunção quando o demandante se encontre numa posição de dificuldade excessiva para provar o nexo de causalidade, uma vez que lhe é exigido que explique de que forma o sistema de IA foi levado, por ação ou omissão humana que constitui um facto culposo, a produzir o resultado ou a criar a incapacidade de produzir um resultado que deu origem ao dano. No entanto, não deve ser exigido ao demandante que explique as características do sistema de IA em causa nem a forma como estas características dificultam o estabelecimento do nexo de causalidade.

(29)A aplicação da presunção de causalidade destina-se a assegurar à pessoa lesada um nível de proteção semelhante ao das situações em que não esteja envolvida a IA e em que, por conseguinte, pode ser mais fácil provar o nexo de causalidade. No entanto, nem sempre é adequado reduzir o ónus da prova da causalidade ao abrigo da presente diretiva quando o demandado não for um utilizador profissional, mas sim uma pessoa que utiliza o sistema de IA para as suas atividades privadas. Nessas circunstâncias, a fim de equilibrar os interesses da pessoa lesada e do utilizador não profissional, é necessário ter em conta a possibilidade de tais utilizadores não profissionais aumentarem o risco de um sistema de IA causar danos devido ao comportamento dos utilizadores. Se o fornecedor de um sistema de IA tiver cumprido todas as suas obrigações e, consequentemente, esse sistema tiver sido considerado suficientemente seguro para ser colocado no mercado para uma determinada utilização por utilizadores não profissionais e for subsequentemente utilizado para essa tarefa, não se deve aplicar a presunção de causalidade à simples colocação em funcionamento desse sistema por esses utilizadores não profissionais. Um utilizador não profissional que adquira um sistema de IA e se limite a pô-lo em funcionamento de acordo com a sua finalidade, sem interferir substancialmente nas condições de funcionamento, não deve ficar abrangido pela presunção de causalidade estabelecida na presente diretiva. No entanto, se um tribunal nacional determinar que um utilizador não profissional interferiu substancialmente com as condições de funcionamento de um sistema de IA ou tinha a obrigação e a capacidade de determinar as condições de funcionamento do sistema de IA, e não o tenha feito, deve aplicar-se, nesse caso, a presunção de causalidade, desde que todas as outras condições estejam satisfeitas. É o que pode acontecer, por exemplo, quando o utilizador não profissional não cumpre as instruções de utilização ou outros deveres de diligência aplicáveis ao escolher a zona de funcionamento ou ao definir as condições de desempenho do sistema de IA. Tal não prejudica o facto de o fornecedor ter o dever de determinar a finalidade prevista do sistema de IA, incluindo o contexto específico e as condições de utilização, e de eliminar ou minimizar os riscos desse sistema, conforme adequado, no momento da conceção e do desenvolvimento, tendo em conta os conhecimentos e as competências especializadas do utilizador previsto.

(30)Uma vez que a presente diretiva introduz uma presunção ilidível, o demandado deve poder ilidi-la, nomeadamente demonstrando que o seu facto culposo não poderia ter causado o dano.

(31)É necessário prever um reexame da presente diretiva [cinco anos] após o termo do prazo de transposição. Em especial, esse reexame deve examinar se é necessário criar regras de responsabilidade objetiva para ações de indemnização contra o operador, desde que ainda não estejam abrangidas por outras regras da União em matéria de responsabilidade, nomeadamente a Diretiva 85/374/CEE, em combinação com um seguro obrigatório para o funcionamento de determinados sistemas de IA, tal como sugerido pelo Parlamento Europeu 38 . Em conformidade com o princípio da proporcionalidade, é adequado avaliar essa necessidade à luz da evolução tecnológica e regulamentar relevante nos próximos anos, tendo em conta o efeito e o impacto na implantação e adoção de sistemas de IA, especialmente para as PME. O reexame deve considerar, nomeadamente, os riscos que envolvam danos a valores jurídicos importantes, como a vida, a saúde e os bens de terceiros inconscientes, decorrentes do funcionamento de produtos ou serviços assentes em IA. Esse reexame deve igualmente analisar a eficácia das medidas previstas na presente diretiva ao fazer face a esses riscos, bem como o desenvolvimento de soluções adequadas pelo mercado de seguros. A fim de assegurar a disponibilidade das informações necessárias para realizar esse reexame, é necessário recolher dados e outros elementos de prova necessários que abranjam as questões pertinentes.

(32)Tendo em conta a necessidade de proceder a adaptações das regras nacionais processuais e de responsabilidade civil de modo a fomentar a implantação de produtos e serviços assentes em IA em condições favoráveis no mercado interno, a aceitação social e a confiança dos consumidores na tecnologia de IA e no sistema de justiça, é conveniente fixar um prazo não superior a [dois anos após a entrada em vigor] da presente diretiva para que os Estados-Membros adotem as medidas de transposição necessárias.

(33)De acordo com a declaração política conjunta, de 28 de setembro de 2011, dos Estados-Membros e da Comissão sobre os documentos explicativos 39 , os Estados-Membros assumiram o compromisso de fazer acompanhar a notificação das suas medidas de transposição, nos casos em que tal se justifique, de um ou mais documentos que expliquem a relação entre os componentes de uma diretiva e as partes correspondentes dos instrumentos nacionais de transposição. Em relação à presente diretiva, o legislador considera que a transmissão desses documentos se justifica,

ADOTARAM A PRESENTE DIRETIVA:

Artigo 1.º

Objeto e âmbito de aplicação

1.A presente diretiva estabelece regras comuns relativas:

(a)À divulgação de elementos de prova sobre sistemas de inteligência artificial (IA) de risco elevado, a fim de permitir a um demandante fundamentar uma ação de indemnização de direito civil relativa a responsabilidade culposa extracontratual;

(b)Ao ónus da prova em caso de ações de indemnização de direito civil relativas a responsabilidade culposa extracontratual intentadas nos tribunais nacionais por danos causados por um sistema de IA.

2.A presente diretiva é aplicável a ações de indemnização de direito civil relativas a responsabilidade culposa extracontratual, nos casos em que os danos causados por um sistema de IA ocorram após [o termo do prazo de transposição].

A presente diretiva não é aplicável à responsabilidade penal.

3.A presente diretiva não afeta:

(a)As regras do direito da União que regulam as condições de responsabilidade no domínio dos transportes;

(b)Quaisquer direitos que uma pessoa lesada possa ter ao abrigo das regras nacionais de execução da Diretiva 85/374/CEE;

(c)As isenções de responsabilidade e as obrigações de diligência devida previstas no [Regulamento Serviços Digitais]; e

(d)As regras nacionais que determinam sobre que parte recai o ónus da prova, o grau de certeza necessário no que respeita ao nível de prova ou a definição de «culpa», salvo no que diga respeito às disposições dos artigos 3.º e 4.º.

4.Os Estados-Membros podem adotar ou manter regras nacionais que sejam mais favoráveis para os demandantes na fundamentação de uma ação de indemnização de direito civil relativa a responsabilidade extracontratual por danos causados por um sistema de IA, desde que as referidas regras sejam compatíveis com o direito da União.

Artigo 2.º

Definições

Para efeitos da presente diretiva, entende-se por:

(1)«Sistema de IA», um sistema de IA na aceção do [artigo 3.º, n.º 1, do Regulamento Inteligência Artificial];

(2)«Sistema de IA de risco elevado», um sistema de IA de risco elevado referido no [artigo 6.º do Regulamento Inteligência Artificial];

(3)«Fornecedor», um fornecedor na aceção do [artigo 3.º, n.º 2, do Regulamento Inteligência Artificial];

(4)«Utilizador», um utilizador na aceção do [artigo 3.º, n.º 4, do Regulamento Inteligência Artificial];

(5)«Ação de indemnização», uma ação de indemnização de direito civil relativa à responsabilidade culposa extracontratual por danos causados por um resultado de um sistema de IA ou pela incapacidade desse sistema de produzir um resultado quando tal resultado deveria ter sido produzido;

(6)«Demandante», uma pessoa que intenta uma ação de indemnização e que:

(a)Tenha sido lesada por um resultado de um sistema de IA ou pela incapacidade de tal sistema produzir um resultado quando tal resultado deveria ter sido produzido;

(b) Tenha sucedido ou tenha sido sub-rogada no direito de uma pessoa lesada nos termos da lei ou de um contrato; ou

(c)Atue em nome de uma ou mais pessoas lesadas, nos termos do direito da União ou nacional.

(7)    «Potencial demandante», uma pessoa singular ou coletiva que pondere intentar uma ação de indemnização, mas ainda não a tenha intentado;

(8)    «Demandado», a pessoa contra a qual é intentada uma ação de indemnização;

(9)    «Dever de diligência», uma norma de conduta obrigatória, estabelecida pelo direito nacional ou da União, a fim de evitar danos aos interesses jurídicos reconhecidos a nível nacional ou da União, incluindo a vida, a integridade física, a propriedade e a proteção dos direitos fundamentais.

Artigo 3.º

Divulgação de elementos de prova e presunção ilidível de incumprimento

 

1.Cabe aos Estados-Membros assegurar que os tribunais nacionais estão habilitados a ordenar, a pedido de um potencial demandante que tenha previamente solicitado a um fornecedor, a uma pessoa sujeita às obrigações de um fornecedor nos termos do [artigo 24.º ou do artigo 28.º, n.º 1, do Regulamento Inteligência Artificial] ou a um utilizador que divulgue elementos de prova pertinentes de que disponha sobre um sistema de IA de risco elevado específico suspeito de ter causado danos, cujo pedido tenha sido recusado, ou a pedido de um demandante, a divulgação desses elementos de prova às referidas pessoas.

A fim de fundamentar este pedido, o potencial demandante deve apresentar factos e elementos de prova suficientes para fundamentar a plausibilidade de uma ação de indemnização.

2.No contexto de uma ação de indemnização, o tribunal nacional só pode ordenar a divulgação dos elementos de prova por uma das pessoas enumeradas no n.º 1 se o demandante tiver feito todas as tentativas proporcionadas para recolher os elementos de prova pertinentes junto do demandado.

3.Cabe aos Estados-Membros assegurar que os tribunais nacionais estão habilitados a ordenar, a pedido de um demandante, a tomada de medidas específicas para conservar os elementos de prova referidos no n.º 1.

4.Os tribunais nacionais devem limitar a divulgação de elementos de prova ao que é considerado necessário e proporcionado para fundamentar uma potencial ação ou uma ação de indemnização e devem limitar a conservação ao que é considerado necessário e proporcionado para fundamentar tal ação de indemnização.

Ao determinar se uma ordem de divulgação ou conservação de elementos de prova é proporcionada, os tribunais nacionais têm em conta os interesses legítimos de todas as partes, incluindo os terceiros pertinentes, em especial no que diz respeito à proteção de segredos comerciais na aceção do artigo 2.º, ponto 1, da Diretiva (UE) 2016/943 e de informações confidenciais, tais como as informações relativas à segurança pública ou nacional.

Cabe aos Estados-Membros assegurar que, sempre que seja ordenada a divulgação de um segredo comercial ou de um alegado segredo comercial que o tribunal tenha considerado confidencial na aceção do artigo 9.º, n.º 1, da Diretiva (UE) 2016/943, os tribunais nacionais estão habilitados a tomar as medidas específicas necessárias, mediante pedido devidamente fundamentado de uma das partes ou por sua própria iniciativa, para preservar a confidencialidade sempre que esses elementos de prova sejam utilizados ou referidos em processos judiciais.

Cabe igualmente aos Estados-Membros assegurar que a pessoa à qual seja ordenada a divulgação ou conservação dos elementos de prova referidos nos n.os 1 e 2 dispõe das vias de recurso processuais adequadas relativamente a tais decisões.

5.Se o demandado não cumprir uma ordem de um tribunal nacional no âmbito de uma ação de indemnização no sentido de divulgar ou conservar elementos de prova de que disponha nos termos dos n.os 1 e 2, o tribunal nacional presume que o demandado não cumpriu um dever de diligência pertinente, em especial nas circunstâncias referidas no artigo 4.º, n.os 2 e 3, e que os elementos de prova solicitados se destinavam a provar para efeitos da ação de indemnização em causa.

O demandado tem o direito de ilidir essa presunção.

Artigo 4.º

Presunção ilidível de um nexo de causalidade em caso de culpa

1.Sob reserva dos requisitos estabelecidos no presente artigo, os tribunais nacionais presumem, para efeitos da aplicação das regras de responsabilidade a uma ação de indemnização, o nexo de causalidade entre o facto culposo do demandado e o resultado produzido pelo sistema de IA ou a incapacidade do sistema de IA de produzir um resultado, se estiverem preenchidas todas as seguintes condições:

(a) O demandante demonstrou ou o tribunal presumiu, nos termos do artigo 3.º, n.º 5, a existência de culpa do demandado, ou de uma pessoa por cujo comportamento o demandado é responsável, consistindo tal no incumprimento de um dever de diligência previsto no direito da União ou no direito nacional diretamente destinado a proteger contra o dano ocorrido;

(b)Pode-se considerar que é razoavelmente provável, com base nas circunstâncias do caso, que o facto culposo influenciou o resultado produzido pelo sistema de IA ou a incapacidade do sistema de IA de produzir um resultado;

(c)O demandante demonstrou que o resultado produzido pelo sistema de IA ou a incapacidade do sistema de IA de produzir um resultado deu origem ao dano.

2.No caso de uma ação de indemnização intentada contra um fornecedor de um sistema de IA de risco elevado sujeito aos requisitos estabelecidos no título III, capítulos 2 e 3, do [Regulamento Inteligência Artificial] ou uma pessoa sujeita às obrigações do fornecedor nos termos do [artigo 24.º ou do artigo 28.º, n.º 1, do Regulamento Inteligência Artificial], a condição prevista no n.º 1, alínea a), só é cumprida se o autor da ação tiver demonstrado que o fornecedor ou, se for caso disso, a pessoa sujeita às obrigações do fornecedor, não cumpriu algum dos seguintes requisitos estabelecidos nos referidos capítulos, tendo em conta as medidas tomadas e os resultados do sistema de gestão de riscos nos termos do [artigo 9.º e do artigo 16.º, alínea a), do Regulamento Inteligência Artificial]:

(a) O sistema de IA é um sistema que utiliza técnicas que envolvem o treino de modelos com dados que não foram desenvolvidos com base em conjuntos de dados de treino, validação e teste que cumprem os critérios de qualidade referidos no [artigo 10.º, n.os 2 a 4, do Regulamento Inteligência Artificial];

(b) O sistema de IA não foi concebido e desenvolvido de maneira que cumpra os requisitos de transparência estabelecidos no [artigo 13.º do Regulamento Inteligência Artificial];

(c)O sistema de IA não foi concebido e desenvolvido de maneira que permita uma supervisão eficaz por pessoas singulares durante o período de utilização do sistema de IA nos termos do [artigo 14.º do Regulamento Inteligência Artificial];

(d)O sistema de IA não foi concebido e desenvolvido de maneira que alcance, tendo em conta a finalidade prevista, um nível apropriado de exatidão, solidez e cibersegurança nos termos do [artigo 15.º e do artigo 16.º, alínea a), do Regulamento Inteligência Artificial]; ou

(e)As medidas corretivas necessárias não foram imediatamente tomadas para assegurar a conformidade do sistema de IA com as obrigações estabelecidas no [título III, capítulo 2, do Regulamento Inteligência Artificial] ou para proceder à retirada ou recolha do sistema, consoante o caso, nos termos do [artigo 16.º, alínea g), e do artigo 21.º do Regulamento Inteligência Artificial].

3.No caso de uma ação de indemnização intentada contra um utilizador de um sistema de IA de risco elevado sujeito aos requisitos estabelecidos no título III, capítulos 2 e 3, do [Regulamento Inteligência Artificial], a condição prevista no n.º 1, alínea a), é cumprida se o demandante provar que o utilizador:

(a)Não cumpriu as suas obrigações de utilizar ou controlar o sistema de IA em conformidade com as instruções de utilização que o acompanham ou, se for caso disso, suspender ou interromper a sua utilização nos termos do [artigo 29.º do Regulamento Inteligência Artificial]; ou

(b)Expôs o sistema de IA a dados de entrada sob o seu controlo que não são pertinentes tendo em conta a finalidade prevista do sistema nos termos do [artigo 29.º, n.º 3, do Regulamento].

4.No caso de uma ação de indemnização relativa a um sistema de IA de risco elevado, o tribunal nacional não pode aplicar a presunção prevista no n.º 1 se o demandado demonstrar que estão razoavelmente acessíveis ao demandante elementos de prova e conhecimentos especializados suficientes para provar o nexo de causalidade referido no n.º 1.

5.No caso de uma ação de indemnização relativa a um sistema de IA que não seja um sistema IA de risco elevado, a presunção estabelecida no n.º 1 só é aplicável se o tribunal nacional considerar que é excessivamente difícil para o demandante provar o nexo de causalidade referido no n.º 1.

6.No caso de uma ação de indemnização contra um demandado que tenha utilizado o sistema de IA no âmbito de uma atividade pessoal e não profissional, a presunção estabelecida no n.º 1 só é aplicável se o demandado tiver interferido substancialmente nas condições de funcionamento do sistema de IA ou se o demandado tivesse a obrigação e a capacidade de determinar as condições de funcionamento do sistema de IA, mas não o tenha feito.

7.O demandado tem o direito de ilidir a presunção prevista no n.º 1.

Artigo 5.º

Avaliação e reexame seletivo

1.Até [DATA, cinco anos após o termo do período de transposição], a Comissão reexamina a aplicação da presente diretiva e apresenta um relatório ao Parlamento Europeu, ao Conselho e ao Comité Económico e Social Europeu, acompanhado, se for caso disso, de uma proposta legislativa.

2.O relatório examina os efeitos dos artigos 3.º e 4.º na consecução dos objetivos da presente diretiva. Em especial, deve avaliar a adequação das regras de responsabilidade objetiva para as ações contra os operadores de determinados sistemas de IA, desde que ainda não estejam abrangidas por outras regras da União em matéria de responsabilidade, e a necessidade de cobertura de seguro, tendo simultaneamente em conta o efeito e o impacto na implantação e adoção de sistemas de IA, particularmente para as PME.

3.Cabe à Comissão estabelecer um programa de acompanhamento para a elaboração do relatório nos termos dos n.os 1 e 2, que estabeleça como, e com que periodicidade, serão recolhidos os dados e outros elementos de prova necessários. O programa deve especificar as medidas a tomar pela Comissão e pelos Estados-Membros aquando da recolha e análise dos dados e outros elementos de prova. Para efeitos desse programa, os Estados-Membros devem comunicar à Comissão os dados e elementos de prova pertinentes até [31 de dezembro do segundo ano completo após o termo do período de transposição] e até ao final de cada ano subsequente.

Artigo 6.º

Alteração da Diretiva (UE) 2020/1828

No anexo I da Diretiva (UE) 2020/1828 40 , é aditado o seguinte ponto 67:

«67) Diretiva (UE) …/… do Parlamento Europeu e do Conselho, de…, relativa à adaptação das regras de responsabilidade civil extracontratual à inteligência artificial (Diretiva Responsabilidade da IA) (JO L… de…, p…).».

Artigo 7.º

Transposição

1.Os Estados-Membros devem pôr em vigor, até [dois anos após entrada em vigor] as disposições legislativas, regulamentares e administrativas necessárias para dar cumprimento à presente diretiva. Os Estados-Membros devem comunicar imediatamente à Comissão o texto dessas disposições.

As disposições adotadas pelos Estados-Membros devem fazer referência à presente diretiva ou ser acompanhadas dessa referência aquando da sua publicação oficial. Os Estados-Membros estabelecem o modo como deve ser feita a referência.

2.Os Estados-Membros devem comunicar à Comissão o texto das principais disposições de direito interno que adotarem no domínio abrangido pela presente diretiva.

Artigo 8.º

Entrada em vigor

A presente diretiva entra em vigor no vigésimo dia seguinte ao da sua publicação no Jornal Oficial da União Europeia.

Artigo 9.º

Destinatários

Os destinatários da presente diretiva são os Estados-Membros.

Feito em Bruxelas, em

Pelo Parlamento Europeu    Pelo Conselho

A Presidente     O Presidente 

(1)    European enterprise survey on the use of technologies based on AI (não traduzido para português), Ipsos 2020, relatório final, p. 58
(
https://op.europa.eu/en/publication-detail/-/publication/f089bbae-f0b0-11ea-991b-01aa75ed71a1 ).
(2)     https://ec.europa.eu/info/sites/default/files/political-guidelines-next-commission_pt.pdf .
(3)    Livro Branco sobre a inteligência artificial — Uma abordagem europeia virada para a excelência e a confiança, COM(2020) 65 final de 19 de fevereiro de 2020.
(4)    Relatório da Comissão ao Parlamento Europeu, ao Conselho e ao Comité Económico e Social Europeu sobre as implicações em matéria de segurança e de responsabilidade decorrentes da inteligência artificial, da Internet das coisas e da robótica, COM(2020) 64 final de 19 de fevereiro de 2020.
(5)    Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime de responsabilidade civil aplicável à inteligência artificial [2020/2014(INL)].
(6)    Resolução do Parlamento Europeu, de 3 de maio de 2022, sobre a inteligência artificial na era digital [2020/2266(INI)].
(7)    Proposta de regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial) [COM(2021) 206 final].
(8)    O Regulamento Inteligência Artificial só proíbe expressamente um pequeno número de casos de utilização da IA.
(9)    Documento SWD (2021) 84 final da Comissão, Impact assessment accompanying the Artificial Intelligence Act (não traduzido para português), p. 88.
(10)    Proposta de regulamento do Parlamento Europeu e do Conselho relativo à segurança geral dos produtos [COM(2021) 346 final].
(11)    Proposta de regulamento do Parlamento Europeu e do Conselho relativo às máquinas e seus componentes e acessórios [COM(2021) 202 final].
(12)    Regulamento Delegado (UE) 2022/30 da Comissão, de 29 de outubro de 2021, que complementa a Diretiva 2014/53/UE do Parlamento Europeu e do Conselho no que diz respeito à aplicação dos requisitos essenciais referidos no artigo 3.º, n.º 3, alíneas d), e) e f), dessa diretiva (JO L 7 de 12.1.2022, p. 6).
(13)    Comunicação da Comissão: Construir o futuro digital da Europa [COM(2020) 67 final].
(14)    Proposta de regulamento do Parlamento Europeu e do Conselho relativo a requisitos horizontais de cibersegurança para os produtos com elementos digitais — COM(2022) 454 final].
(15)    Comunicação da Comissão: Uma estratégia europeia para os dados — COM(2020) 66 final.
(16)    Comunicação da Comissão ao Parlamento Europeu, ao Conselho Europeu, ao Conselho, ao Comité Económico e Social Europeu e ao Comité das Regiões: Pacto Ecológico Europeu [COM(2019) 640 final].
(17)    Deloitte, Study to support the Commission’s IA on liability for artificial intelligence (não traduzido para português), 2021 («estudo económico»).
(18)    National Artificial Intelligence Strategy of the Czech Republic (não traduzido para português), 2019: https://www.mpo.cz/assets/en/guidepost/for-the-media/press-releases/2019/5/NAIS_eng_web.pdf ; AI Watch, national strategies on artificial intelligence —A European perspective (não traduzido para português), edição de 2021 — Relatório JRC-OCDE: https://op.europa.eu/en/publication-detail/-/publication/619fd0b5-d3ca-11eb-895a-01aa75ed71a1 , p. 41.
(19)    2025 Strategia per l’innovazione tecnologica e la digitalizzazione del Paese (não traduzido para português): https://assets.innovazione.gov.it/1610546390-midbook2025.pdf ;.
(20)    Deloitte, Study to support the Commission’s IA on liability for artificial intelligence (não traduzido para português), 2021, p. 96.
(21)    Ver Polityka Rozwoju Sztucznej. Inteligencji w Polsce na lata 2019-2027 (Política de desenvolvimento da inteligência artificial na Polónia para o período 2019-2027) ( www.gov.pl/attachment/0aa51cd5-b934-4bcb-8660-bfecb20ea2a9 ), pp. 102-103.
(22)    AI Portugal 2030 (não traduzido para português): https://www.incode2030.gov.pt/sites/default/files/julho_incode_brochura.pdf ; AI Watch, op. cit., p. 113.
(23)    Principalmente a responsabilidade objetiva, a inversão do ónus da prova ou a redução do ónus da prova sob a forma de presunções inilidíveis ou ilidíveis.
(24)    Disponível em < https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/F_pt >.
(25)    Liability for artificial intelligence and other emerging digital technologies (não traduzido para português), novembro de 2019, https://op.europa.eu/en/publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1/language-en .
(26)    Karner/Koch/Geistfeld, Comparative Law Study on Civil Liability for Artificial Intelligence (não traduzido para português), 2021, https://op.europa.eu/en/publication-detail/-/publication/8a32ccc3-0f83-11ec-9151-01aa75ed71a1/language-en .
(27)    Kantar, Behavioural Study on the link between challenges of Artificial Intelligence for Member States’ civil liability rules and consumer attitudes towards AI-enabled products and services (não traduzido para português), Relatório final de 2021.
(28)    Deloitte, Study to support the Commission’s IA on liability for artificial intelligence (não traduzido para português), 2021.
(29)    JO C de , p. .
(30)    JO C de , p. .
(31)    [Proposta de regulamento que estabelece regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial), COM(2021) 206 final].
(32)    [Proposta de regulamento do Parlamento Europeu e do Conselho relativo à segurança geral dos produtos [COM(2021) 346 final].
(33)    [Proposta de regulamento do Parlamento Europeu e do Conselho relativo às máquinas e seus componentes e acessórios [COM(2021) 202 final].
(34)    Regulamento Delegado (UE) 2022/30 da Comissão, que complementa a Diretiva 2014/53/UE do Parlamento Europeu e do Conselho no que diz respeito à aplicação dos requisitos essenciais referidos no artigo 3.º, n.º 3, alíneas d), e) e f), dessa diretiva (JO L 7 de 12.1.2022, p. 6).
(35)    Diretiva 85/374/CEE do Conselho, de 25 de julho de 1985, relativa à aproximação das disposições legislativas, regulamentares e administrativas dos Estados-Membros em matéria de responsabilidade decorrente dos produtos defeituosos (JO L 210 de 7.8.1985, p. 29).
(36)    [Proposta de regulamento do Parlamento Europeu e do Conselho relativo a um mercado único de serviços digitais (Regulamento Serviços Digitais), COM(2020) 825 final].
(37)    Diretiva (UE) 2016/943 do Parlamento Europeu e do Conselho, de 8 de junho de 2016, relativa à proteção de know-how e de informações comerciais confidenciais (segredos comerciais) contra a sua aquisição, utilização e divulgação ilegais (JO L 157 de 15.6.2016, p. 1).
(38)    Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime de responsabilidade civil aplicável à inteligência artificial [2020/2014(INL)] (JO C 404 de 6.10.2021, p 107).
(39)    JO C 369 de 17.12.2011, p. 14.
(40)    Diretiva (UE) 2020/1828 do Parlamento Europeu e do Conselho, de 25 de novembro de 2020, relativa a ações coletivas para proteção dos interesses coletivos dos consumidores e que revoga a Diretiva 2009/22/CE (JO L 409 de 4.12.2020, p. 1).
Top