EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52021SC0085

DOCUMENTO DE TRABALHO DOS SERVIÇOS DA COMISSÃO RELATÓRIO DO RESUMO DA AVALIAÇÃO DE IMPACTO que acompanha o documento Proposta de Regulamento do Parlamento Europeu e do Conselho QUE ESTABELECE REGRAS HARMONIZADAS EM MATÉRIA DE INTELIGÊNCIA ARTIFICIAL (REGULAMENTO INTELIGÊNCIA ARTIFICIAL) E ALTERA DETERMINADOS ATOS LEGISLATIVOS DA UNIÃO

SWD/2021/85 final

Bruxelas, 21.4.2021

SWD(2021) 85 final

DOCUMENTO DE TRABALHO DOS SERVIÇOS DA COMISSÃO

RELATÓRIO DO RESUMO DA AVALIAÇÃO DE IMPACTO

que acompanha o documento

Proposta de Regulamento do Parlamento Europeu e do Conselho

QUE ESTABELECE REGRAS HARMONIZADAS EM MATÉRIA DE INTELIGÊNCIA ARTIFICIAL (REGULAMENTO INTELIGÊNCIA ARTIFICIAL) E ALTERA DETERMINADOS ATOS LEGISLATIVOS DA UNIÃO

{COM(2021) 206 final} - {SEC(2021) 167 final} - {SWD(2021) 84 final}


Ficha de síntese

Avaliação de impacto relativa ao quadro regulamentar em matéria de inteligência artificial

A. Necessidade de agir

Qual o problema e por que motivo tem dimensão europeia?

A inteligência artificial (IA) é uma tecnologia emergente caracterizada pela polivalência: trata-se de uma família de técnicas de programação informática extremamente poderosas. A aceitação e adoção dos sistemas de IA tem um grande potencial no que toca a beneficiar a sociedade, gerar crescimento económico e melhorar a inovação e a competitividade global da UE. Contudo, em determinados casos, a utilização de sistemas de IA pode criar problemas. As características específicas de determinados sistemas de IA podem criar novos riscos relacionados com a segurança e a proteção e com os direitos fundamentais, bem como acelerar a probabilidade ou intensidade dos riscos existentes. Os sistemas de IA também dificultam o trabalho das autoridades policiais no que toca a verificar e garantir o cumprimento das regras existentes. Por outro lado, este conjunto de questões pode implicar insegurança jurídica para as empresas, uma aceitação potencialmente mais lenta das tecnologias de IA, devido à falta de confiança, por parte das empresas e dos cidadãos, bem como respostas regulamentares das autoridades nacionais para atenuar possíveis riscos externos que possam fragmentar o mercado interno.

Quais são os resultados esperados?

O quadro regulamentar visa dar resposta a estes problemas, para assegurar o correto funcionamento do mercado único mediante a criação de condições para o desenvolvimento e a utilização de IA fiável na União. Os objetivos específicos são: 1) garantir que os sistemas de IA colocados no mercado e utilizados são seguros e respeitam a legislação em vigor em matéria de direitos fundamentais e os valores da União; 2) garantir a segurança jurídica para facilitar os investimentos e a inovação no domínio da IA; 3) melhorar a governação e a aplicação efetiva da legislação em vigor em matéria de direitos fundamentais e dos requisitos de segurança aplicáveis aos sistemas de IA; 4) facilitar o desenvolvimento de um mercado único para sistemas de IA legítimos, seguros e de confiança, assim como evitar a fragmentação do mercado.

Qual é o valor acrescentado da ação a nível da UE (subsidiariedade)? 

A natureza transfronteiriça dos dados e conjuntos de dados de grande escala que estão frequentemente subjacentes às aplicações de IA significa que os objetivos da iniciativa não podem ser alcançados de forma eficaz por ações individuais dos Estados-Membros. O quadro regulamentar europeu para uma IA de confiança visa estabelecer regras harmonizadas relativas ao desenvolvimento, à colocação no mercado e à utilização de produtos e serviços que integram tecnologia de IA ou de aplicações de IA autónomas na União. O seu objetivo passa por assegurar condições de concorrência equitativas e proteger todos os cidadãos europeus, reforçando simultaneamente a competitividade e a base industrial da Europa no domínio da IA. A ação da União relativamente à inteligência artificial impulsionará o mercado interno e tem um potencial significativo para conferir à indústria europeia uma vantagem competitiva a nível global, baseada em economias de escala que não podem ser alcançadas individualmente pelos Estados-Membros.

B. Soluções

Quais são as várias opções para cumprir os objetivos? Há alguma opção preferida? Em caso negativo, por que razão?

Foram consideradas as seguintes opções: opção 1: um instrumento legislativo da UE que criasse um regime de rotulagem voluntária; opção 2: uma abordagem ad hoc a nível setorial; opção 3: um instrumento legislativo horizontal da UE que estabelecesse requisitos obrigatórios para aplicações de IA de risco elevado; opção 3+: idêntica à opção 3, mas incluindo também códigos de conduta voluntários para aplicações de IA que não sejam de risco elevado; opção 4: um instrumento legislativo horizontal da UE que estabelecesse requisitos obrigatórios para todas as aplicações de IA. É dada preferência à opção 3+, uma vez que oferece salvaguardas proporcionadas contra os riscos colocados pela IA, ao mesmo tempo que limita ao mínimo os custos administrativos e de conformidade. A questão específica da responsabilidade associada às aplicações de IA será abordada por regras futuras distintas e, como tal, não se encontra abrangida pelas opções apresentadas.

Quais são as perspetivas dos vários intervenientes? Quem apoia cada uma das opções?

De modo geral, as empresas, as autoridades públicas, os académicos e as organizações não governamentais concordam que existem lacunas legislativas ou que é necessário adotar nova legislação; porém, no caso das empresas, a maioria que partilha desta opinião é menos expressiva. A indústria e as autoridades públicas concordam que é necessário limitar os requisitos obrigatórios impostos às aplicações de IA de risco elevado. Os cidadãos e a sociedade civil são mais suscetíveis de discordar da necessidade de limitar os requisitos obrigatórios impostos às aplicações de risco elevado.

C. Impactos da opção preferida

Quais são os benefícios da opção preferida (se existir; caso contrário, das principais opções)?

Para os cidadãos, a opção preferida atenuará os riscos para a sua segurança e para os seus direitos fundamentais. Para os fornecedores de IA, criará segurança jurídica e assegurará que não surjam obstáculos ao fornecimento transfronteiriço de produtos e serviços relacionados com a IA. No caso das empresas que utilizam a IA, promoverá a confiança entre os seus clientes. No caso das administrações públicas nacionais, esta opção promoverá a confiança pública na utilização da IA e reforçará os mecanismos de execução (mediante a introdução de um mecanismo de coordenação europeu, do fornecimento das capacidades adequadas e da facilitação das auditorias dos sistemas de IA com a aplicação de novos requisitos relacionados com a documentação, a rastreabilidade e a transparência).

Quais são os custos da opção preferida (se existir; caso contrário, das principais opções)?

As empresas ou as autoridades públicas que desenvolvam ou utilizem aplicações de IA que constituem um risco elevado para a segurança ou para os direitos fundamentais dos cidadãos terão de cumprir requisitos e obrigações horizontais específicas, que serão estabelecidas por meio de normas técnicas harmonizadas. Estima-se que o custo agregado total do cumprimento se situe entre 100 milhões de EUR e 500 milhões de EUR até 2025, correspondente a um montante até 4 %-5 % do investimento em IA de risco elevado (que, segundo as estimativas, representará entre 5 % e 15 % de todas as aplicações de IA). Os custos de verificação podem ascender a outros 2 %-5 % do investimento em IA de risco elevado. As empresas ou autoridades públicas que desenvolvam ou utilizem quaisquer aplicações de IA não classificadas como de risco elevado não terão de incorrer em qualquer custo. Contudo, podem optar por aderir a códigos de conduta voluntários para seguirem requisitos adequados e assegurarem a fiabilidade das suas soluções de IA. Nesses casos, os custos poderão, no máximo, ser tão elevados quanto os custos impostos às aplicações de risco elevado, mas provavelmente serão inferiores.

Quais são os efeitos para as PME e a competitividade?

O aumento do nível de confiança geral na IA beneficiará mais as PME do que as grandes empresas, que também podem contar com a imagem pública das suas marcas. As PME que desenvolvam aplicações classificadas como de risco elevado terão de suportar custos idênticos aos das grandes empresas. Na verdade, devido à grande escalabilidade das tecnologias digitais, as pequenas e médias empresas podem ter um alcance enorme não obstante a sua dimensão reduzida, podendo potencialmente ter impacto em milhões de indivíduos. Como tal, no que toca a aplicações de risco elevado, excluir as PME que fornecem IA da aplicação do quadro regulamentar pode prejudicar gravemente o objetivo de reforço da confiança. Contudo, o quadro deverá prever medidas específicas, incluindo ambientes de testagem da regulamentação ou prestação de assistência por via dos polos de inovação digital, para apoiar as PME no que toca ao cumprimento das novas regras, tendo em conta as suas necessidades especiais.

Haverá impactos significativos nos orçamentos e administrações nacionais? 

Os Estados-Membros terão de designar autoridades de controlo responsáveis pela aplicação dos requisitos legislativos. A função de controlo destas autoridades pode assentar nos mecanismos já existentes, por exemplo relativamente aos organismos de avaliação da conformidade ou à fiscalização do mercado, mas exigirá conhecimentos tecnológicos e recursos suficientes. Em função da estrutura preexistente em cada Estado-Membro, este valor pode variar entre 1 e 25 equivalentes a tempo completo por Estado-Membro.

Haverá outros impactos significativos? 

A opção preferida atenuaria significativamente os riscos para os direitos fundamentais dos cidadãos, bem como para os valores da União em geral, e reforçaria a segurança de determinados produtos e serviços que integram tecnologia de IA ou de aplicações de IA autónomas.

Proporcionalidade? 

A proposta é proporcionada e necessária para alcançar os objetivos, uma vez que segue uma abordagem baseada no risco e só impõe encargos regulamentares quando os sistemas de IA são suscetíveis de constituir riscos elevados para os direitos fundamentais ou para a segurança. Não sendo esse o caso, apenas são impostas obrigações mínimas de transparência, especialmente em termos da prestação de informações para sinalizar a utilização de um sistema de IA quando este interage com seres humanos ou a utilização de falsificações profundas, se estas não forem utilizadas para fins legítimos. As normas harmonizadas e as orientações de apoio, bem como as ferramentas de conformidade, visarão auxiliar os fornecedores e os utilizadores a cumprirem os requisitos e a minimizarem os custos incorridos.

D. Acompanhamento

Quando será reexaminada a política?

A Comissão publicará um relatório de avaliação e reexame do quadro cinco anos após a data de aplicação do mesmo.

Top