EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52023AP0236

Alterações aprovadas pelo Parlamento Europeu, em 14 de junho de 2023, sobre a proposta de regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial) e altera determinados atos legislativos da união (COM(2021)0206 — C9-0146/2021 — 2021/0106(COD))

JO C, C/2024/506, 23.1.2024, ELI: http://data.europa.eu/eli/C/2024/506/oj (BG, ES, CS, DA, DE, ET, EL, EN, FR, GA, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

ELI: http://data.europa.eu/eli/C/2024/506/oj

European flag

Jornal Oficial
da União Europeia

PT

Série C


C/2024/506

23.1.2024

P9_TA(2023)0236

Regulamento Inteligência Artificial

Alterações aprovadas pelo Parlamento Europeu, em 14 de junho de 2023, sobre a proposta de regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial) e altera determinados atos legislativos da união (COM(2021)0206 — C9-0146/2021 — 2021/0106(COD)) (1)

(Processo legislativo ordinário: primeira leitura)

(C/2024/506)

Alteração 1

Proposta de regulamento

Citação 4-A (nova)

Texto da Comissão

Alteração

 

Tendo em conta o parecer do Banco Central Europeu,

Alteração 2

Proposta de regulamento

Citação 4-B (nova)

Texto da Comissão

Alteração

 

Tendo em conta o parecer conjunto do Comité Europeu para a Proteção de Dados e da Autoridade Europeia para a Proteção de Dados,

Alteração 3

Proposta de regulamento

Considerando 1

Texto da Comissão

Alteração

(1)

A finalidade do presente regulamento é  melhorar o funcionamento do mercado interno mediante o estabelecimento de um quadro jurídico uniforme para o desenvolvimento, a comercialização e a utilização da inteligência artificial em conformidade com os valores da União. O presente regulamento observa um conjunto de razões imperativas de reconhecido interesse público , como o elevado nível de proteção da saúde, da segurança e dos direitos fundamentais, e assegura a livre circulação transfronteiras de produtos e serviços baseados em inteligência artificial, evitando assim que os Estados-Membros imponham restrições ao desenvolvimento, à comercialização e à utilização dos sistemas de inteligência artificial, salvo se explicitamente autorizado pelo presente regulamento.

(1)

A finalidade do presente regulamento é  promover a adoção de uma inteligência artificial centrada no ser humano e fiável e assegurar um elevado nível de proteção da saúde, da segurança, dos direitos fundamentais, da democracia , do Estado de direito e do ambiente contra os efeitos nocivos dos sistemas de inteligência artificial na União, apoiando simultaneamente a inovação e melhorando o funcionamento do mercado interno. O presente regulamento estabelece um quadro jurídico uniforme para o desenvolvimento , a colocação no mercado , a entrada em serviço e a utilização de inteligência artificial em conformidade com os valores da União e assegura a livre circulação transfronteiras de produtos e serviços baseados em inteligência artificial, evitando assim que os Estados-Membros imponham restrições ao desenvolvimento, à comercialização e à utilização dos sistemas de inteligência artificial (sistemas IA) , salvo se explicitamente autorizado pelo presente regulamento. Determinados sistemas de IA podem também ter impacto na democracia, no Estado de direito e no ambiente. Estas preocupações são especificamente abordadas nos setores críticos e enunciam casos enumerados nos anexos do presente regulamento.

Alteração 4

Proposta de regulamento

Considerando 1-A (novo)

Texto da Comissão

Alteração

 

(1-A)

O presente regulamento deve preservar os valores da União, facilitando a repartição dos benefícios da inteligência artificial pela sociedade, protegendo as pessoas dos riscos, assim como as empresas, a democracia, o Estado de direito e o ambiente, e estimulando, ao mesmo tempo, a inovação e o emprego de modo a colocar a Europa numa posição de liderança neste domínio.

Alteração 5

Proposta de regulamento

Considerando 2

Texto da Comissão

Alteração

(2)

Os sistemas de inteligência artificial ( sistemas de IA) podem ser implantados facilmente em vários setores da economia e da sociedade, incluindo além fronteiras, e circular por toda a União. Certos Estados-Membros já ponderaram a adoção de regras nacionais para assegurar que a inteligência artificial seja segura e seja desenvolvida e utilizada em conformidade com as obrigações de proteção dos direitos fundamentais. As diferenças entre regras nacionais podem conduzir à fragmentação do mercado interno e reduzir a segurança jurídica para os operadores que desenvolvem ou utilizam sistemas de IA. Como tal, é necessário assegurar um nível de proteção elevado e coerente em toda a União e evitar divergências que prejudiquem a livre circulação dos sistemas de IA e dos produtos e serviços conexos no mercado interno, mediante o estabelecimento de obrigações uniformes para os operadores e a garantia da proteção uniforme das razões imperativas de reconhecido interesse público e dos direitos das pessoas em todo o mercado interno, com base no artigo 114.o do Tratado sobre o Funcionamento da União Europeia (TFUE). Visto que o presente regulamento contém regras específicas aplicáveis à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais, nomeadamente restrições à utilização de sistemas de IA para a identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública, é apropriado basear este regulamento no artigo 16.o do TFUE, no respeitante a essas regras específicas. Face a essas regras específicas e ao recurso ao artigo 16.o do TFUE, é apropriado consultar o Comité Europeu para a Proteção de Dados.

(2)

Os sistemas de IA podem ser implantados facilmente em vários setores da economia e da sociedade, incluindo além-fronteiras, e circular por toda a União. Certos Estados-Membros já ponderaram a adoção de regras nacionais para assegurar que a inteligência artificial seja de confiança e segura e seja desenvolvida e utilizada em conformidade com as obrigações de proteção dos direitos fundamentais. As diferenças entre regras nacionais podem conduzir à fragmentação do mercado interno e reduzir a segurança jurídica para os operadores que desenvolvem ou utilizam sistemas de IA. Como tal, é necessário assegurar um nível de proteção elevado e coerente em toda a União , com vista a alcançar uma IA de confiança, e evitar divergências que prejudiquem a livre circulação , a inovação, a implantação e a adoção dos sistemas de IA e dos produtos e serviços conexos no mercado interno, mediante o estabelecimento de obrigações uniformes para os operadores e a garantia da proteção uniforme das razões imperativas de reconhecido interesse público e dos direitos das pessoas em todo o mercado interno, com base no artigo 114.o do Tratado sobre o Funcionamento da União Europeia (TFUE).

Alteração 6

Proposta de regulamento

Considerando 2-A (novo)

Texto da Comissão

Alteração

 

(2-A)

Uma vez que a inteligência artificial depende frequentemente do tratamento de grandes volumes de dados, e de muitos sistemas e aplicações de IA para o tratamento de dados pessoais, afigura-se adequado basear o presente regulamento no artigo 16.o do TFUE, que consagra o direito das pessoas singulares a serem protegidas no tratamento de dados pessoais e prevê a adoção de regras aplicáveis à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais.

Alteração 7

Proposta de regulamento

Considerando 2-B (novo)

Texto da Comissão

Alteração

 

(2-B)

O direito fundamental à proteção dos dados pessoais está salvaguardado, em particular nos Regulamentos (UE) 2016/679 e (UE) 2018/1725 e na Diretiva (UE) 2016/680. Além disso, a Diretiva 2002/58/CE protege a vida privada e a confidencialidade das comunicações, incluindo a criação de condições para o armazenamento de dados pessoais e não pessoais em equipamentos terminais e o acesso a esses dados a partir de tais equipamentos. Estes atos jurídicos constituem a base para um tratamento dos dados sustentável e responsável, nomeadamente nos casos em que os conjuntos de dados contêm uma combinação de dados pessoais e não pessoais. O presente regulamento não visa afetar a aplicação do direito da União já em vigor que rege o tratamento de dados pessoais, incluindo as funções e as competências das autoridades de supervisão independentes que são responsáveis pelo controlo do cumprimento desses instrumentos. O presente regulamento não afeta os direitos fundamentais à vida privada e à proteção de dados pessoais, previstos no direito da União em matéria de proteção de dados e privacidade e consagrados na Carta dos Direitos Fundamentais da União Europeia (a seguir designada por «a Carta»).

Alteração 8

Proposta de regulamento

Considerando 2-C (novo)

Texto da Comissão

Alteração

 

(2-C)

Os sistemas de inteligência artificial na União estão sujeitos à legislação pertinente em matéria de segurança dos produtos que estabelece um quadro de proteção dos consumidores contra produtos perigosos em geral, legislação essa que deverá continuar a ser aplicável. O presente regulamento não prejudica igualmente as regras estabelecidas por outros atos jurídicos da União relativos à proteção do consumidor e à segurança dos produtos, incluindo o Regulamento (UE) 2017/2394, o Regulamento (UE) 2019/1020 e a Diretiva 2001/95/CE relativa à segurança geral dos produtos, bem como a Diretiva 2013/11/UE.

Alteração 9

Proposta de regulamento

Considerando 2-D (novo)

Texto da Comissão

Alteração

 

(2-D)

Em conformidade com o artigo 114.o, n.o 2, do TFUE, o presente regulamento complementa e não deve prejudicar os direitos e interesses dos trabalhadores. Por conseguinte, o presente regulamento não deve prejudicar o direito da UE em matéria de política social e de legislações laborais nacionais e respetivas práticas, ou seja, qualquer disposição legal e contratual relativa às condições de emprego, às condições de trabalho, incluindo a saúde e segurança no trabalho e a relação entre empregadores e trabalhadores, incluindo a informação, consulta e participação. O presente regulamento não deve prejudicar o exercício dos direitos fundamentais reconhecidos pelos Estados-Membros e a nível da União, incluindo o direito ou a liberdade de fazer greve ou a liberdade de realizar outras ações abrangidas pelos sistemas específicos de relações laborais dos Estados-Membros, em conformidade com o direito e/ou as práticas nacionais. Também não deve afetar as práticas de concertação, o direito de negociar, celebrar e aplicar convenções coletivas ou o direito de ação coletiva, em conformidade com o direito e/ou as práticas nacionais. Em qualquer caso, não deve impedir a Comissão de propor legislação específica sobre os direitos e liberdades dos trabalhadores afetados pelos sistemas de IA.

Alteração 10

Proposta de regulamento

Considerando 2-E (novo)

Texto da Comissão

Alteração

 

(2-E)

O presente regulamento não deve afetar as disposições destinadas a melhorar as condições de trabalho nas plataformas de trabalho previstas na Diretiva … [COD 2021/414/CE].

Alteração 11

Proposta de regulamento

Considerando 2-F (novo)

Texto da Comissão

Alteração

 

(2-F)

O presente regulamento deve ajudar a apoiar a investigação e a inovação e não deve comprometer a atividade de investigação e desenvolvimento e respeitar a liberdade de investigação científica. Por conseguinte, é necessário excluir do seu âmbito de aplicação sistemas de IA especificamente desenvolvidos exclusivamente para fins de investigação científica e desenvolvimento e assegurar que o regulamento não afete a atividade de investigação científica e desenvolvimento em matéria de sistemas de IA. Seja em que circunstância for, qualquer atividade de investigação e desenvolvimento deve ser realizada em conformidade com a Carta, o direito da União e a legislação nacional.

Alteração 12

Proposta de regulamento

Considerando 3

Texto da Comissão

Alteração

(3)

A inteligência artificial é uma família de tecnologias em rápida evolução, capaz de oferecer um vasto conjunto de benefícios económicos e sociais a todo o leque de indústrias e atividades sociais. Ao melhorar as previsões, otimizar as operações e a repartição de recursos e personalizar as soluções digitais disponibilizadas às pessoas e às organizações, a utilização da inteligência artificial pode conferir importantes vantagens competitivas às empresas e contribuir para progressos sociais e ambientais, por exemplo, nos cuidados de saúde, na agricultura, na educação e na formação, na gestão das infraestruturas, na energia, nos transportes e logística, nos serviços públicos, na segurança, na justiça, na eficiência energética e dos recursos e na atenuação das alterações climáticas e adaptação às mesmas.

(3)

A inteligência artificial é uma família de tecnologias em rápida evolução, capaz de oferecer , e que já oferece mesmo, um vasto conjunto de benefícios económicos , ambientais e sociais a todo o leque de indústrias e atividades sociais , se desenvolvida de acordo com princípios gerais pertinentes em conformidade com a Carta e com os valores em que a União se alicerça . Ao melhorar as previsões, otimizar as operações e a repartição de recursos e personalizar as soluções digitais disponibilizadas às pessoas e às organizações, a utilização da inteligência artificial pode conferir importantes vantagens competitivas às empresas e contribuir para progressos sociais e ambientais, por exemplo, nos cuidados de saúde, na agricultura, na segurança alimentar, na educação e na formação, nos meios de comunicação social, no desporto, na cultura, na gestão das infraestruturas, na energia, nos transportes e logística, na gestão de crises, nos serviços públicos, na segurança, na justiça, na eficiência energética e dos recursos , na monitorização ambiental, na preservação e recuperação da biodiversidade e dos ecossistemas e na atenuação das alterações climáticas e adaptação às mesmas.

Alteração 13

Proposta de regulamento

Considerando 3-A (novo)

Texto da Comissão

Alteração

 

(3-A)

Para contribuírem para serem atingidas as metas de neutralidade carbónica, as empresas europeias devem procurar utilizar todos os avanços tecnológicos disponíveis que possam contribuir para a consecução deste objetivo. A IA é uma tecnologia que pode potencialmente ser utilizada para tratar a quantidade cada vez maior de dados gerados durante processos industriais, ambientais, de saúde e outros. Para facilitar os investimentos em soluções de análise e otimização baseadas na IA, o presente regulamento deve proporcionar um ambiente previsível e proporcionado para soluções industriais de baixo risco.

Alteração 14

Proposta de regulamento

Considerando 4

Texto da Comissão

Alteração

(4)

Ao mesmo tempo, em função das circunstâncias relativas à sua aplicação e utilização específicas, a inteligência artificial pode criar riscos e prejudicar interesses públicos e direitos protegidos pela legislação da União. Esses prejuízos podem ser materiais ou imateriais.

(4)

Ao mesmo tempo, em função das circunstâncias relativas à sua aplicação e utilização específicas, bem como do nível de desenvolvimento tecnológico, a inteligência artificial pode criar riscos e prejudicar interesses públicos ou privados e direitos fundamentais das pessoas singulares que estão protegidos pela legislação da União. Esses prejuízos podem ser materiais ou imateriais , incluindo danos físicos, psicológicos, sociais ou económicos .

Alteração 15

Proposta de regulamento

Considerando 4-A (novo)

Texto da Comissão

Alteração

 

(4-A)

Tendo em conta o grande impacto que a inteligência artificial pode ter na sociedade e a necessidade de criar confiança, é fundamental que a inteligência artificial e o seu quadro regulamentar sejam desenvolvidos em conformidade com os valores da União consagrados no artigo 2.o do TUE, os direitos e liberdades fundamentais consagrados nos Tratados, a Carta e o direito internacional em matéria de direitos humanos. Como condição prévia, a inteligência artificial deve ser uma tecnologia centrada no ser humano. Não deve substituir a autonomia humana nem assumir a perda de liberdade individual e deve servir, em primeiro lugar, as necessidades da sociedade e o bem comum. Devem ser previstas salvaguardas para assegurar o desenvolvimento e a utilização de inteligência artificial eticamente incorporada que respeite os valores da União e a Carta.

Alteração 16

Proposta de regulamento

Considerando 5

Texto da Comissão

Alteração

(5)

Como tal, é necessário adotar um quadro jurídico da União que estabeleça regras harmonizadas em matéria de inteligência artificial para promover o desenvolvimento, a utilização e a adoção da inteligência artificial no mercado interno e que, ao mesmo tempo, proporcione um nível elevado de proteção de interesses públicos, como a saúde e a segurança e a proteção dos direitos fundamentais, conforme reconhecido e protegido pelo direito da União. Para alcançar esse objetivo, torna-se necessário estabelecer regras aplicáveis à colocação no mercado e  à colocação em serviço de determinados sistemas de IA, garantindo assim o correto funcionamento do mercado interno e permitindo que esses sistemas beneficiem do princípio de livre circulação dos produtos e dos serviços. Ao estabelecer essas regras, o presente regulamento apoia o objetivo da União de estar na vanguarda mundial do desenvolvimento de uma inteligência artificial que seja segura, ética e de confiança, conforme mencionado pelo Conselho Europeu (33) e garante a proteção de princípios éticos, conforme solicitado especificamente pelo Parlamento Europeu (34).

(5)

Como tal, é necessário adotar um quadro jurídico da União que estabeleça regras harmonizadas em matéria de inteligência artificial para promover o desenvolvimento, a utilização e a adoção da inteligência artificial no mercado interno e que, ao mesmo tempo, proporcione um nível elevado de proteção de interesses públicos, como a saúde e a segurança, a proteção dos direitos fundamentais, a democracia e o Estado de direito e o ambiente, conforme reconhecido e protegido pelo direito da União. Para alcançar esse objetivo, torna-se necessário estabelecer regras aplicáveis à colocação no mercado e em serviço e à utilização de determinados sistemas de IA, garantindo assim o correto funcionamento do mercado interno e permitindo que esses sistemas beneficiem do princípio de livre circulação dos produtos e dos serviços. Estas regras devem ser claras e sólidas na proteção dos direitos fundamentais, apoiando novas soluções inovadoras e permitindo um ecossistema europeu de intervenientes públicos e privados que criem sistemas de IA em consonância com os valores da União. Ao estabelecer essas regras, bem como medidas de apoio à inovação, com especial destaque para as PME e as empresas em fase de arranque, o presente regulamento apoia o objetivo de promover a IA desenvolvida na UE, assim como o objetivo da União de estar na vanguarda mundial do desenvolvimento de uma inteligência artificial que seja segura, ética e de confiança, conforme mencionado pelo Conselho Europeu (33), e garante a proteção de princípios éticos, conforme solicitado especificamente pelo Parlamento Europeu (34).

Alteração 17

Proposta de regulamento

Considerando 5-A (novo)

Texto da Comissão

Alteração

 

(5-A)

Além disso, para promover o desenvolvimento dos sistemas de IA em consonância com os valores da União, a União deve colmatar as principais lacunas e os obstáculos que impedem o potencial da transformação digital, e designadamente a escassez de trabalhadores com competências digitais, as preocupações em matéria de cibersegurança, a falta de investimento e o acesso a este, bem como o fosso existente e potencial entre as grandes empresas, as PME e as empresas em fase de arranque. Deve dar-se uma atenção especial à necessidade de garantir que os benefícios da IA e da inovação nas novas tecnologias se façam sentir em todas as regiões da União e que sejam disponibilizados investimentos e recursos suficientes, especialmente para as regiões que possam estar atrasadas em alguns indicadores digitais.

Alteração 18

Proposta de regulamento

Considerando 6

Texto da Comissão

Alteração

(6)

A definição de «sistema de IA» deve ser inequívoca, para assegurar a segurança jurídica, concedendo em simultâneo a flexibilidade suficiente para se adaptar a  futuras evoluções tecnológicas. A definição deve basear-se nas principais características funcionais do software , em particular a capacidade, tendo em vista um determinado conjunto de objetivos definidos pelos seres humanos, de criar resultados, tais como conteúdos, previsões, recomendações ou decisões que influenciam o ambiente com o qual o sistema interage, quer numa dimensão física, quer digital. Os sistemas de IA podem ser concebidos para operar com diferentes níveis de autonomia e ser utilizados autonomamente ou como componente de um produto, independentemente de o sistema estar fisicamente incorporado no produto (integrado) ou servir a funcionalidade do produto sem estar incorporado nele (não integrado) . A definição de «sistema de IA» deve ser completada por uma lista de técnicas e abordagens específicas utilizadas para o seu desenvolvimento, que deve ser atualizada face à evolução do mercado e da tecnologia, mediante a adoção de atos delegados da Comissão que alterem essa lista.

(6)

A definição de «sistema de IA» constante do presente regulamento deve ser inequívoca e estar estreitamente alinhada com o trabalho das organizações internacionais ativas no domínio da inteligência artificial , para assegurar a segurança jurídica, a harmonização e a ampla aceitação, proporcionando em simultâneo a flexibilidade suficiente para se adaptar a  rápidas evoluções tecnológicas neste domínio . Além disso, deve basear-se em características principais da inteligência artificial , tais como a sua capacidade de aprendizagem, raciocínio ou modelização, para a distinguir de sistemas de software ou abordagens de programação mais simples. Os sistemas de IA são concebidos para operar com diferentes níveis de autonomia, o que significa que têm , pelo menos , um certo grau de independência das ações efetuadas por controlo humano e capacidades para funcionar sem intervenção humana. O termo «baseado em máquinas» refere-se ao facto de os sistemas de IA requererem o uso de máquinas. A referência a objetivos explícitos ou implícitos visa sublinhar que os sistemas de IA podem funcionar de acordo com objetivos explícitos definidos por seres humanos ou com objetivos implícitos. Os objetivos do sistema de IA podem ser diferentes da finalidade prevista para o sistema de IA num contexto específico . A referência às previsões inclui conteúdos, que são considerados no presente regulamento uma forma de previsão um dos resultados possíveis produzidos por um sistema de IA. Para efeitos do presente regulamento, o ambiente deve ser entendido nos contextos em que os sistemas de IA funcionam, ao passo que os resultados gerados pelo sistema de IA, ou seja, as previsões, recomendações ou decisões, respondem perante os objetivos do sistema, com base em contributos desse ambiente . Essa produção influencia ainda mais o ambiente em causa, ainda que através da mera introdução de nova informação.

Alteração 19

Proposta de regulamento

Considerando 6-A (novo)

Texto da Comissão

Alteração

 

(6-A)

Os sistemas de IA possuem frequentemente capacidade de aprendizagem automática que lhes permitem adaptar-se e desempenharem novas tarefas de uma forma autónoma. A aprendizagem automática envolve um processo computacional de otimização, a partir de dados, dos parâmetros do modelo, sob a forma de uma construção matemática que gera um resultado baseado em dados de entrada. As abordagens para a aprendizagem automática incluem, por exemplo, uma aprendizagem supervisionada, não supervisionada e por reforço, utilizando uma grande variedade de métodos de que faz parte a aprendizagem profunda recorrendo a redes neurais. O presente regulamento visa fazer face a novos riscos potenciais que possam surgir delegando o controlo em sistemas de IA, em especial sistemas de IA que possam evoluir após a sua implantação. A função e os resultados de muitos destes sistemas de IA baseiam-se em relações matemáticas abstratas que são difíceis de compreender pelos seres humanos e de monitorizar e cujos contributos específicos são também difíceis de rastrear. Estas características complexas e opacas (elemento de caixa negra) têm o seu impacto sobre a responsabilização e a capacidade de explicar. Técnicas comparativamente mais simples como as abordagens baseadas no conhecimento, as estimativas bayesianas ou o esquema de tomada de decisões sob a forma de árvore podem também conduzir a lacunas jurídicas que devem ser abordadas no presente regulamento, em especial quando são utilizadas em combinação com abordagens de aprendizagem automática em sistemas híbridos.

Alteração 20

Proposta de regulamento

Considerando 6-B (novo)

Texto da Comissão

Alteração

 

(6-B)

Os sistemas de IA podem ser usados como um sistema de software independente, integrados num produto físico, utilizados para servir a funcionalidade de um produto físico sem estar incorporado nele (não integrados) ou utilizados como componente de IA de um sistema mais vasto. Se este sistema de maior dimensão não funcionar sem a componente de IA em questão, todo o sistema de maior dimensão deve ser considerado como um único sistema de IA nos termos do presente regulamento.

Alteração 21

Proposta de regulamento

Considerando 7

Texto da Comissão

Alteração

(7)

A definição de «dados biométricos» utilizada no presente regulamento está em consonância e deve ser interpretada de forma coerente com a definição de «dados biométricos» constante do artigo 4.o, ponto 14, do Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho (35), do artigo 3.o , ponto 18 , do Regulamento (UE) 2018/1725 do Parlamento Europeu e do Conselho  (36) e do artigo 3.o , ponto 13 , da Diretiva (UE) 2016/680 do Parlamento Europeu e do Conselho  (37) .

(7)

A definição de «dados biométricos» utilizada no presente regulamento está em consonância e deve ser interpretada de forma coerente com a definição de «dados biométricos» constante do artigo 4.o, ponto 14, do Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho (35) . Os dados baseados na biometria são dados adicionais resultantes de um tratamento técnico específico relacionado com os sinais físicos , fisiológicos ou comportamentais de uma pessoa singular , como expressões faciais , movimentos, frequência cardíaca, voz, digitação ou marcha, que podem, ou não , permitir a identificação ou confirmar a identificação única de uma pessoa singular .

Alteração 22

Proposta de regulamento

Considerando 7-A (novo)

Texto da Comissão

Alteração

 

(7-A)

A definição de «identificação biométrica» usada neste regulamento deve ser entendida como o reconhecimento automatizado de características humanas físicas, fisiológicas, comportamentais e psicológicas, tais como o rosto, o movimento dos olhos, as expressões faciais, a forma do corpo, a voz, a fala, a marcha, a postura, a frequência cardíaca, a pressão arterial, o odor, a força dos dedos ao digitar, reações psicológicas (raiva, angústia, tristeza, etc.) com o objetivo de verificar a identidade de um indivíduo, comparando os dados biométricos desse indivíduo com dados biométricos de indivíduos armazenados numa base de dados (identificação de um-para-muitos), independentemente do seu respetivo e prévio consentimento;

Alteração 23

Proposta de regulamento

Considerando 7-B (novo)

Texto da Comissão

Alteração

 

(7-B)

A definição de «categorização biométrica» utilizada neste regulamento deve ser entendida como a inserção de indivíduos em categorias específicas, ou o processo de inferir as suas características e atributos, como o género, sexo, idade, cor do cabelo, cor dos olhos, tatuagens, origem étnica ou social, saúde, capacidade mental ou física, traços comportamentais ou de personalidade, características da linguagem, religião, ou pertença a uma minoria nacional, ou orientação sexual ou política, com base nos seus dados biométricos ou de base biométrica, ou que possam ser razoavelmente inferidos a partir desses dados.

Alteração 24

Proposta de regulamento

Considerando 8

Texto da Comissão

Alteração

(8)

O conceito de «sistema de identificação biométrica à distância» utilizado no presente regulamento deve ser definido, de modo funcional, como um sistema de IA que se destina à identificação de pessoas singulares à distância por meio da comparação dos dados biométricos de uma pessoa com os dados biométricos contidos numa base de dados de referência, sem que se saiba, antecipadamente, se a pessoa visada estará presente e pode ser identificada, independentemente da tecnologia, dos processos ou dos tipos de dados biométricos utilizados. Tendo em conta as diferentes características e formas como são utilizados, bem como os diferentes riscos inerentes, deve ser efetuada uma distinção entre sistemas de identificação biométrica à distância «em tempo real» e «em diferido». No caso dos sistemas «em tempo real», a recolha dos dados biométricos, a comparação e a identificação ocorrem de imediato, quase de imediato ou, em todo o caso, sem um atraso significativo. Não pode haver, a este respeito, margem para contornar as regras do presente regulamento sobre a utilização «em tempo real» dos sistemas de IA em causa por via da introdução de ligeiros retardamentos no sistema. Os sistemas «em tempo real» implicam a utilização «ao vivo» ou «quase ao vivo» de materiais, como vídeos, criados por uma câmara ou outro dispositivo com uma funcionalidade semelhante. Por outro lado, no caso dos sistemas «em diferido», os dados biométricos já foram recolhidos e a comparação e a identificação ocorrem apenas após um atraso significativo. Estes sistemas utilizam materiais, tais como imagens ou vídeos, criados por câmaras de televisão em circuito fechado ou dispositivos privados antes de o sistema ser utilizado relativamente às pessoas singulares em causa.

(8)

O conceito de «sistema de identificação biométrica à distância» utilizado no presente regulamento deve ser definido, de modo funcional, como um sistema de IA que se destina à identificação de pessoas singulares à distância por meio da comparação dos dados biométricos de uma pessoa com os dados biométricos contidos numa base de dados de referência, sem que se saiba, antecipadamente, se a pessoa visada estará presente e pode ser identificada, independentemente da tecnologia, dos processos ou dos tipos de dados biométricos utilizados , com exclusão dos sistemas de verificação que comparem apenas os dados biométricos de um indivíduo com os seus dados biométricos facultados previamente (um para um) . Tendo em conta as diferentes características e formas como são utilizados, bem como os diferentes riscos inerentes, deve ser efetuada uma distinção entre sistemas de identificação biométrica à distância «em tempo real» e «em diferido». No caso dos sistemas «em tempo real», a recolha dos dados biométricos, a comparação e a identificação ocorrem de imediato, quase de imediato ou, em todo o caso, sem um atraso significativo. Não pode haver, a este respeito, margem para contornar as regras do presente regulamento sobre a utilização «em tempo real» dos sistemas de IA em causa por via da introdução de ligeiros retardamentos no sistema. Os sistemas «em tempo real» implicam a utilização «ao vivo» ou «quase ao vivo» de materiais, como vídeos, criados por uma câmara ou outro dispositivo com uma funcionalidade semelhante. Por outro lado, no caso dos sistemas «em diferido», os dados biométricos já foram recolhidos e a comparação e a identificação ocorrem apenas após um atraso significativo. Estes sistemas utilizam materiais, tais como imagens ou vídeos, criados por câmaras de televisão em circuito fechado ou dispositivos privados antes de o sistema ser utilizado relativamente às pessoas singulares em causa. Uma vez que o conceito de identificação biométrica é independente do consentimento individual, esta definição aplica-se mesmo quando são colocados avisos no local que está sob a vigilância do sistema de identificação biométrica à distância, não sendo anulado de facto pela pré-inscrição.

Alteração 25

Proposta de regulamento

Considerando 8-A (novo)

Texto da Comissão

Alteração

 

(8-A)

A identificação de pessoas singulares à distância é entendida como uma distinção entre os sistemas de identificação biométrica à distância e os sistemas de verificação individual de proximidade que utilizam meios de identificação biométrica, cujo único objetivo é confirmar se uma pessoa singular específica que se apresenta para identificação é ou não autorizada, por exemplo para ter acesso a um serviço, a um dispositivo ou a instalações.

Alteração 26

Proposta de regulamento

Considerando 9

Texto da Comissão

Alteração

(9)

Para efeitos do presente regulamento, deve entender-se por «espaço acessível ao público» qualquer espaço físico que seja acessível ao público, independentemente de o espaço em questão ser detido por uma entidade privada ou pública. Como tal, a definição não abrange locais de natureza privada ou que não são de acesso livre a terceiros, incluindo as autoridades policiais, a não ser que essas partes tenham sido especificamente convidadas ou autorizadas, tais como residências, clubes privados, escritórios, armazéns e fábricas. Os espaços em linha também não são abrangidos, uma vez que não são espaços físicos. Contudo, a mera possibilidade de aplicar determinadas condições para o acesso a um espaço particular, como bilhetes de admissão ou restrições de idade, não significa que o espaço não é acessível ao público na aceção do presente regulamento. Consequentemente, além dos espaços públicos, como as ruas, as partes relevantes dos edifícios governamentais e a maioria das infraestruturas de transporte, espaços como cinemas, teatros, lojas e centros comerciais também são, por norma, acessíveis ao público. Para determinar se um espaço é acessível ao público deve recorrer-se a uma análise casuística, tendo em conta as especificidades da situação em apreço.

(9)

Para efeitos do presente regulamento, deve entender-se por «espaço acessível ao público» qualquer espaço físico que seja acessível ao público, independentemente de o espaço em questão ser detido por uma entidade privada ou pública e independentemente de potenciais restrições à sua capacidade . Como tal, a definição não abrange locais de natureza privada ou que não são de acesso livre a terceiros, incluindo as autoridades policiais, a não ser que essas partes tenham sido especificamente convidadas ou autorizadas, tais como residências, clubes privados, escritórios, armazéns e fábricas. Os espaços em linha também não são abrangidos, uma vez que não são espaços físicos. Contudo, a mera possibilidade de aplicar determinadas condições para o acesso a um espaço particular, como bilhetes de admissão ou restrições de idade, não significa que o espaço não é acessível ao público na aceção do presente regulamento. Consequentemente, além dos espaços públicos, como as ruas, as partes relevantes dos edifícios governamentais e a maioria das infraestruturas de transporte, espaços como cinemas, teatros, campos desportivos, escolas, universidades, partes relevantes de hospitais e bancos, parques de diversões, festivais, lojas e centros comerciais também são, por norma, acessíveis ao público. Para determinar se um espaço é acessível ao público deve recorrer-se a uma análise casuística, tendo em conta as especificidades da situação em apreço.

Alteração 27

Proposta de regulamento

Considerando 9-A (novo)

Texto da Comissão

Alteração

 

(9-A)

É importante assinalar que os sistemas de IA devem esforçar-se tanto quanto possível para respeitar os princípios gerais que estabelecem um quadro de alto nível que promova uma abordagem coerente centrada no ser humano em prol de uma IA ética e fiável, em consonância com a Carta dos Direitos Fundamentais da União Europeia e os valores em que se funda a União, incluindo a proteção dos direitos fundamentais, a iniciativa e o controlo por humanos, a solidez técnica e a segurança, a privacidade e a governação dos dados, a transparência, a não discriminação e a equidade, bem como o bem-estar social e ambiental.

Alteração 28

Proposta de regulamento

Considerando 9-B (novo)

Texto da Comissão

Alteração

 

(9-B)

A «Literacia no domínio da IA» diz respeito às competências, aos conhecimentos e à compreensão que permitem que os fornecedores, os utilizadores e as pessoas afetadas, tendo em conta os seus respetivos direitos e obrigações no contexto do presente regulamento, implantem os sistemas de IA com conhecimento de causa e tomem consciência das oportunidades e dos riscos inerentes à IA, bem como dos eventuais danos que a IA pode causar, promovendo, assim, o seu controlo democrático. A literacia em IA não deve circunscrever-se à aprendizagem sobre ferramentas e tecnologias, mas deve também ter por objetivo dotar os fornecedores e utilizadores das noções e competências necessárias para assegurar o cumprimento e a aplicação do presente regulamento. Por conseguinte, é necessário que a Comissão e os Estados-Membros, bem como os fornecedores e os utilizadores de sistemas de IA, em cooperação com todas as partes interessadas pertinentes, promovam o desenvolvimento de um nível suficiente de literacia em IA em todos os quadrantes da sociedade para os cidadãos de todas as faixas etárias, incluindo mulheres e raparigas, e que os progressos na matéria sejam acompanhados de perto.

Alteração 29

Proposta de regulamento

Considerando 10

Texto da Comissão

Alteração

(10)

Para assegurar condições de concorrência equitativas e uma proteção eficaz dos direitos e das liberdades das pessoas singulares em toda a União, as regras estabelecidas no presente regulamento devem aplicar-se aos fornecedores de sistemas de IA de uma forma não discriminatória, independentemente de estarem estabelecidos na União ou num país terceiro, e aos utilizadores de sistemas de IA estabelecidos na União.

(10)

Para assegurar condições de concorrência equitativas e uma proteção eficaz dos direitos e das liberdades das pessoas singulares em toda a União e a nível internacional , as regras estabelecidas no presente regulamento devem aplicar-se aos fornecedores de sistemas de IA de uma forma não discriminatória, independentemente de estarem estabelecidos na União ou num país terceiro, e aos responsáveis pela instalação de sistemas de IA estabelecidos na União. Para que a União seja fiel aos seus valores fundamentais, os sistemas de IA concebidos para serem utilizados em práticas consideradas inaceitáveis pelo presente regulamento devem igualmente ser considerados inaceitáveis fora da União devido ao seu efeito particularmente prejudicial para os direitos fundamentais consagrados na Carta. Por conseguinte, é adequado proibir a exportação desses sistemas de IA para países terceiros por fornecedores residentes na União.

Alteração 30

Proposta de regulamento

Considerando 11

Texto da Comissão

Alteração

(11)

Face à natureza digital dos sistemas de IA, determinados sistemas devem ser abrangidos pelo âmbito do presente regulamento, mesmo quando não são colocados no mercado ou em serviço, nem são utilizados na União. Esta situação verifica-se, por exemplo, quando um operador estabelecido na União contrata determinados serviços a um operador estabelecido fora da União relativamente a uma atividade a realizar por um sistema de IA que seria considerado «de risco elevado» e cujos efeitos afetam pessoas singulares localizadas na União. Nessas circunstâncias, o operador fora da União poderia utilizar o seu sistema de IA para tratar dados recolhidos e transferidos licitamente da União e fornecer ao operador contratante na União o resultado desse sistema de IA decorrente desse tratamento, sem que o sistema de IA em causa fosse colocado no mercado ou em serviço ou utilizado na União. Para evitar que o presente regulamento seja contornado e para assegurar uma proteção eficaz das pessoas singulares localizadas na União, o presente regulamento deve ser igualmente aplicável a fornecedores e utilizadores de sistemas de IA estabelecidos num país terceiro nos casos em que o resultado desses sistemas seja utilizado na União. No entanto, para ter em conta os mecanismos existentes e as necessidades especiais de cooperação com os parceiros estrangeiros com quem são trocadas informações e dados, o presente regulamento não deve ser aplicável às autoridades públicas de um país terceiro e às organizações internacionais quando estas atuam no âmbito de acordos internacionais celebrados a nível nacional ou europeu para efeitos de cooperação policial e judiciária com a União ou com os seus Estados-Membros. Tais acordos têm sido celebrados bilateralmente entre Estados-Membros e países terceiros ou entre a União Europeia, a Europol e outras agências da UE e países terceiros e organizações internacionais.

(11)

Face à natureza digital dos sistemas de IA, determinados sistemas devem ser abrangidos pelo âmbito do presente regulamento, mesmo quando não são colocados no mercado ou em serviço, nem são utilizados na União. Esta situação verifica-se, por exemplo, quando um operador estabelecido na União contrata determinados serviços a um operador estabelecido fora da União relativamente a uma atividade a realizar por um sistema de IA que seria considerado «de risco elevado» e cujos efeitos afetam pessoas singulares localizadas na União. Nessas circunstâncias, o operador fora da União poderia utilizar o seu sistema de IA para tratar dados recolhidos e transferidos licitamente da União e fornecer ao operador contratante na União o resultado desse sistema de IA decorrente desse tratamento, sem que o sistema de IA em causa fosse colocado no mercado ou em serviço ou utilizado na União. Para evitar que o presente regulamento seja contornado e para assegurar uma proteção eficaz das pessoas singulares localizadas na União, o presente regulamento deve ser igualmente aplicável a fornecedores e utilizadores ou responsáveis pela implantação de sistemas de IA estabelecidos num país terceiro nos casos em que o resultado desses sistemas se destine a ser utilizado na União. No entanto, para ter em conta os mecanismos existentes e as necessidades especiais de cooperação com os parceiros estrangeiros com quem são trocadas informações e dados, o presente regulamento não deve ser aplicável às autoridades públicas de um país terceiro e às organizações internacionais quando estas atuam no âmbito de acordos internacionais celebrados a nível nacional ou europeu para efeitos de cooperação policial e judiciária com a União ou com os seus Estados-Membros. Tais acordos têm sido celebrados bilateralmente entre Estados-Membros e países terceiros ou entre a União Europeia, a Europol e outras agências da UE e países terceiros e organizações internacionais. Não obstante, esta exceção deve estar limitada aos países e organizações internacionais de confiança que partilham os valores da União.

Alteração 31

Proposta de regulamento

Considerando 12

Texto da Comissão

Alteração

(12)

O presente regulamento deverá ser também aplicável a instituições, órgãos e organismos da União quando atuam como fornecedor ou utilizador de um sistema de IA. Os sistemas de IA desenvolvidos ou utilizados exclusivamente para efeitos militares devem ser excluídos do âmbito do presente regulamento, caso essa utilização seja abrangida pela competência exclusiva da política externa e de segurança comum regulamentada nos termos do título V do Tratado da União Europeia (TUE). O presente regulamento não prejudica a responsabilidade dos prestadores intermediários de serviços estabelecida na Diretiva 2000/31/CE do Parlamento Europeu e do Conselho [na redação que lhe foi dada pelo Regulamento Serviços Digitais].

(12)

O presente regulamento deverá ser também aplicável a instituições, órgãos e organismos da União quando atuam como fornecedor ou responsável pela implantação de um sistema de IA. Os sistemas de IA desenvolvidos ou utilizados exclusivamente para efeitos militares devem ser excluídos do âmbito do presente regulamento, caso essa utilização seja abrangida pela competência exclusiva da política externa e de segurança comum regulamentada nos termos do título V do Tratado da União Europeia (TUE). O presente regulamento não prejudica a responsabilidade dos prestadores intermediários de serviços estabelecida na Diretiva 2000/31/CE do Parlamento Europeu e do Conselho [na redação que lhe foi dada pelo Regulamento Serviços Digitais].

Alteração 32

Proposta de regulamento

Considerando 12-A (novo)

Texto da Comissão

Alteração

 

(12-A)

O software e os dados que sejam partilhados abertamente e que possam, eles próprios ou uma versão alterada dos mesmos, ser livremente consultados, utilizados, alterados e redistribuídos pelos utilizadores podem contribuir para a investigação e para a inovação no mercado. Estudos da Comissão Europeia demonstram, além disso, que o software livre e de código fonte aberto pode contribuir com 65 a 95 mil milhões de euros para o PIB da União Europeia e proporcionar oportunidades significativas de crescimento da economia europeia. Os utilizadores têm a possibilidade de executar, copiar, distribuir, estudar, alterar e melhorar o software e os dados, incluindo os modelos, através de licenças livres e de fonte aberta. A fim de promover o desenvolvimento e a implantação da IA, especialmente por PME, empresas em fase de arranque e investigação académica, mas também por indivíduos, o presente regulamento não deve aplicar-se a esses componentes de IA livres e de fonte aberta, exceto na medida em que sejam colocados no mercado ou em serviço por um fornecedor como parte de um sistema de IA de risco elevado ou de um sistema de IA abrangido pelos títulos II ou IV do presente regulamento.

Alteração 33

Proposta de regulamento

Considerando 12-B (novo)

Texto da Comissão

Alteração

 

(12-B)

Nem o desenvolvimento colaborativo de componentes de IA com software livre e de código fonte aberto nem a sua disponibilização em repositórios abertos devem constituir uma colocação no mercado ou uma entrada em serviço. Uma atividade comercial que se enquadre num entendimento de disponibilização no mercado pode, no entanto, caracterizar-se pela cobrança de um preço, com exceção de transações entre microempresas, por um componente de IA com «software» livre e de fonte aberta, mas também pela cobrança de um preço por serviços de apoio técnico, pela disponibilização de uma plataforma de software através da qual o fornecedor lucre com outros serviços ou pela utilização de dados pessoais por razões que não sejam exclusivamente destinadas a melhorar a segurança, a compatibilidade ou a interoperabilidade do software.

Alteração 34

Proposta de regulamento

Considerando 12-C (novo)

Texto da Comissão

Alteração

 

(12-C)

Os criadores de componentes de software livre e de código fonte aberto não devem ser obrigados, ao abrigo do presente regulamento, a cumprir os requisitos relativos à cadeia de valor da IA e, em particular, no que diz respeito ao fabricante que utilizou esse componente de software livre e de código fonte aberto. No entanto, os criadores de componentes de IA gratuitos e de fonte aberta devem ser incentivados a aplicar práticas de documentação amplamente adotadas, como modelos e cartões de dados, como forma de acelerar a partilha de informações ao longo da cadeia de valor da IA, permitindo a promoção de sistemas de IA fiáveis na União.

Alteração 35

Proposta de regulamento

Considerando 13

Texto da Comissão

Alteração

(13)

A fim de assegurar um nível elevado e coerente de proteção dos interesses públicos nos domínios da saúde, da segurança e dos direitos fundamentais, devem ser criadas normas comuns aplicáveis a todos os sistemas de IA de risco elevado. Essas normas devem ser coerentes com a Carta dos Direitos Fundamentais da União Europeia ( a seguir designada por «Carta») e não discriminatórias, bem como estar em consonância com os compromissos comerciais internacionais da União.

(13)

A fim de assegurar um nível elevado e coerente de proteção dos interesses públicos nos domínios da saúde, da segurança e dos direitos fundamentais, bem como da democracia e do Estado de direito e do ambiente, devem ser criadas normas comuns aplicáveis a todos os sistemas de IA de risco elevado. Essas normas devem ser coerentes com a Carta , o Pacto Ecológico Europeu, a Declaração Conjunta sobre os Direitos Digitais da União e as Orientações Éticas para uma Inteligência Artificial ( IA) de Confiança do Grupo de Peritos de Alto Nível em Inteligência Artificial e não discriminatórias, bem como estar em consonância com os compromissos comerciais internacionais da União.

Alteração 36

Proposta de regulamento

Considerando 14

Texto da Comissão

Alteração

(14)

Para que o conjunto de normas vinculativas aplicáveis aos sistemas de IA seja proporcionado e eficaz, deve seguir-se uma abordagem baseada no risco claramente definida. Essa abordagem deve adaptar o tipo e o conteúdo dessas normas à intensidade e ao âmbito dos riscos criados pelos sistemas de IA. Como tal, é necessário proibir determinadas práticas de inteligência artificial, estabelecer requisitos aplicáveis aos sistemas de IA de risco elevado e obrigações para os operadores pertinentes, bem como estabelecer obrigações de transparência para determinados sistemas de IA.

(14)

Para que o conjunto de normas vinculativas aplicáveis aos sistemas de IA seja proporcionado e eficaz, deve seguir-se uma abordagem baseada no risco claramente definida. Essa abordagem deve adaptar o tipo e o conteúdo dessas normas à intensidade e ao âmbito dos riscos criados pelos sistemas de IA. Como tal, é necessário proibir determinadas práticas de inteligência artificial inaceitáveis , estabelecer requisitos aplicáveis aos sistemas de IA de risco elevado e obrigações para os operadores pertinentes, bem como estabelecer obrigações de transparência para determinados sistemas de IA.

Alteração 37

Proposta de regulamento

Considerando 15

Texto da Comissão

Alteração

(15)

Além das inúmeras utilizações benéficas da inteligência artificial, essa tecnologia pode ser utilizada indevidamente e conceder instrumentos novos e poderosos para práticas manipuladoras, exploratórias e de controlo social. Essas práticas são particularmente prejudiciais e devem ser proibidas, pois desrespeitam valores da União, como a dignidade do ser humano, a liberdade, a igualdade, a democracia e o Estado de direito, bem como direitos fundamentais da União, incluindo o direito à não discriminação, à proteção de dados pessoais e à privacidade, e os direitos das crianças.

(15)

Além das inúmeras utilizações benéficas da inteligência artificial, essa tecnologia pode ser utilizada indevidamente e conceder instrumentos novos e poderosos para práticas manipuladoras, exploratórias e de controlo social. Essas práticas são particularmente prejudiciais e abusivas e devem ser proibidas, pois desrespeitam valores da União, como a dignidade do ser humano, a liberdade, a igualdade, a democracia e o Estado de direito, bem como direitos fundamentais da União, incluindo o direito à não discriminação, à proteção de dados pessoais e à privacidade, e os direitos das crianças.

Alteração 38

Proposta de regulamento

Considerando 16

Texto da Comissão

Alteração

(16)

Deve ser proibida a colocação no mercado, a colocação em serviço ou a utilização de determinados sistemas de IA concebidos para distorcer o comportamento humano, os quais são passíveis de provocar danos físicos ou psicológicos. Esses sistemas de IA utilizam componentes subliminares que não são detetáveis pelos seres humanos ou exploram vulnerabilidades de crianças e adultos associadas à sua idade e às suas incapacidades físicas ou mentais. A intenção destes sistemas é distorcer substancialmente o comportamento de uma pessoa de uma forma que cause ou seja suscetível de causar danos a essa ou a outra pessoa. A intenção pode não ser detetada caso a distorção do comportamento humano resulte de fatores externos ao sistema de IA que escapam ao controlo do fornecedor ou do utilizador. A proibição não pode impedir a investigação desses sistemas de IA para efeitos legítimos, desde que essa investigação não implique uma utilização do sistema de IA em relações homem-máquina que exponha pessoas singulares a danos e seja efetuada de acordo com normas éticas reconhecidas para fins de investigação científica.

(16)

Deve ser proibida a colocação no mercado, a colocação em serviço ou a utilização de determinados sistemas de IA com o objetivo ou o efeito de distorcer substancialmente o comportamento humano, os quais são passíveis de provocar danos físicos ou psicológicos. Esta limitação deve ser entendida como incluindo as neurotecnologias assistidas por sistemas de IA que são utilizadas para monitorizar, utilizar ou influenciar os dados neurais recolhidos através de interfaces cérebro-computador, na medida em que distorçam substancialmente o comportamento de uma pessoa singular de uma forma que cause ou seja suscetível de causar danos significativos a essa ou a outra pessoa. Esses sistemas de IA utilizam componentes subliminares que não são detetáveis pelos seres humanos ou exploram vulnerabilidades de indivíduos e grupos específicos de pessoas associadas aos seus traços de personalidade conhecidos ou inferidos, à sua idade e às suas incapacidades físicas ou mentais ou situação social ou económica . A intenção destes sistemas é distorcer ou produzir o efeito de distorcer substancialmente o comportamento de uma pessoa de uma forma que cause ou seja suscetível de causar danos significativos a essa ou a outra pessoa ou grupos de pessoas, incluindo danos que possam ser acumulados ao longo do tempo . A intenção de distorcer o comportamento pode não ser detetada caso a distorção resulte de fatores externos ao sistema de IA que escapam ao controlo do fornecedor ou do utilizador , como fatores que não podem ser razoavelmente previstos e mitigados pelo fornecedor ou pelo responsável pela implantação do sistema de IA. De qualquer modo, não é necessário que o fornecedor ou o responsável pela implantação tenha a intenção de causar um dano substancial, desde que tal dano resulte de práticas manipulativas ou exploradoras possibilitadas pela IA. As proibições de tais práticas de IA complementam as disposições constantes da Diretiva 2005/29/CE, segundo a qual as práticas comerciais desleais são proibidas, independentemente de recorrerem a sistemas de IA ou a outras possibilidades. Neste contexto, as práticas comerciais lícitas, por exemplo no domínio da publicidade, que estejam em conformidade com o direito da União não devem, por si só, ser consideradas como uma violação da proibição.  A proibição não pode impedir a investigação desses sistemas de IA para efeitos legítimos, desde que essa investigação não implique uma utilização do sistema de IA em relações homem-máquina que exponha pessoas singulares a danos e seja efetuada de acordo com normas éticas reconhecidas para fins de investigação científica que tenham por base um consentimento informado específico dos indivíduos a ela expostos ou, sendo caso disso, do seu tutor legal .

Alteração 39

Proposta de regulamento

Considerando 16-A (novo)

Texto da Comissão

Alteração

 

(16-A)

Os sistemas de IA que classificam pessoas singulares colocando-as em categorias específicas, de acordo com características sensíveis ou protegidas conhecidas ou inferidas, são particularmente intrusivos, violam a dignidade humana e apresentam um grande risco de discriminação. Essas características incluem o género, a identidade de género, a raça, origem étnica, migração ou estatuto de cidadania, orientação política, orientação sexual, religião, deficiência ou qualquer outro motivo pelo qual a discriminação seja proibida nos termos do artigo 21.o da Carta dos Direitos Fundamentais da UE, bem como nos termos do artigo 9.o do Regulamento (UE) 2016/769; Como tal, esses sistemas devem ser proibidos.

Alteração 40

Proposta de regulamento

Considerando 17

Texto da Comissão

Alteração

(17)

Os sistemas de IA que possibilitam a classificação social de pessoas singulares para uso geral das autoridades públicas ou em nome destas podem criar resultados discriminatórios e levar à exclusão de determinados grupos. Estes sistemas podem ainda violar o direito à dignidade e à não discriminação e os valores da igualdade e da justiça. Esses sistemas de IA avaliam ou classificam a credibilidade de pessoas singulares com base no seu comportamento social em diversos contextos ou em características de personalidade ou pessoais, conhecidas ou previsíveis. A classificação social obtida por meio desses sistemas de IA pode levar ao tratamento prejudicial ou desfavorável de pessoas singulares ou grupos inteiros das mesmas em contextos sociais não relacionados com o contexto nos quais os dados foram originalmente gerados ou recolhidos ou a um tratamento prejudicial que é injustificado ou desproporcionado face à gravidade do seu comportamento social. Como tal, esses sistemas de IA devem ser proibidos.

(17)

Os sistemas de IA que possibilitam a classificação social de pessoas singulares para uso geral podem criar resultados discriminatórios e levar à exclusão de determinados grupos. Estes sistemas violam o direito à dignidade e à não discriminação e os valores da igualdade e da justiça. Esses sistemas de IA avaliam ou classificam pessoas singulares ou grupos com base em múltiplos pontos de dados e ocorrências no tempo relacionadas com o seu comportamento social em diversos contextos ou em características de personalidade ou pessoais conhecidas , inferidas ou previsíveis. A classificação social obtida por meio desses sistemas de IA pode levar ao tratamento prejudicial ou desfavorável de pessoas singulares ou grupos inteiros das mesmas em contextos sociais não relacionados com o contexto nos quais os dados foram originalmente gerados ou recolhidos ou a um tratamento prejudicial que é injustificado ou desproporcionado face à gravidade do seu comportamento social. Como tal, esses sistemas de IA devem ser proibidos.

Alteração 41

Proposta de regulamento

Considerando 18

Texto da Comissão

Alteração

(18)

A utilização de sistemas de IA para a identificação biométrica à distância «em tempo real» de pessoas singulares em espaços acessíveis ao público para efeitos de manutenção da ordem pública é  considerada particularmente intrusiva para os direitos e as liberdades das pessoas em causa, visto que pode afetar a vida privada de uma grande parte da população, dar origem a uma sensação de vigilância constante e dissuadir indiretamente o exercício da liberdade de reunião e de outros direitos fundamentais. Além disso, dado o impacto imediato e as oportunidades limitadas para a realização de controlos adicionais ou correções da utilização desses sistemas que funcionam «em tempo real», estes dão origem a riscos acrescidos para os direitos e as liberdades das pessoas visadas pelas autoridades policiais.

(18)

A utilização de sistemas de IA para a identificação biométrica à distância «em tempo real» de pessoas singulares em espaços acessíveis ao público é particularmente intrusiva para os direitos e as liberdades das pessoas em causa e pode , em última análise, afetar a vida privada de uma grande parte da população, dar origem a uma sensação de vigilância constante , dar às partes que utilizam a identificação biométrica em espaços acessíveis ao público uma posição de poder incontrolável e dissuadir indiretamente o exercício da liberdade de reunião e de outros direitos fundamentais que estão no cerne do Estado de direito. As imprecisões técnicas dos sistemas de IA concebidos para a identificação biométrica à distância de pessoas singulares podem conduzir a resultados enviesados e ter efeitos discriminatórios. Esta questão é particularmente relevante quando diz respeito à idade, à etnia, ao género ou a deficiências das pessoas . Além disso, dado o impacto imediato e as oportunidades limitadas para a realização de controlos adicionais ou correções da utilização desses sistemas que funcionam «em tempo real», estes dão origem a riscos acrescidos para os direitos e as liberdades das pessoas visadas pelas autoridades policiais. Como tal, deve ser proibida a utilização desses sistemas em locais acessíveis ao público. Do mesmo modo, os sistemas de IA utilizados para a análise de imagens registadas de espaços acessíveis ao público através de sistemas de pós-identificação biométrica à distância devem também ser proibidos, a menos que exista uma autorização judicial prévia para a sua utilização no contexto da aplicação da lei, quando estritamente necessária para a pesquisa direcionada ligada a uma infração penal grave e específica já ocorrida, e apenas mediante prévia autorização judicial.

Alteração 42

Proposta de regulamento

Considerando 19

Texto da Comissão

Alteração

(19)

Como tal, deve ser proibida a utilização desses sistemas para efeitos de manutenção da ordem pública, salvo em três situações enunciadas exaustivamente e definidas de modo restrito, em que a utilização é estritamente necessária por motivos de interesse público importante e cuja importância prevalece sobre os riscos. Essas situações implicam a procura de potenciais vítimas de crimes, incluindo crianças desaparecidas, certas ameaças à vida ou à segurança física de pessoas singulares ou ameaças de ataque terrorista, e a deteção, localização, identificação ou instauração de ações penais relativamente a infratores ou suspeitos de infrações penais a que se refere a Decisão-Quadro 2002/584/JAI do Conselho  (38) , desde que puníveis no Estado-Membro em causa com pena ou medida de segurança privativas de liberdade de duração máxima não inferior a três anos e tal como definidas pela legislação desse Estado-Membro. Esse limiar para a pena ou medida de segurança privativa de liberdade prevista no direito nacional contribui para assegurar que a infração seja suficientemente grave para justificar potencialmente a utilização de sistemas de identificação biométrica à distância «em tempo real». Além disso, das 32 infrações penais enumeradas na Decisão-Quadro 2002/584/JAI do Conselho, algumas são provavelmente mais pertinentes do que outras, já que o recurso à identificação biométrica à distância «em tempo real» será previsivelmente necessário e proporcionado em graus extremamente variáveis no respeitante à deteção, localização, identificação ou instauração de ação penal relativamente a um infrator ou suspeito das diferentes infrações penais enumeradas e tendo em conta as prováveis diferenças em termos de gravidade, probabilidade e magnitude dos prejuízos ou das possíveis consequências negativas.

Suprimido

Alteração 43

Proposta de regulamento

Considerando 20

Texto da Comissão

Alteração

(20)

A fim de assegurar que esses sistemas sejam utilizados de uma forma responsável e proporcionada, também importa estabelecer que, em cada uma dessas três situações enunciadas exaustivamente e definidas de modo restrito, é necessário ter em conta determinados elementos, em especial no que se refere à natureza da situação que dá origem ao pedido e às consequências da utilização para os direitos e as liberdades de todas as pessoas em causa e ainda às salvaguardas e condições previstas para a utilização. Além disso, a utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública deve estar sujeita a limites espaciais e temporais adequados, tendo em conta, especialmente, os dados ou indícios relativos às ameaças, às vítimas ou ao infrator. A base de dados de pessoas utilizada como referência deve ser adequada a cada utilização em cada uma das três situações acima indicadas.

Suprimido

Alteração 44

Proposta de regulamento

Considerando 21

Texto da Comissão

Alteração

(21)

Cada utilização de um sistema de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública deve estar sujeita a uma autorização expressa e específica de uma autoridade judiciária ou de uma autoridade administrativa independente de um Estado-Membro. Em princípio, essa autorização deve ser obtida antes da sua utilização, salvo em situações de urgência devidamente justificadas, ou seja, quando a necessidade de utilizar os sistemas em causa torna efetiva e objetivamente impossível obter uma autorização antes de iniciar essa utilização. Nessas situações de urgência, a utilização deve limitar-se ao mínimo absolutamente necessário e estar sujeita a salvaguardas e condições adequadas, conforme determinado pelo direito nacional e especificado no contexto de cada caso de utilização urgente pela própria autoridade policial. Ademais, nessas situações, a autoridade policial deve procurar obter quanto antes uma autorização, apresentando as razões para não ter efetuado o pedido mais cedo.

Suprimido

Alteração 45

Proposta de regulamento

Considerando 22

Texto da Comissão

Alteração

(22)

Além disso, no âmbito do quadro exaustivo estabelecido pelo presente regulamento, importa salientar que essa utilização no território de um Estado-Membro apenas deve ser possível uma vez que o Estado-Membro em causa tenha decidido possibilitar expressamente a autorização dessa utilização de acordo com o presente regulamento nas regras de execução previstas no direito nacional. Consequentemente, ao abrigo do presente regulamento, os Estados-Membros continuam a ser livres de não possibilitar essa utilização ou de apenas possibilitar essa utilização relativamente a alguns dos objetivos passíveis de justificar uma utilização autorizada identificados no presente regulamento.

Suprimido

Alteração 46

Proposta de regulamento

Considerando 23

Texto da Comissão

Alteração

(23)

A utilização de sistemas de IA para a identificação biométrica à distância «em tempo real» de pessoas singulares em espaços acessíveis ao público para efeitos de manutenção da ordem pública implica necessariamente o tratamento de dados biométricos. As regras do presente regulamento que proíbem essa utilização, salvo em certas exceções, e que têm por base o artigo 16.o do TFUE, devem aplicar-se como lex specialis relativamente às regras em matéria de tratamento de dados biométricos previstas no artigo 10.o da Diretiva (UE) 2016/680, regulando assim essa utilização e o tratamento de dados biométricos conexo de uma forma exaustiva. Como tal, essa utilização e esse tratamento apenas devem ser possíveis se forem compatíveis com o quadro estabelecido pelo presente regulamento, sem que exista margem, fora desse quadro, para as autoridades competentes utilizarem esses sistemas e efetuarem o tratamento desses dados pelos motivos enunciados no artigo 10.o da Diretiva (UE) 2016/680, caso atuem para efeitos de manutenção da ordem pública. Neste contexto, o presente regulamento não pretende constituir o fundamento jurídico do tratamento de dados pessoais, nos termos do artigo 8.o da Diretiva (UE) 2016/680. Contudo, a utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para outros fins que não os policiais, incluindo por parte das autoridades competentes, não deve ser abrangida pelo quadro específico relativo a essa utilização para efeitos de manutenção da ordem pública estabelecido pelo presente regulamento. Assim, uma utilização para outros fins que não a manutenção da ordem pública não deve estar sujeita ao requisito de autorização previsto no presente regulamento nem às eventuais regras de execução previstas no direito nacional.

Suprimido

Alteração 47

Proposta de regulamento

Considerando 24

Texto da Comissão

Alteração

(24)

Qualquer tratamento de dados biométricos e de outros dados pessoais envolvidos na utilização de sistemas de IA para fins de identificação biométrica, desde que não estejam associados à utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública , conforme regida pelo presente regulamento , incluindo quando esses sistemas são utilizados pelas autoridades competentes em espaços acessíveis ao público para outros fins que não os policiais , deve continuar a cumprir todos os requisitos decorrentes do artigo 9.o, n.o 1, do Regulamento (UE) 2016/679, do artigo 10.o, n.o 1, do Regulamento (UE) 2018/1725 e do artigo 10.o da Diretiva (UE) 2016/680, conforme aplicável.

(24)

Qualquer tratamento de dados biométricos e de outros dados pessoais envolvidos na utilização de sistemas de IA para fins de identificação biométrica, desde que não estejam associados à utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público, conforme regida pelo presente regulamento, deve continuar a cumprir todos os requisitos decorrentes do artigo 9.o, n.o 1, do Regulamento (UE) 2016/679, do artigo 10.o, n.o 1, do Regulamento (UE) 2018/1725 e do artigo 10.o da Diretiva (UE) 2016/680, conforme aplicável.

Alteração 48

Proposta de regulamento

Considerando 25

Texto da Comissão

Alteração

(25)

Nos termos do artigo 6.o-A do Protocolo (n.o 21) relativo à posição do Reino Unido e da Irlanda em relação ao espaço de liberdade, segurança e justiça, anexo ao TUE e ao TFUE, a Irlanda não fica vinculada pelas regras estabelecidas no artigo 5.o, n.o 1, alínea d), e n.os 2 e 3, do presente regulamento e adotadas com base no artigo 16.o do TFUE que digam respeito ao tratamento de dados pessoais pelos Estados-Membros no exercício de atividades que se enquadram no âmbito da parte III, título V, capítulos 4 ou 5, do TFUE, caso não esteja vinculada por regras que rejam formas de cooperação judiciária em matéria penal ou de cooperação policial no âmbito das quais devam ser observadas as disposições definidas com base no artigo 16.o do TFUE.

(25)

Nos termos do artigo 6.o-A do Protocolo (n.o 21) relativo à posição do Reino Unido e da Irlanda em relação ao espaço de liberdade, segurança e justiça, anexo ao TUE e ao TFUE, a Irlanda não fica vinculada pelas regras estabelecidas no artigo 5.o, n.o 1, alínea d), do presente regulamento e adotadas com base no artigo 16.o do TFUE que digam respeito ao tratamento de dados pessoais pelos Estados-Membros no exercício de atividades que se enquadram no âmbito da parte III, título V, capítulos 4 ou 5, do TFUE, caso não esteja vinculada por regras que rejam formas de cooperação judiciária em matéria penal ou de cooperação policial no âmbito das quais devam ser observadas as disposições definidas com base no artigo 16.o do TFUE.

Alteração 49

Proposta de regulamento

Considerando 26

Texto da Comissão

Alteração

(26)

Nos termos dos artigos 2.o e 2.o-A do Protocolo (n.o 22) relativo à posição da Dinamarca, anexo ao TUE e ao TFUE, a Dinamarca não fica vinculada pelas regras estabelecidas no artigo 5.o, n.o 1, alínea d), e n.os 2 e 3, do presente regulamento e adotadas com base no artigo 16.o do TFUE que digam respeito ao tratamento de dados pessoais pelos Estados-Membros no exercício de atividades que se enquadram no âmbito de aplicação da parte III, título V, capítulos 4 ou 5, do TFUE, nem fica sujeita à aplicação das mesmas.

(26)

Nos termos dos artigos 2.o e 2.o-A do Protocolo (n.o 22) relativo à posição da Dinamarca, anexo ao TUE e ao TFUE, a Dinamarca não fica vinculada pelas regras estabelecidas no artigo 5.o, n.o 1, alínea d), do presente regulamento e adotadas com base no artigo 16.o do TFUE que digam respeito ao tratamento de dados pessoais pelos Estados-Membros no exercício de atividades que se enquadram no âmbito de aplicação da parte III, título V, capítulos 4 ou 5, do TFUE, nem fica sujeita à aplicação das mesmas.

Alteração 50

Proposta de regulamento

Considerando 26-A (novo)

Texto da Comissão

Alteração

 

(26-A)

Os sistemas de IA utilizados pelas autoridades policiais, ou em seu nome, para fazer previsões, perfis ou avaliações dos riscos com base nos perfis de pessoas singulares ou análises de dados baseadas nos traços de personalidade ou características de um indivíduo, incluindo a sua localização, ou no historial criminal de pessoas singulares ou grupos de pessoas para prever a ocorrência ou recorrência de uma ou mais infrações penais, reais ou potenciais, ou outro comportamento social criminalizado ou infrações administrativas, incluindo sistemas de previsão de fraudes, apresentam um risco particular de discriminação contra determinadas pessoas ou grupos de pessoas, uma vez que violam a dignidade humana, bem como o princípio jurídico fundamental da presunção de inocência. Como tal, esses sistemas de IA devem ser proibidos.

Alteração 51

Proposta de regulamento

Considerando 26-B (novo)

Texto da Comissão

Alteração

 

(26-B)

O abate indiscriminado e não direcionado de dados biométricos das redes sociais ou de imagens de CCTV para criar ou expandir bases de dados de reconhecimento facial agrava o sentimento de vigilância em larga escala e pode conduzir a violações flagrantes dos direitos fundamentais, incluindo o direito à privacidade. Como tal, deve ser proibida a utilização de sistemas de IA para esta finalidade.

Alteração 52

Proposta de regulamento

Considerando 26-C (novo)

Texto da Comissão

Alteração

 

(26-C)

Existem sérias preocupações relativamente à base científica dos sistemas de IA que visam detetar emoções ou características físicas ou fisiológicas, tais como expressões faciais, movimentos, frequência cardíaca ou voz. As emoções ou expressão de emoções e perceções variam consideravelmente de acordo com culturas e situações, mesmo quando se trata de uma única pessoa. Entre as principais deficiências de tais tecnologias estão a fiabilidade limitada (as categorias das emoções não são expressas de forma fiável, nem inequivocamente associadas, a um conjunto comum de movimentos físicos ou fisiológicos), a falta de especificidade (as expressões físicas ou fisiológicas não correspondem perfeitamente às categorias de emoções) e a limitada generalização (os efeitos do contexto e da cultura não são suficientemente considerados). Podem surgir problemas de fiabilidade e, consequentemente, grandes riscos de abuso, especialmente quando o sistema é implantado em situações reais relacionadas com a aplicação da lei, a gestão das fronteiras, o local de trabalho e as instituições de ensino. Por conseguinte, deve ser proibida a colocação no mercado, a colocação em serviço ou a utilização de sistemas de IA destinados a serem utilizados nestes contextos para detetar o estado emocional de indivíduos.

Alteração 53

Proposta de regulamento

Considerando 26-D (novo)

Texto da Comissão

Alteração

 

(26-D)

As práticas proibidas pela legislação da União, incluindo a legislação sobre proteção de dados, não discriminação, defesa do consumidor e direito da concorrência, não podem ser afetadas pelo presente regulamento.

Alteração 54

Proposta de regulamento

Considerando 27

Texto da Comissão

Alteração

(27)

Os sistemas de IA de risco elevado só podem ser colocados no mercado da União ou colocados em serviço se cumprirem determinados requisitos obrigatórios. Esses requisitos devem assegurar que os sistemas de IA de risco elevado disponíveis na União ou cujos resultados sejam utilizados na União não representam riscos inaceitáveis para interesses públicos importantes da União, conforme reconhecidos e protegidos pelo direito da União. A classificação de «risco elevado» aplicada a sistemas de IA deve limitar-se aos sistemas que têm um impacto prejudicial substancial na saúde, na segurança e nos direitos fundamentais das pessoas no território da União e essa limitação deve minimizar quaisquer potenciais restrições ao comércio internacional, se for caso disso.

(27)

Os sistemas de IA de risco elevado só podem ser colocados no mercado da União, colocados em serviço ou utilizados se cumprirem determinados requisitos obrigatórios. Esses requisitos devem assegurar que os sistemas de IA de risco elevado disponíveis na União ou cujos resultados sejam utilizados na União não representam riscos inaceitáveis para interesses públicos importantes da União, conforme reconhecidos e protegidos pelo direito da União , incluindo os direitos fundamentais, a democracia, o Estado de direito ou o ambiente. A fim de assegurar o alinhamento com a legislação setorial e evitar duplicações, os requisitos para determinados sistemas de IA de risco elevado terão em conta a legislação setorial que estabelece requisitos para sistemas de IA de risco elevado incluídos no âmbito do presente regulamento, como o Regulamento (UE) 2017/745 relativo aos dispositivos médicos, o Regulamento (UE) 2017/746 relativo aos dispositivos médicos para diagnóstico in vitro ou a Diretiva 2006/42/CE relativa às máquinas . A classificação de «risco elevado» aplicada a sistemas de IA deve limitar-se aos sistemas que têm um impacto prejudicial substancial na saúde, na segurança e nos direitos fundamentais das pessoas no território da União e essa limitação deve minimizar quaisquer potenciais restrições ao comércio internacional, se for caso disso. Tendo em conta o ritmo rápido do desenvolvimento tecnológico, bem como as potenciais alterações na utilização de sistemas de IA, a lista de zonas de risco elevado e de casos de utilização constante do anexo III deve, não obstante, ser objeto de revisão permanente através de uma avaliação regular.

Alteração 55

Proposta de regulamento

Considerando 28

Texto da Comissão

Alteração

(28)

Os sistemas de IA podem produzir resultados adversos para a saúde e  a segurança das pessoas, em particular quando esses sistemas funcionam como componentes de produtos. Em conformidade com os objetivos da legislação de harmonização da União, designadamente facilitar a livre circulação de produtos no mercado interno e assegurar que apenas os produtos seguros e conformes entram no mercado, é importante prevenir e atenuar devidamente os riscos de segurança que possam ser criados por um produto devido aos seus componentes digitais, incluindo sistemas de IA. A título de exemplo, os robôs, que se têm tornado cada vez mais autónomos, devem operar com segurança e realizar as suas funções em ambientes complexos, seja num contexto industrial ou de assistência e cuidados pessoais. De igual forma, no setor da saúde, em que os riscos para a vida e a saúde são particularmente elevados, os cada vez mais sofisticados sistemas de diagnóstico e sistemas que apoiam decisões humanas devem produzir resultados exatos e de confiança. A dimensão dos impactos adversos causados pelo sistema de IA nos direitos fundamentais protegidos pela Carta é particularmente importante quando se classifica um sistema de IA como sendo de risco elevado. Esses direitos incluem o direito à dignidade do ser humano, o respeito da vida privada e familiar, a proteção de dados pessoais, a liberdade de expressão e de informação, a liberdade de reunião e de associação, a não discriminação, a defesa dos consumidores, os direitos dos trabalhadores, os direitos das pessoas com deficiência, o direito à ação e a um tribunal imparcial, a presunção de inocência e o direito de defesa e o direito a uma boa administração. Além desses direitos, é importante salientar que as crianças têm direitos específicos, consagrados no artigo 24.o da Carta da UE e na Convenção das Nações Unidas sobre os Direitos da Criança (descritos em mais pormenor no Comentário geral n.o 25 da Convenção das Nações Unidas sobre os Direitos da Criança no respeitante ao ambiente digital), que exigem que as vulnerabilidades das crianças sejam tidas em conta e que estas recebam a proteção e os cuidados necessários ao seu bem-estar. O direito fundamental a um nível elevado de proteção do ambiente consagrado na Carta e aplicado nas políticas da União também deve ser tido em conta ao avaliar a gravidade dos danos que um sistema de IA pode causar, incluindo em relação à saúde e à segurança das pessoas.

(28)

Os sistemas de IA podem ter um impacto adverso na saúde e segurança das pessoas, em particular quando esses sistemas funcionam como componentes de segurança de produtos. Em conformidade com os objetivos da legislação de harmonização da União, designadamente facilitar a livre circulação de produtos no mercado interno e assegurar que apenas os produtos seguros e conformes entram no mercado, é importante prevenir e atenuar devidamente os riscos de segurança que possam ser criados por um produto devido aos seus componentes digitais, incluindo sistemas de IA. A título de exemplo, os robôs, que se têm tornado cada vez mais autónomos, devem operar com segurança e realizar as suas funções em ambientes complexos, seja num contexto industrial ou de assistência e cuidados pessoais. De igual forma, no setor da saúde, em que os riscos para a vida e a saúde são particularmente elevados, os cada vez mais sofisticados sistemas de diagnóstico e sistemas que apoiam decisões humanas devem produzir resultados exatos e de confiança.

Alteração 56

Proposta de regulamento

Considerando 28-A (novo)

Texto da Comissão

Alteração

 

(28-A)

A dimensão dos impactos adversos causados pelo sistema de IA nos direitos fundamentais protegidos pela Carta é particularmente importante quando se classifica um sistema de IA como sendo de risco elevado. Esses direitos incluem o direito à dignidade do ser humano, o respeito da vida privada e familiar, a proteção de dados pessoais, a liberdade de expressão e de informação, a liberdade de reunião e de associação e a não discriminação, o direito à educação, a defesa dos consumidores, os direitos dos trabalhadores, os direitos das pessoas com deficiência, a igualdade de género, os direitos de propriedade intelectual, o direito a uma indemnização eficaz e a um julgamento imparcial, o direito de defesa e a presunção de inocência e o direito a uma boa administração. Além desses direitos, é importante salientar que as crianças têm direitos específicos, consagrados no artigo 24.o da Carta da UE e na Convenção das Nações Unidas sobre os Direitos da Criança (descritos em mais pormenor no Comentário geral n.o 25 da Convenção das Nações Unidas sobre os Direitos da Criança no respeitante ao ambiente digital), que exigem ambas que as vulnerabilidades das crianças sejam tidas em conta e que estas recebam a proteção e os cuidados necessários ao seu bem-estar. O direito fundamental a um nível elevado de proteção do ambiente consagrado na Carta e aplicado nas políticas da União também deve ser tido em conta ao avaliar a gravidade dos danos que um sistema de IA pode causar, inclusivamente em relação à saúde e à segurança das pessoas ou do ambiente.

Alteração 57

Proposta de regulamento

Considerando 29

Texto da Comissão

Alteração

(29)

Relativamente aos sistemas de IA de risco elevado que são componentes de segurança de produtos ou sistemas ou que são, eles próprios, produtos ou sistemas abrangidos pelo âmbito do Regulamento (CE) n.o 300/2008 do Parlamento Europeu e do Conselho (39), do Regulamento (UE) n.o 167/2013 do Parlamento Europeu e do Conselho (40), do Regulamento (UE) n.o 168/2013 do Parlamento Europeu e do Conselho (41), da Diretiva 2014/90/UE do Parlamento Europeu e do Conselho (42), da Diretiva (UE) 2016/797 do Parlamento Europeu e do Conselho (43), do Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho (44), do Regulamento (UE) 2018/1139 do Parlamento Europeu e do Conselho (45) e do Regulamento (UE) 2019/2144 do Parlamento Europeu e do Conselho (46), é adequado alterar esses atos para assegurar que a Comissão tenha em conta, aquando da adoção de futuros atos delegados ou de execução baseados nesses atos, os requisitos obrigatórios aplicáveis aos sistemas de IA de risco elevado estabelecidos no presente regulamento, atendendo às especificidades técnicas e regulamentares de cada setor e sem interferir com os mecanismos de governação, de avaliação da conformidade e  de execução existentes nem com as autoridades estabelecidas nestes regulamentos.

(29)

Relativamente aos sistemas de IA de risco elevado que são componentes de segurança de produtos ou sistemas ou que são, eles próprios, produtos ou sistemas abrangidos pelo âmbito do Regulamento (CE) n.o 300/2008 do Parlamento Europeu e do Conselho (39), do Regulamento (UE) n.o 167/2013 do Parlamento Europeu e do Conselho (40), do Regulamento (UE) n.o 168/2013 do Parlamento Europeu e do Conselho (41), da Diretiva 2014/90/UE do Parlamento Europeu e do Conselho (42), da Diretiva (UE) 2016/797 do Parlamento Europeu e do Conselho (43), do Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho (44), do Regulamento (UE) 2018/1139 do Parlamento Europeu e do Conselho (45) e do Regulamento (UE) 2019/2144 do Parlamento Europeu e do Conselho (46), é adequado alterar esses atos para assegurar que a Comissão tenha em conta, aquando da adoção de futuros atos delegados ou de execução baseados nesses atos, os requisitos obrigatórios aplicáveis aos sistemas de IA de risco elevado estabelecidos no presente regulamento, atendendo às especificidades técnicas e regulamentares de cada setor e sem interferir com os mecanismos de governação, avaliação da conformidade , vigilância do mercado e execução existentes nem com as autoridades estabelecidas nestes regulamentos.

Alteração 58

Proposta de regulamento

Considerando 30

Texto da Comissão

Alteração

(30)

Relativamente aos sistemas de IA que são componentes de segurança de produtos ou que são, eles próprios, produtos abrangidos pelo âmbito de determinada legislação de harmonização da União, é apropriado classificá-los como de risco elevado ao abrigo do presente regulamento nos casos em que forem objeto de um procedimento de avaliação da conformidade realizado por um organismo terceiro de avaliação da conformidade nos termos dessa legislação de harmonização da União aplicável. Em particular, tais produtos são máquinas, brinquedos, ascensores, aparelhos e sistemas de proteção destinados a ser utilizados em atmosferas potencialmente explosivas, equipamentos de rádio, equipamentos sob pressão, equipamentos de embarcações de recreio, instalações por cabo, aparelhos a gás, dispositivos médicos e dispositivos médicos para diagnóstico in vitro.

(30)

Relativamente aos sistemas de IA que são componentes de segurança de produtos ou que são, eles próprios, produtos abrangidos pelo âmbito de determinada legislação de harmonização da União e enumerados no anexo II , é apropriado classificá-los como de risco elevado ao abrigo do presente regulamento nos casos em que forem objeto de um procedimento de avaliação da conformidade , a fim de assegurar a conformidade com os requisitos essenciais de segurança, realizado por um organismo terceiro de avaliação da conformidade nos termos dessa legislação de harmonização da União aplicável. Em particular, tais produtos são máquinas, brinquedos, ascensores, aparelhos e sistemas de proteção destinados a ser utilizados em atmosferas potencialmente explosivas, equipamentos de rádio, equipamentos sob pressão, equipamentos de embarcações de recreio, instalações por cabo, aparelhos a gás, dispositivos médicos e dispositivos médicos para diagnóstico in vitro.

Alteração 59

Proposta de regulamento

Considerando 31

Texto da Comissão

Alteração

(31)

Classificar um sistema de IA como de risco elevado nos termos do presente regulamento não implica necessariamente que o produto cujo componente de segurança é o sistema de IA ou que o próprio sistema de IA enquanto produto seja considerado «de risco elevado», segundo os critérios estabelecidos na legislação de harmonização da União aplicável ao produto. Tal verifica-se no respeitante ao Regulamento (UE) 2017/745 do Parlamento Europeu e do Conselho (47) e ao Regulamento (UE) 2017/746 do Parlamento Europeu e do Conselho (48), que preveem a avaliação por terceiros da conformidade de produtos de risco médio e elevado.

(Não se aplica à versão portuguesa.)

Alteração 60

Proposta de regulamento

Considerando 32

Texto da Comissão

Alteração

(32)

Relativamente aos sistemas de IA autónomos, ou seja, sistemas de IA de risco elevado que não são componentes de segurança de produtos nem são, eles próprios, produtos, é apropriado classificá-los como de risco elevado se, em função da finalidade prevista , representarem um risco elevado de danos para a saúde e a segurança ou de prejuízo para os direitos fundamentais das pessoas, tendo em conta a gravidade dos possíveis danos e a probabilidade dessa ocorrência, e se forem utilizados num conjunto de domínios especificamente predefinidos no regulamento . A identificação desses sistemas baseia-se na mesma metodologia e nos mesmos critérios previstos para futuras alterações da lista de sistemas de IA de risco elevado.

(32)

Relativamente aos sistemas de IA autónomos, ou seja, sistemas de IA de risco elevado que não são componentes de segurança de produtos nem são, eles próprios, produtos, e que estão enumerados numa das áreas e casos de utilização no anexo III, é apropriado classificá-los como de risco elevado se, em função da finalidade prevista, representarem um risco significativo de danos para a saúde e a segurança ou de prejuízo para os direitos fundamentais das pessoas, e quando o sistema de IA seja usado como um componente de segurança de uma infraestrutura de importância crítica, para o ambiente. Esse risco significativo de danos deve ser identificado avaliando, por um lado, o efeito desse risco no que diz respeito ao seu nível de gravidade, intensidade, probabilidade de ocorrência e duração combinada e , por outro, se o risco pode afetar um indivíduo, uma pluralidade de pessoas ou um grupo específico de pessoas. Essa combinação pode, por exemplo, resultar numa elevada gravidade mas baixa probabilidade de afetar uma pessoa singular, ou numa elevada probabilidade de afetar um grupo de pessoas com baixa intensidade durante um longo período, dependendo do contexto . A identificação desses sistemas baseia-se na mesma metodologia e nos mesmos critérios previstos para futuras alterações da lista de sistemas de IA de risco elevado.

Alteração 61

Proposta de regulamento

Considerando 32-A (novo)

Texto da Comissão

Alteração

 

(32-A)

Os fornecedores cujos sistemas de IA se enquadrem num dos domínios e casos de utilização enumerados no anexo III que considerem que o seu sistema não representa um risco significativo de danos para a saúde, a segurança, os direitos fundamentais ou o ambiente devem informar as autoridades nacionais de controlo mediante a apresentação de uma notificação fundamentada. Tal pode assumir a forma de um resumo de uma página das informações pertinentes sobre o sistema de IA em questão, incluindo a sua finalidade prevista e a razão pela qual não representaria um risco significativo de danos para a saúde, a segurança, os direitos fundamentais ou o ambiente. A Comissão deve especificar critérios que permitam às empresas avaliar se o seu sistema representa esses riscos, bem como desenvolver um modelo de notificação fácil de utilizar e normalizado. Os fornecedores devem apresentar a notificação o mais cedo possível e, em qualquer caso, antes da colocação do sistema de IA no mercado ou da sua colocação em serviço, idealmente na fase de desenvolvimento, e devem ser livres de a colocar no mercado em qualquer momento após a notificação. No entanto, se a autoridade estimar que o sistema de IA em questão foi classificado incorretamente, deve opor-se à notificação no prazo de três meses. A objeção deve ser fundamentada e ser devidamente explicado por que razão o sistema de IA foi classificado incorretamente. O prestador deve conservar o direito de recorrer mediante a apresentação de mais argumentos. Se, decorridos os três meses, não tiver havido objeções à notificação, as autoridades nacionais de supervisão podem ainda intervir se o sistema de IA apresentar um risco a nível nacional, tal como para qualquer outro sistema de IA existente no mercado. As autoridades nacionais de controlo devem apresentar relatórios anuais ao Serviço IA, especificando as notificações recebidas e as decisões tomadas.

Alteração 62

Proposta de regulamento

Considerando 33

Texto da Comissão

Alteração

(33)

As imprecisões técnicas dos sistemas de IA concebidos para a identificação biométrica à distância de pessoas singulares podem conduzir a resultados enviesados e ter efeitos discriminatórios. Esta questão é particularmente importante no que diz respeito à idade, à etnia, ao sexo ou a deficiências das pessoas. Como tal, os sistemas de identificação biométrica à distância «em tempo real» e «em diferido» devem ser classificados como de risco elevado. Face aos riscos que estes dois tipos de sistemas de identificação biométrica à distância representam, ambos devem estar sujeitos a requisitos específicos relativos às capacidades de registo e à supervisão humana.

Suprimido

Alteração 63

Proposta de regulamento

Considerando 33-A (novo)

Texto da Comissão

Alteração

 

(33-A)

Uma vez que os dados biométricos constituem uma categoria especial de dados pessoais sensíveis em conformidade com o Regulamento (UE) n.o 2016/679, é adequado classificar como de risco elevado vários casos críticos de utilização de sistemas biométricos e baseados na biometria. Os sistemas de IA concebidos para serem utilizados na identificação biométrica de pessoas singulares e os sistemas de IA concebidos para serem utilizados para inferir sobre as características pessoais de pessoas singulares com base na biometria ou em dados biométricos, incluindo sistemas de reconhecimento de emoções, com exceção dos que são proibidos nos termos do presente regulamento, devem por conseguinte ser classificados como de risco elevado. Não devem ser abrangidos os sistemas de IA concebidos para serem utilizados na verificação biométrica, que inclui a autenticação, cujo único objetivo é confirmar que uma pessoa singular específica é quem afirma ser, e confirmar a identidade de uma pessoa singular com o único objetivo de ter acesso a um serviço, um dispositivo ou uma instalação (verificação um para um). Os sistemas biométricos e baseados na biometria previstos no direito da União para permitir a cibersegurança e medidas de proteção de dados pessoais não devem ser considerados como apresentando um risco significativo de danos para a saúde, a segurança e os direitos fundamentais.

Alteração 64

Proposta de regulamento

Considerando 34

Texto da Comissão

Alteração

(34)

No tocante à gestão e ao funcionamento de infraestruturas críticas, é apropriado classificar como de risco elevado os sistemas de IA concebidos para serem utilizados como componentes de segurança na gestão e no controlo do tráfego rodoviário e das redes de abastecimento de água, gás, aquecimento e  eletricidade , uma vez que a falha ou anomalia destes sistemas pode pôr em risco a vida e a saúde das pessoas em larga escala e provocar perturbações substanciais das atividades sociais e económicas normais.

(34)

No tocante à gestão e ao funcionamento de infraestruturas críticas, é apropriado classificar como de risco elevado os sistemas de IA concebidos para serem utilizados como componentes de segurança na gestão e no controlo das redes de abastecimento de água, gás, aquecimento , eletricidade e infraestruturas digitais críticas , uma vez que a falha ou anomalia destes sistemas pode comprometer a segurança e a integridade dessas infraestruturas críticas ou pôr em risco a vida e a saúde das pessoas em larga escala e provocar perturbações substanciais das atividades sociais e económicas normais. Os componentes de segurança das infraestruturas críticas, incluindo as infraestruturas digitais críticas, são sistemas utilizados para proteger diretamente a integridade física das infraestruturas críticas ou a saúde e a segurança das pessoas e dos bens. A falha ou a anomalia desses componentes podem conduzir diretamente a riscos para a integridade física das infraestruturas críticas e, por conseguinte, a riscos para a saúde e a segurança das pessoas e dos bens. Os componentes destinados a serem utilizados exclusivamente para fins de cibersegurança não deverão ser considerados componentes de segurança. Exemplos desses componentes de segurança podem incluir sistemas de monitorização da pressão da água ou sistemas de controlo de alarmes de incêndio em centros de computação em nuvem.

Alteração 65

Proposta de regulamento

Considerando 35

Texto da Comissão

Alteração

(35)

Os sistemas de IA utilizados no domínio da educação ou formação profissional, designadamente para determinar o acesso ou a afetação de pessoas a instituições de ensino e de formação profissional ou para avaliar testes que as pessoas realizam no âmbito da sua educação ou como pré-condição para a mesma, devem ser considerados de risco elevado, uma vez que determinam o percurso académico e profissional das pessoas e, como tal, afetam a capacidade destas para garantir a subsistência. Se indevidamente concebidos e utilizados, estes sistemas podem violar o direito à educação e à formação, bem como o direito a não ser alvo de discriminação e de perpetuação de padrões históricos de discriminação.

(35)

A implantação de sistemas de IA no ensino é fundamental para ajudar a modernizar os sistemas de ensino na sua totalidade, para reforçar a sua qualidade educativa, tanto em linha como não, e para acelerar a educação digital, tornando-a assim acessível a um público mais vasto. Os sistemas de IA utilizados no domínio da educação ou formação profissional, designadamente para determinar o acesso ou influenciar de forma substancial as decisões sobre admissão, ou para afetação de pessoas a instituições de ensino e de formação profissional, para avaliar testes que as pessoas realizam no âmbito da sua educação ou como pré-condição para a mesma , ou ainda para avaliar o grau de ensino adequado para um indivíduo e influenciar de forma substancial o nível de ensino e formação que as pessoas podem receber, ou a que serão capazes de aceder, ou monitorizar e detetar comportamentos proibidos de estudantes durante os testes , devem ser considerados sistemas de IA de risco elevado, uma vez que determinam o percurso académico e profissional das pessoas e, como tal, afetam a capacidade destas para garantir a subsistência. Se indevidamente concebidos e utilizados, estes sistemas podem ser particularmente intrusivos e violar o direito à educação e à formação, bem como o direito a não ser alvo de discriminação e de perpetuação de padrões históricos de discriminação , por exemplo contra as mulheres, determinados grupos etários, pessoas com deficiência ou pessoas de uma determinada origem racial ou étnica ou orientação sexual .

Alteração 66

Proposta de regulamento

Considerando 36

Texto da Comissão

Alteração

(36)

Os sistemas de IA utilizados nos domínios do emprego, da gestão de trabalhadores e do acesso ao emprego por conta própria, nomeadamente para efeitos de recrutamento e seleção, de tomada de decisões sobre promoções e despedimentos, de repartição de tarefas e de controlo ou avaliação de pessoas no âmbito de relações contratuais de trabalho também devem ser classificados como de risco elevado, uma vez que podem ter um impacto significativo nas perspetivas de carreira e na subsistência dessas pessoas. O conceito de «relações contratuais relacionadas com o trabalho» deve abranger os funcionários e as pessoas que prestam serviços por intermédio de plataformas, conforme mencionado no programa de trabalho da Comissão para 2021. Em princípio, essas pessoas não devem ser consideradas «utilizadores» na aceção do presente regulamento. Ao longo do processo de recrutamento e na avaliação, promoção ou retenção de pessoas em relações contratuais relacionadas com o trabalho, esses sistemas podem perpetuar padrões históricos de discriminação, por exemplo, contra as mulheres, certos grupos etários, pessoas com deficiência ou pessoas de uma determinada origem racial ou étnica ou orientação sexual. Os sistemas de IA utilizados para controlar o desempenho e o comportamento destas pessoas podem ter ainda um impacto nos seus direitos à proteção de dados pessoais e à privacidade.

(36)

Os sistemas de IA utilizados nos domínios do emprego, da gestão de trabalhadores e do acesso ao emprego por conta própria, nomeadamente para efeitos de recrutamento e seleção, de tomada de decisões ou para influenciar substancialmente decisões sobre a iniciação, promoções e despedimentos, de repartição personalizada de tarefas com base no comportamento individual, nas características pessoais ou em dados biométricos, e de controlo ou avaliação de pessoas no âmbito de relações contratuais de trabalho também devem ser classificados como de risco elevado, uma vez que podem ter um impacto significativo nas perspetivas de carreira, na subsistência dessas pessoas e nos direitos dos trabalhadores . O conceito de «relações contratuais relacionadas com o trabalho» deve abranger de forma significativa os funcionários e as pessoas que prestam serviços por intermédio de plataformas, conforme mencionado no programa de trabalho da Comissão para 2021. Ao longo do processo de recrutamento e na avaliação, promoção ou retenção de pessoas em relações contratuais relacionadas com o trabalho, esses sistemas podem perpetuar padrões históricos de discriminação, por exemplo, contra as mulheres, certos grupos etários, pessoas com deficiência ou pessoas de uma determinada origem racial ou étnica ou orientação sexual. Os sistemas de IA utilizados para controlar o desempenho e o comportamento destas pessoas podem ainda comprometer a essência dos seus direitos fundamentais à proteção de dados pessoais e à privacidade. O presente regulamento é aplicável sem prejuízo da competência da União e dos Estados-Membros para preverem regras mais específicas para a utilização de sistemas de IA em contexto laboral.

Alteração 67

Proposta de regulamento

Considerando 37

Texto da Comissão

Alteração

(37)

Outro domínio no qual a utilização de sistemas de IA merece especial atenção é o acesso a determinados serviços e prestações essenciais, de cariz privado e público, e o usufruto dos mesmos, os quais são necessários para que as pessoas participem plenamente na sociedade ou melhorem o seu nível de vida. Em particular, os sistemas de IA utilizados para avaliar a classificação de crédito ou a capacidade de endividamento de pessoas singulares devem ser classificados como sistemas de IA de risco elevado, uma vez que determinam o acesso dessas pessoas a recursos financeiros ou a serviços essenciais, como o alojamento, a eletricidade e os serviços de telecomunicações. Os sistemas de IA utilizados para essa finalidade podem conduzir à discriminação de pessoas ou grupos e perpetuar padrões históricos de discriminação, por exemplo, em razão da origem étnica ou racial, deficiência, idade ou orientação sexual, ou criar novas formas de impactos discriminatórios. Tendo em conta a dimensão bastante limitada do impacto e as alternativas disponíveis no mercado , é apropriado isentar os sistemas de IA utilizados para efeitos de avaliação da capacidade de endividamento e de classificação de crédito que sejam colocados em serviço por fornecedores de pequena dimensão para utilização própria . Normalmente, as pessoas singulares que se candidatam ou que recebem prestações e serviços de assistência pública de autoridades públicas dependem dos mesmos e estão numa posição vulnerável face às autoridades competentes. Caso sejam utilizados para determinar a recusa, redução, revogação ou recuperação dessas prestações e serviços pelas autoridades, os sistemas de IA podem ter um impacto significativo na subsistência das pessoas e podem infringir os seus direitos fundamentais, como o direito à proteção social, à não discriminação, à dignidade do ser humano ou à ação. Como tal, esses sistemas devem ser classificados como de risco elevado. No entanto, o presente regulamento não pode constituir um obstáculo ao desenvolvimento e à utilização de abordagens inovadoras na administração pública, que tirariam partido de uma maior utilização de sistemas de IA conformes e seguros, desde que esses sistemas não representem um risco elevado para as pessoas coletivas e singulares. Por último, os sistemas de IA utilizados para enviar ou estabelecer prioridades no envio de serviços de resposta a emergências devem ser classificados como de risco elevado, uma vez que tomam decisões em situações bastante críticas que afetam a vida, a saúde e os bens das pessoas.

(37)

Outro domínio no qual a utilização de sistemas de IA merece especial atenção é o acesso a determinados serviços e prestações essenciais, de cariz privado e público, e o usufruto dos mesmos, incluindo serviços de saúde e serviços essenciais, que abrangem mas não se limitam à habitação, eletricidade, aquecimento/refrigeração e internet, bem como as prestações necessárias para que as pessoas participem plenamente na sociedade ou melhorem o seu nível de vida. Em particular, os sistemas de IA utilizados para avaliar a classificação de crédito ou a capacidade de endividamento de pessoas singulares devem ser classificados como sistemas de IA de risco elevado, uma vez que determinam o acesso dessas pessoas a recursos financeiros ou a serviços essenciais, como o alojamento, a eletricidade e os serviços de telecomunicações. Os sistemas de IA utilizados para essa finalidade podem conduzir à discriminação de pessoas ou grupos e perpetuar padrões históricos de discriminação, por exemplo, em razão da origem étnica ou racial, género, deficiência, idade ou orientação sexual, ou criar novas formas de impactos discriminatórios. No entanto, os sistemas de IA previstos pelo direito da União para efeitos de deteção de fraudes na oferta de serviços financeiros não devem ser considerados de risco elevado nos termos do presente regulamento. Normalmente, as pessoas singulares que se candidatam ou que recebem prestações e serviços de assistência pública de autoridades públicas , incluindo serviços de saúde e serviços essenciais, que abrangem mas não se limitam à habitação, eletricidade, aquecimento/refrigeração e internet, dependem dos mesmo e estão numa posição vulnerável face às autoridades competentes. Caso sejam utilizados para determinar a recusa, redução, revogação ou recuperação dessas prestações e serviços pelas autoridades, os sistemas de IA podem ter um impacto significativo na subsistência das pessoas e podem infringir os seus direitos fundamentais, como o direito à proteção social, à não discriminação, à dignidade do ser humano ou à ação. De igual forma, os sistemas de IA concebidos para serem utilizados para tomar decisões ou influenciar substancialmente as decisões sobre a elegibilidade das pessoas singulares para efeitos de seguros de saúde e de vida podem também ter um impacto significativo nos meios de subsistência das pessoas e podem violar os seus direitos fundamentais, nomeadamente limitando o acesso aos cuidados de saúde ou perpetuando a discriminação com base em características pessoais. Como tal, esses sistemas devem ser classificados como de risco elevado. No entanto, o presente regulamento não pode constituir um obstáculo ao desenvolvimento e à utilização de abordagens inovadoras na administração pública, que tirariam partido de uma maior utilização de sistemas de IA conformes e seguros, desde que esses sistemas não representem um risco elevado para as pessoas coletivas e singulares. Por último, os sistemas de IA utilizados para avaliar e classificar chamadas de emergência efetuadas por pessoas singulares ou para enviar ou estabelecer prioridades no envio de serviços de resposta a emergências devem também ser classificados como de risco elevado, uma vez que tomam decisões em situações bastante críticas que afetam a vida, a saúde e os bens das pessoas.

Alteração 68

Proposta de regulamento

Considerando 37-A (novo)

Texto da Comissão

Alteração

 

(37-A)

Tendo em conta o papel e a responsabilidade das autoridades policiais e judiciais e o impacto das decisões que tomam para efeitos de prevenção, investigação, deteção ou repressão de infrações penais ou de execução de sanções penais, o recurso a alguns casos específicos de utilização de aplicações de IA na aplicação da lei deve ser classificado como de alto risco, designadamente nos casos em que possa potencialmente vir a afetar de forma significativa a vida ou os direitos fundamentais das pessoas.

Alteração 69

Proposta de regulamento

Considerando 38

Texto da Comissão

Alteração

(38)

As ações das autoridades policiais que implicam certas utilizações dos sistemas de IA são caracterizadas por um grau substancial de desequilíbrio de poder e podem conduzir à vigilância, detenção ou privação da liberdade de uma pessoa singular, bem como ter outros impactos adversos nos direitos fundamentais garantidos pela Carta. Em particular, se não for treinado com dados de alta qualidade, não cumprir os requisitos adequados em termos de exatidão ou solidez ou não tiver sido devidamente concebido e testado antes de ser colocado no mercado ou em serviço, o sistema de IA pode destacar pessoas de uma forma discriminatória ou incorreta e injusta. Além disso, o exercício de importantes direitos fundamentais processuais, como o direito à ação e a um tribunal imparcial, a presunção de inocência e o direito de defesa, pode ser prejudicado, em particular, se esses sistemas de IA não forem suficientemente transparentes, explicáveis e documentados. Como tal, é apropriado classificar como de risco elevado um conjunto de sistemas de IA concebidos para serem utilizados no contexto da manutenção da ordem pública, no qual a exatidão, a fiabilidade e a transparência são particularmente importantes para evitar impactos adversos, reter a confiança do público e assegurar a responsabilidade e vias de recurso eficazes. Tendo em conta a natureza das atividades em causa e os riscos associados às mesmas, esses sistemas de IA de risco elevado devem incluir, em particular, sistemas de IA concebidos para serem utilizados pelas autoridades policiais em avaliações individuais de riscos, em polígrafos e em instrumentos semelhantes ou para detetar o estado emocional de uma pessoa singular , para detetar «falsificações profundas», para avaliar a fiabilidade dos elementos de prova em processos penais, para prever a ocorrência ou a recorrência de uma infração penal real ou potencial com base na definição de perfis de pessoas singulares ou para avaliar os traços de personalidade e as características ou o comportamento criminal passado de pessoas singulares ou grupos , para a definição de perfis no decurso da deteção, investigação ou repressão de infrações penais, bem como para o estudo analítico de crimes relativos a pessoas singulares. Os sistemas de IA especificamente concebidos para serem utilizados em processos administrativos por autoridades fiscais e aduaneiras não devem ser considerados sistemas de IA de risco elevado utilizados por autoridades policiais para efeitos de prevenção, deteção, investigação e repressão de infrações penais.

(38)

As ações das autoridades policiais que implicam certas utilizações dos sistemas de IA são caracterizadas por um grau substancial de desequilíbrio de poder e podem conduzir à vigilância, detenção ou privação da liberdade de uma pessoa singular, bem como ter outros impactos adversos nos direitos fundamentais garantidos pela Carta. Em particular, se não for treinado com dados de alta qualidade, não cumprir os requisitos adequados em termos de desempenho, exatidão ou solidez ou não tiver sido devidamente concebido e testado antes de ser colocado no mercado ou em serviço, o sistema de IA pode destacar pessoas de uma forma discriminatória ou incorreta e injusta. Além disso, o exercício de importantes direitos fundamentais processuais, como o direito à ação e a um tribunal imparcial, a presunção de inocência e o direito de defesa, pode ser prejudicado, em particular, se esses sistemas de IA não forem suficientemente transparentes, explicáveis e documentados. Como tal, é apropriado classificar como de risco elevado um conjunto de sistemas de IA concebidos para serem utilizados no contexto da manutenção da ordem pública, no qual a exatidão, a fiabilidade e a transparência são particularmente importantes para evitar impactos adversos, reter a confiança do público e assegurar a responsabilidade e vias de recurso eficazes. Tendo em conta a natureza das atividades em causa e os riscos associados às mesmas, esses sistemas de IA de risco elevado devem incluir, em particular, sistemas de IA concebidos para serem utilizados pelas ou em nome das autoridades policiais, ou pelas agências, serviços ou organismos da União como apoio às autoridades policiais, em polígrafos e em instrumentos semelhantes na medida em que a sua utilização seja permitida ao abrigo do direito da União e nacional aplicável, para avaliar a fiabilidade dos elementos de prova em processos penais, para a definição de perfis no decurso da deteção, investigação ou repressão de infrações penais, bem como para o estudo analítico de crimes relativos a pessoas singulares. Os sistemas de IA especificamente concebidos para serem utilizados em processos administrativos por autoridades fiscais e aduaneiras não devem ser classificados como sistemas de IA de risco elevado utilizados por autoridades policiais para efeitos de prevenção, deteção, investigação e repressão de infrações penais. A utilização de ferramentas de IA pelas autoridades policiais e judiciárias não deve tornar-se um fator de desigualdade, fratura social ou exclusão. Não se deve descurar o impacto da utilização de ferramentas de IA nos direitos de defesa dos suspeitos, nomeadamente a dificuldade de obter informações significativas sobre o seu funcionamento e a consequente dificuldade em contestar os seus resultados em tribunal, em particular quando se trate de indivíduos sob investigação.

Alteração 70

Proposta de regulamento

Considerando 39

Texto da Comissão

Alteração

(39)

Os sistemas de IA utilizados na gestão da migração, do asilo e do controlo das fronteiras afetam pessoas que, muitas vezes, se encontram numa posição particularmente vulnerável e que dependem do resultado das ações das autoridades públicas competentes. Como tal, a exatidão, a natureza não discriminatória e a transparência dos sistemas de IA utilizados nesses contextos são particularmente importantes para garantir o respeito dos direitos fundamentais das pessoas em causa, nomeadamente os seus direitos à livre circulação, à não discriminação, à proteção da vida privada e dos dados pessoais, à proteção internacional e a uma boa administração. Deste modo, é apropriado classificar como de risco elevado os sistemas de IA concebidos para serem utilizados por autoridades públicas competentes incumbidas de funções no domínio da gestão da migração, do asilo e do controlo das fronteiras, como polígrafos e instrumentos semelhantes, ou para detetar o estado emocional de uma pessoa singular ; para avaliar determinados riscos colocados pelas pessoas singulares que entram no território de um Estado-Membro ou pedem um visto ou asilo; para verificar a autenticidade dos documentos apresentados pelas pessoas singulares; para auxiliar as autoridades públicas competentes na análise dos pedidos de asilo, de visto e de autorização de residência e das queixas relacionadas, com o objetivo de estabelecer a elegibilidade das pessoas singulares que requerem determinado estatuto. Os sistemas de IA no domínio da gestão da migração, do asilo e do controlo das fronteiras abrangidos pelo presente regulamento devem cumprir os requisitos processuais estabelecidos na Diretiva 2013/32/UE do Parlamento Europeu e do Conselho (49), no Regulamento (CE) n.o 810/2009 do Parlamento Europeu e do Conselho (50) e noutra legislação aplicável.

(39)

Os sistemas de IA utilizados na gestão da migração, do asilo e do controlo das fronteiras afetam pessoas que, muitas vezes, se encontram numa posição particularmente vulnerável e que dependem do resultado das ações das autoridades públicas competentes. Como tal, a exatidão, a natureza não discriminatória e a transparência dos sistemas de IA utilizados nesses contextos são particularmente importantes para garantir o respeito dos direitos fundamentais das pessoas em causa, nomeadamente os seus direitos à livre circulação, à não discriminação, à proteção da vida privada e dos dados pessoais, à proteção internacional e a uma boa administração. Deste modo, é apropriado classificar como de risco elevado os sistemas de IA concebidos para serem utilizados por ou em nome das autoridades públicas competentes, ou por agências, serviços ou organismos da União incumbidos de funções no domínio da gestão da migração, do asilo e do controlo das fronteiras, como polígrafos e instrumentos semelhantes , na medida em que a sua utilização seja permitida ao abrigo do direito nacional e da União aplicável ; para avaliar determinados riscos colocados pelas pessoas singulares que entram no território de um Estado-Membro ou pedem um visto ou asilo; para verificar a autenticidade dos documentos apresentados pelas pessoas singulares; para auxiliar as autoridades públicas competentes na análise e avaliação da veracidade das provas relacionadas com os pedidos de asilo, de visto e de autorização de residência e das queixas relacionadas, com o objetivo de estabelecer a elegibilidade das pessoas singulares que requerem determinado estatuto ; para acompanhar, vigiar ou tratar os dados pessoais no contexto de atividades de gestão das fronteiras, para efeitos de deteção, reconhecimento ou identificação de pessoas singulares; para a antecipação ou previsão de tendências relacionadas com os movimentos migratórios e a passagem das fronteiras . Os sistemas de IA no domínio da gestão da migração, do asilo e do controlo das fronteiras abrangidos pelo presente regulamento devem cumprir os requisitos processuais estabelecidos na Diretiva 2013/32/UE do Parlamento Europeu e do Conselho (49), no Regulamento (CE) n.o 810/2009 do Parlamento Europeu e do Conselho (50) e noutra legislação aplicável. Os Estados-Membros ou as instituições da União Europeia não devem, em circunstância alguma, recorrer a sistemas de IA utilizados na gestão da migração, do asilo e do controlo das fronteiras para contornar as suas obrigações internacionais ao abrigo da Convenção relativa ao Estatuto dos Refugiados, de 28 de julho de 1951, conforme alterada pelo Protocolo de 31 de janeiro de 1967, e tais sistemas também não devem ser utilizados para violar de algum modo o princípio da não repulsão ou para negar o acesso a vias legais seguras e eficazes de entrada no território da União, incluindo o direito a proteção internacional.

Alteração 71

Proposta de regulamento

Considerando 40

Texto da Comissão

Alteração

(40)

Determinados sistemas de IA concebidos para a administração da justiça e os processos democráticos devem ser classificados como de risco elevado, tendo em conta o seu impacto potencialmente significativo na democracia, no Estado de direito e nas liberdades individuais, bem como no direito à ação e a um tribunal imparcial. Em particular, para fazer face aos riscos de potenciais enviesamentos, erros e opacidade, é apropriado classificar como de risco elevado os sistemas de IA concebidos para auxiliar as autoridades judiciárias na investigação e na interpretação de factos e do direito e na aplicação da lei a um conjunto específico de factos. Contudo, essa classificação não deve ser alargada aos sistemas de IA concebidos para atividades administrativas puramente auxiliares que não afetam a administração efetiva da justiça em casos individuais, como a anonimização ou a pseudonimização de decisões judiciais, documentos ou dados, comunicações entre pessoal, tarefas administrativas ou afetação de recursos.

(40)

Determinados sistemas de IA concebidos para a administração da justiça e os processos democráticos devem ser classificados como de risco elevado, tendo em conta o seu impacto potencialmente significativo na democracia, no Estado de direito e nas liberdades individuais, bem como no direito à ação e a um tribunal imparcial. Em particular, para fazer face aos riscos de potenciais enviesamentos, erros e opacidade, é apropriado classificar como de risco elevado os sistemas de IA concebidos para serem utilizados por uma autoridade judiciária ou um órgão administrativo, ou em seu nome, para auxiliar as autoridades judiciárias ou órgãos administrativos na investigação e na interpretação de factos e do direito e na aplicação da lei a um conjunto específico de factos , ou utilizados de idêntica forma num contexto de resolução alternativa de litígios. A utilização de ferramentas de inteligência artificial pode auxiliar mas não deve substituir o poder de decisão dos magistrados ou a independência judicial, uma vez que a decisão final deve continuar a ser uma atividade humana . Contudo, essa classificação não deve ser alargada aos sistemas de IA concebidos para atividades administrativas puramente auxiliares que não afetam a administração efetiva da justiça em casos individuais, como a anonimização ou a pseudonimização de decisões judiciais, documentos ou dados, comunicações entre pessoal, tarefas administrativas ou afetação de recursos.

Alteração 72

Proposta de regulamento

Considerando 40-A (novo)

Texto da Comissão

Alteração

 

(40-A)

A fim de fazer face aos riscos de interferência externa indevida no direito de voto consagrado no artigo 39.o da Carta, e de efeitos desproporcionados nos processos democráticos, na democracia e no Estado de direito, os sistemas de IA concebidos para serem utilizados para influenciar o resultado de uma eleição ou referendo, ou o comportamento eleitoral de pessoas singulares no exercício do seu direito de voto em eleições ou referendos, devem ser classificados como sistemas de IA de risco elevado, com exceção dos sistemas de IA a cuja ação as pessoas singulares não estejam diretamente expostas, tais como instrumentos utilizados para organizar, otimizar e estruturar campanhas políticas de um ponto de vista administrativo e logístico.

Alteração 73

Proposta de regulamento

Considerando 40-B (novo)

Texto da Comissão

Alteração

 

(40-B)

Tendo em conta a escala das pessoas singulares que utilizam os serviços prestados por plataformas de redes sociais designadas como plataformas em linha de muito grande dimensão, essas plataformas em linha podem ser utilizadas de uma forma que influencie fortemente a segurança em linha, a formação da opinião pública e do discurso, os processos eleitorais e democráticos e as preocupações sociais. Por conseguinte, é adequado que os sistemas de IA utilizados por essas plataformas em linha nos seus sistemas de recomendação estejam sujeitos ao presente regulamento, a fim de assegurar que os sistemas de IA cumprem os requisitos estabelecidos no presente regulamento, incluindo os requisitos técnicos em matéria de governação de dados, documentação técnica e rastreabilidade, transparência, supervisão humana, exatidão e solidez. O cumprimento do presente regulamento deve permitir que essas plataformas em linha de muito grande dimensão cumpram as suas obrigações mais amplas em matéria de avaliação e atenuação dos riscos previstas no artigo 34.o e 35.o do Regulamento (UE) 2022/2065. As obrigações previstas no presente regulamento não prejudicam o Regulamento (UE) 2022/2065 e devem complementar as obrigações exigidas nos termos do Regulamento (UE) 2022/2065 quando a plataforma de rede social tiver sido designada como plataforma em linha de muito grande dimensão. Tendo em conta o impacto a nível europeu das plataformas de redes sociais designadas como plataformas em linha de muito grande dimensão, as autoridades designadas ao abrigo do Regulamento (UE) 2022/2065 devem agir como autoridades policiais para efeitos de aplicação desta disposição.

Alteração 74

Proposta de regulamento

Considerando 41

Texto da Comissão

Alteração

(41)

A classificação de um sistema de IA como de risco elevado por força do presente regulamento não deve ser interpretada como uma indicação de que a utilização do sistema é necessariamente lícita ao abrigo de outros atos do direito da União ou ao abrigo do direito nacional compatível com o direito da União, por exemplo, em matéria de proteção de dados pessoais ou de utilização de polígrafos e de instrumentos semelhantes ou de outros sistemas para detetar o estado emocional de pessoas singulares . Essa utilização deve continuar sujeita ao cumprimento dos requisitos aplicáveis resultantes da Carta e dos atos do direito derivado da União e do direito nacional em vigor. O presente regulamento não pode ser entendido como um fundamento jurídico para o tratamento de dados pessoais, incluindo de categorias especiais de dados pessoais, se for caso disso.

(41)

A classificação de um sistema de IA como um sistema de IA de risco elevado por força do presente regulamento não deve ser interpretada como uma indicação de que a utilização do sistema é necessariamente lícita ou ilícita ao abrigo de outros atos do direito da União ou ao abrigo do direito nacional compatível com o direito da União, por exemplo, em matéria de proteção de dados pessoais. Essa utilização deve continuar sujeita ao cumprimento dos requisitos aplicáveis resultantes da Carta e dos atos do direito derivado da União e do direito nacional em vigor.

Alteração 75

Proposta de regulamento

Considerando 41-A (novo)

Texto da Comissão

Alteração

 

(41-A)

Atualmente, aplicam-se ou são relevantes para os sistemas de IA uma série de regras juridicamente vinculativas a nível nacional, europeu e internacional, nomeadamente mas não exclusivamente o direito primário da UE (os Tratados da União Europeia e a respetiva Carta dos Direitos Fundamentais), o direito derivado da UE (como o Regulamento Geral sobre a Proteção de Dados, a Diretiva Responsabilidade dos Produtos, o Regulamento relativo ao livre fluxo de dados não pessoais, as diretivas relativas ao combate à discriminação, a legislação de proteção dos consumidores e as diretivas relativas à segurança e saúde no trabalho), os tratados das Nações Unidas em matéria de direitos humanos e as convenções do Conselho da Europa (como a Convenção Europeia dos Direitos Humanos), bem como o direito nacional. Além das regras aplicáveis a nível transversal, existem várias regras setoriais específicas para determinadas aplicações de IA (por exemplo, o Regulamento Dispositivos Médicos no setor da saúde).

Alteração 76

Proposta de regulamento

Considerando 42

Texto da Comissão

Alteração

(42)

Para atenuar os riscos dos sistemas de IA de risco elevado colocados no mercado ou colocados em serviço no mercado da União para os utilizadores e as pessoas afetadas, devem aplicar-se determinados requisitos obrigatórios, tendo em conta a finalidade de utilização prevista do sistema e de acordo com o sistema de gestão de riscos a estabelecer pelo fornecedor.

(42)

Para atenuar os riscos dos sistemas de IA de risco elevado colocados no mercado ou colocados em serviço no mercado da União para os responsáveis pela implantação e as pessoas afetadas, devem aplicar-se determinados requisitos obrigatórios, tendo em conta a finalidade de utilização prevista ou a utilização razoavelmente previsível do sistema e de acordo com o sistema de gestão de riscos a estabelecer pelo fornecedor. Tais requisitos devem ser orientados por objetivos, adequados à finalidade, razoáveis e eficazes, e não devem impor novos encargos regulamentares ou custos aos operadores.

Alteração 77

Proposta de regulamento

Considerando 43

Texto da Comissão

Alteração

(43)

Os sistemas de IA de risco elevado devem estar sujeitos ao cumprimento de requisitos relativos à qualidade dos conjuntos de dados utilizados, à documentação técnica e à manutenção de registos, à transparência e à prestação de informações aos utilizadores , à supervisão humana, à solidez, à exatidão e à cibersegurança. Esses requisitos são necessários para atenuar eficazmente os riscos para a saúde, a segurança e os direitos fundamentais, em função da finalidade prevista do sistema e quando não existam outras medidas menos restritivas do comércio, evitando, assim, restrições injustificadas do comércio.

(43)

Os sistemas de IA de risco elevado devem estar sujeitos ao cumprimento de requisitos relativos à qualidade e à pertinência dos conjuntos de dados utilizados, à documentação técnica e à manutenção de registos, à transparência e à prestação de informações aos responsáveis pela implantação , à supervisão humana, à solidez, à exatidão e à cibersegurança. Esses requisitos são necessários para atenuar eficazmente os riscos para a saúde, a segurança e os direitos fundamentais, bem como para o ambiente, a democracia e o Estado de direito, em função da finalidade prevista ou de uma utilização indevida razoavelmente previsível do sistema e quando não existam outras medidas menos restritivas do comércio, evitando, assim, restrições injustificadas do comércio.

Alteração 78

Proposta de regulamento

Considerando 44

Texto da Comissão

Alteração

(44)

A disponibilidade de dados de elevada qualidade é um fator essencial para o desempenho de vários sistemas de IA, sobretudo quando são utilizadas técnicas que envolvem o treino de modelos, com vista a assegurar que o sistema de IA de risco elevado funcione como pretendido e de modo seguro e não se torne a fonte de uma discriminação proibida pelo direito da União. Para garantir conjuntos de dados de treino, validação e teste de elevada qualidade é necessário aplicar práticas adequadas de governação e gestão de dados. Os conjuntos de dados de treino, validação e teste devem ser suficientemente relevantes, representativos, livres de erros e completos, tendo em vista a finalidade prevista do sistema. Também devem ter as propriedades estatísticas adequadas, nomeadamente no que respeita às pessoas ou aos grupos de pessoas nos quais o sistema de IA de risco elevado será utilizado. Em particular, os conjuntos de dados de treino, validação e teste devem ter em conta, na medida do exigido face à sua finalidade prevista, as características, as funcionalidades ou os elementos que são específicos do ambiente ou do contexto geográfico, comportamental ou funcional no qual o sistema de IA será utilizado. A fim de proteger os direitos de outras pessoas da discriminação que possa resultar do enviesamento dos sistemas de IA, os fornecedores devem poder efetuar também o tratamento de categorias especiais de dados pessoais por motivos de interesse público importante, para assegurar o controlo, a deteção e a correção de enviesamentos em sistemas de IA de risco elevado.

(44)

A disponibilidade de dados de elevada qualidade desempenha um papel vital para estruturar e garantir o desempenho de vários sistemas de IA, sobretudo quando são utilizadas técnicas que envolvem o treino de modelos, com vista a assegurar que o sistema de IA de risco elevado funcione como pretendido e de modo seguro e não se torne uma fonte de discriminação proibida pelo direito da União. Para garantir conjuntos de dados de treino, validação e teste de elevada qualidade é necessário aplicar práticas adequadas de governação e gestão de dados. Os conjuntos de dados de treino, e se for caso disso, validação e teste , incluindo os rótulos, devem ser suficientemente relevantes, representativos, devidamente controlados em termos de erros e  tão completos quanto possível , tendo em vista a finalidade prevista do sistema. Também devem ter as propriedades estatísticas adequadas, nomeadamente no que respeita às pessoas ou aos grupos de pessoas nos quais o sistema de IA de risco elevado será utilizado , devendo ser dada especial atenção à atenuação de eventuais enviesamentos dos conjuntos de dados, que possam resultar em riscos para os direitos fundamentais ou em discriminação para as pessoas afetadas pelo sistema de IA de risco elevado. Os preconceitos podem, por exemplo, ser inerentes a conjuntos de dados de base, especialmente quando dados históricos são usados, inseridos pelos criadores dos algoritmos ou gerados na aplicação dos sistemas a situações reais. Os resultados dos sistemas de IA são influenciados por preconceitos inerentes que tendem a aumentar gradualmente, e, desse modo, a perpetuar e a ampliar a discriminação existente, em particular de pessoas pertencentes a determinados grupos vulneráveis ou étnicos, ou determinadas comunidades racializadas. Em particular, os conjuntos de dados de treino, validação e teste devem ter em conta, na medida do exigido face à sua finalidade prevista, as características, as funcionalidades ou os elementos que são específicos do contexto geográfico , do respetivo enquadramento, do contexto comportamental ou funcional ou do contexto no qual o sistema de IA será utilizado. A fim de proteger os direitos de outras pessoas da discriminação que possa resultar do enviesamento dos sistemas de IA, os fornecedores devem , a título excecional e na sequência da aplicação de todas as condições válidas estabelecidas no presente regulamento e no Regulamento (UE) 2016/679, na Diretiva (UE) 2016/680 e no Regulamento (UE) 2018/1725, poder efetuar também o tratamento de categorias especiais de dados pessoais por motivos de interesse público importante, para assegurar o controlo, a deteção e a correção de enviesamentos em sistemas de IA de risco elevado. Os preconceitos negativos devem ser entendidos como enviesamentos que criam um efeito discriminatório direto ou indireto contra uma pessoa singular. Os requisitos relacionados com a governação dos dados podem ser cumpridos recorrendo a terceiros que ofereçam serviços de conformidade certificados, incluindo a verificação da governação de dados, a integridade dos conjuntos de dados e as práticas de formação, validação e teste de dados.

Alteração 79

Proposta de regulamento

Considerando 45

Texto da Comissão

Alteração

(45)

No contexto do desenvolvimento de sistemas de IA de risco elevado, determinados intervenientes, como fornecedores, organismos notificados e outras entidades interessadas, como polos de inovação digital, instalações de teste e experimentação e investigadores, devem poder aceder e utilizar conjuntos de dados de elevada qualidade dentro das respetivas áreas de intervenção relacionadas com o presente regulamento. Os espaços comuns europeus de dados criados pela Comissão e a facilitação da partilha de dados entre empresas e com as administrações públicas por motivos de interesse público serão cruciais para conceder um acesso fiável, responsável e não discriminatório a dados de elevada qualidade para o treino, a validação e o teste de sistemas de IA. Por exemplo, no domínio da saúde, o espaço europeu de dados de saúde facilitará o acesso não discriminatório a dados de saúde e o treino de algoritmos de inteligência artificial com base nesses conjuntos de dados, de forma segura, oportuna, transparente, fidedigna e protetora da privacidade e sob a alçada de uma governação institucional adequada. As autoridades competentes, incluindo as autoridades setoriais, que concedem ou apoiam o acesso aos dados também podem apoiar o fornecimento de dados de elevada qualidade para fins de treino, validação e teste de sistemas de IA.

(45)

No contexto do desenvolvimento e avaliação de sistemas de IA de risco elevado, determinados intervenientes, como fornecedores, organismos notificados e outras entidades interessadas, como polos de inovação digital, instalações de teste e experimentação e investigadores, devem poder aceder e utilizar conjuntos de dados de elevada qualidade dentro das respetivas áreas de intervenção relacionadas com o presente regulamento. Os espaços comuns europeus de dados criados pela Comissão e a facilitação da partilha de dados entre empresas e com as administrações públicas por motivos de interesse público serão cruciais para conceder um acesso fiável, responsável e não discriminatório a dados de elevada qualidade para o treino, a validação e o teste de sistemas de IA. Por exemplo, no domínio da saúde, o espaço europeu de dados de saúde facilitará o acesso não discriminatório a dados de saúde e o treino de algoritmos de inteligência artificial com base nesses conjuntos de dados, de forma segura, oportuna, transparente, fidedigna e protetora da privacidade e sob a alçada de uma governação institucional adequada. As autoridades competentes, incluindo as autoridades setoriais, que concedem ou apoiam o acesso aos dados também podem apoiar o fornecimento de dados de elevada qualidade para fins de treino, validação e teste de sistemas de IA.

Alteração 80

Proposta de regulamento

Considerando 45-A (novo)

Texto da Comissão

Alteração

 

(45-A)

O direito à privacidade e à proteção de dados pessoais deve ser garantido ao longo de todo o ciclo de vida do sistema de IA. A este respeito, os princípios da minimização dos dados e da proteção de dados desde a conceção e por norma, tal como estabelecidos na legislação da União em matéria de proteção de dados, são essenciais quando o tratamento de dados envolve riscos significativos para os direitos fundamentais das pessoas. Os fornecedores e os utilizadores de sistemas de IA devem aplicar medidas técnicas e organizativas modernas, a fim de proteger esses direitos. Essas medidas devem incluir não só a anonimização e a cifragem mas também a utilização de tecnologias cada vez mais disponíveis, que permitem a introdução de algoritmos nos dados e a obtenção de informações valiosas sem a transmissão entre as partes ou a cópia desnecessária dos próprios dados em bruto ou estruturados.

Alteração 81

Proposta de regulamento

Considerando 46

Texto da Comissão

Alteração

(46)

Para verificar o cumprimento dos requisitos estabelecidos no presente regulamento, é essencial dispor de informações sobre o desenvolvimento dos sistemas de IA de risco elevado e sobre o seu desempenho ao longo do respetivo ciclo de vida . Tal exige a manutenção de registos e a disponibilização de documentação técnica que contenham as informações necessárias para avaliar o cumprimento, por parte do sistema de IA, dos requisitos aplicáveis. Essas informações devem incluir as características gerais, as capacidades e as limitações do sistema, os algoritmos, os dados e os processos de treino, teste e validação utilizados, bem como documentação sobre o sistema de gestão de riscos aplicado. A documentação técnica deve estar sempre atualizada.

(46)

Para verificar o cumprimento dos requisitos estabelecidos no presente regulamento é essencial dispor de informações compreensíveis sobre o desenvolvimento dos sistemas de IA de risco elevado e sobre o seu desempenho ao longo da respetiva vida útil . Tal exige a manutenção de registos e a disponibilização de documentação técnica que contenham as informações necessárias para avaliar o cumprimento, por parte do sistema de IA, dos requisitos aplicáveis. Essas informações devem incluir as características gerais, as capacidades e as limitações do sistema, os algoritmos, os dados e os processos de treino, teste e validação utilizados, bem como documentação sobre o sistema de gestão de riscos aplicado. A documentação técnica deve estar sempre devidamente atualizada ao longo de todo o ciclo de vida do sistema de IA . Os sistemas de IA podem ter um grande e importante impacto ambiental e ocasionar um elevado consumo de energia durante o seu ciclo de vida. A fim de melhor compreender o impacto dos sistemas de IA no ambiente, a documentação técnica elaborada pelos fornecedores deve incluir informações sobre o consumo de energia do sistema de IA, incluindo o consumo durante o desenvolvimento e o consumo previsto durante a utilização. Essas informações devem ter em conta a legislação nacional e da União aplicável. Estas informações comunicadas devem ser compreensíveis, comparáveis e verificáveis e, para o efeito, a Comissão deve elaborar orientações sobre uma metodologia harmonizada para o cálculo e a comunicação dessas informações. Para garantir que é possível uma documentação técnica única importa harmonizar, tanto quanto possível, os termos e as definições relacionados com essa documentação obrigatória e qualquer documentação exigida pela legislação aplicável da União Europeia.

Alteração 82

Proposta de regulamento

Considerando 46-A (novo)

Texto da Comissão

Alteração

 

(46-A)

Os sistemas de IA devem ter em consideração métodos de última geração e as normas relevantes aplicáveis para reduzir o consumo de energia e de recursos e a produção de resíduos, bem como para aumentar a sua eficiência energética e a eficiência global do sistema. Os aspetos ambientais dos sistemas de IA significativos para efeitos do presente regulamento são o consumo de energia do sistema de IA na fase de desenvolvimento, formação e implantação, bem como o registo, a comunicação e o armazenamento destes dados. A conceção dos sistemas de IA deve permitir a medição e o registo do consumo de energia e de recursos em cada fase de desenvolvimento, formação e implantação. A monitorização e a comunicação das emissões dos sistemas de IA devem ser sólidas, transparentes, coerentes e exatas. A fim de assegurar a aplicação uniforme do presente regulamento e a estabilidade do ecossistema jurídico para os fornecedores e responsáveis pela implantação no mercado único, a Comissão deve desenvolver uma especificação comum para a metodologia destinada a cumprir o requisito de apresentação de relatórios e documentação sobre o consumo de energia e de recursos durante o desenvolvimento, a formação e a implantação. Essas especificações comuns sobre a metodologia de medição podem permitir desenvolver uma base de referência sobre a qual a Comissão possa decidir melhor se são necessárias futuras intervenções regulamentares, após a realização de uma avaliação de impacto que tenha em conta a legislação em vigor.

Alteração 83

Proposta de regulamento

Considerando 46-B (novo)

Texto da Comissão

Alteração

 

(46-B)

A fim de alcançar os objetivos do presente regulamento e contribuir para os objetivos ambientais da União, assegurando simultaneamente o bom funcionamento do mercado interno, pode ser necessário estabelecer recomendações e orientações e, eventualmente, metas para a sustentabilidade. Para o efeito, a Comissão tem o direito de desenvolver uma metodologia que contribua para a existência de indicadores-chave de desempenho (ICD) e uma referência para os Objetivos de Desenvolvimento Sustentável (ODS). O objetivo deve ser, em primeiro lugar, permitir uma comparação equitativa entre as opções de aplicação da IA, proporcionando incentivos para promover a utilização de tecnologias de IA mais eficientes que respondam às preocupações em matéria de energia e de recursos. Para atingir este objetivo, o presente regulamento deve prever os meios para estabelecer uma recolha de dados de base que forem comunicados sobre as emissões provenientes do desenvolvimento, formação e implantação.

Alteração 84

Proposta de regulamento

Considerando 47-A (novo)

Texto da Comissão

Alteração

 

(47-A)

Estes requisitos de transparência e explicabilidade das decisões tomadas pela IA também devem ajudar a contrariar os efeitos dissuasores da assimetria digital e dos chamados «padrões obscuros» que visem pessoas individuais e o seu consentimento informado.

Alteração 85

Proposta de regulamento

Considerando 49

Texto da Comissão

Alteração

(49)

Os sistemas de IA de risco elevado devem ter um desempenho coerente ao longo de todo o ciclo de vida e apresentar um nível adequado de exatidão, solidez e cibersegurança, de acordo com o estado da técnica geralmente reconhecido. O nível e as métricas de exatidão devem ser comunicadas aos utilizadores .

(49)

Os sistemas de IA de risco elevado devem ter um desempenho coerente ao longo de todo o ciclo de vida e apresentar um nível adequado de exatidão, solidez e cibersegurança, de acordo com o estado da técnica geralmente reconhecido. As métricas de desempenho e o seu nível esperado devem ser definidos com o objetivo principal de atenuar os riscos e o impacto negativo do sistema de IA. O nível e as métricas esperadas de desempenho devem ser comunicadas aos responsáveis pela implantação de forma clara, transparente, facilmente compreensível e em moldes inteligíveis. A declaração de indicadores de desempenho não pode ser considerada prova de níveis futuros, mas é necessário aplicar métodos pertinentes para assegurar níveis coerentes durante a utilização. Embora existam organizações de normalização para estabelecer normas, é necessária coordenação em matéria de avaliação comparativa para determinar a forma como estes requisitos e características normalizados dos sistemas de IA devem ser medidos. O Comité Europeu para a Inteligência Artificial deve reunir as autoridades nacionais e internacionais de metrologia e de avaliação comparativa e fornecer orientações não vinculativas para abordar os aspetos técnicos de como medir os níveis adequados de desempenho e robustez.

Alteração 86

Proposta de regulamento

Considerando 50

Texto da Comissão

Alteração

(50)

A solidez técnica é um requisito essencial dos sistemas de IA de risco elevado. Estes sistemas devem ser resistentes aos riscos associados às suas limitações (por exemplo, erros, falhas, incoerências, situações inesperadas), bem como a ações maliciosas suscetíveis de pôr em causa a segurança do sistema de IA e dar origem a comportamentos prejudiciais ou indesejáveis. A falta de proteção contra estes riscos pode causar problemas de segurança ou afetar negativamente os direitos fundamentais, por exemplo, devido a decisões erradas ou a resultados errados ou enviesados gerados pelo sistema de IA.

(50)

A solidez técnica é um requisito essencial dos sistemas de IA de risco elevado. Estes sistemas devem ser resistentes aos riscos associados às suas limitações (por exemplo, erros, falhas, incoerências, situações inesperadas), bem como a ações maliciosas suscetíveis de pôr em causa a segurança do sistema de IA e dar origem a comportamentos prejudiciais ou indesejáveis. A falta de proteção contra estes riscos pode causar problemas de segurança ou afetar negativamente os direitos fundamentais, por exemplo, devido a decisões erradas ou a resultados errados ou enviesados gerados pelo sistema de IA. Os utilizadores do sistema de IA devem tomar medidas para assegurar que o eventual compromisso entre a robustez e a exatidão não conduza a resultados discriminatórios ou negativos para os subgrupos minoritários.

Alteração 87

Proposta de regulamento

Considerando 51

Texto da Comissão

Alteração

(51)

A cibersegurança desempenha um papel fundamental para garantir que os sistemas de IA sejam resistentes às ações de terceiros mal-intencionados que tentam explorar as vulnerabilidades dos sistemas com o objetivo de lhes alterar a utilização, o comportamento e o desempenho ou por em causa as propriedades de segurança. Os ciberataques contra sistemas de IA podem tirar partido de ativos específicos de inteligência artificial, como os conjuntos de dados de treino (por exemplo, contaminação de dados) ou os modelos treinados (por exemplo, ataques antagónicos), ou explorar vulnerabilidades dos ativos digitais do sistema de IA ou da infraestrutura de tecnologias da informação e comunicação (TIC) subjacente. A fim de assegurar um nível de cibersegurança adequado aos riscos, os fornecedores de sistemas de IA de risco elevado devem tomar medidas adequadas, tendo ainda em devida conta a infraestrutura de TIC subjacente.

(51)

A cibersegurança desempenha um papel fundamental para garantir que os sistemas de IA sejam resistentes às ações de terceiros mal-intencionados que tentam explorar as vulnerabilidades dos sistemas com o objetivo de lhes alterar a utilização, o comportamento e o desempenho ou pôr em causa as propriedades de segurança. Os ciberataques contra sistemas de IA podem tirar partido de ativos específicos de inteligência artificial, como os conjuntos de dados de treino (por exemplo, contaminação de dados) ou os modelos treinados (por exemplo, ataques antagónicos ou de confidencialidade ), ou explorar vulnerabilidades dos ativos digitais do sistema de IA ou da infraestrutura de tecnologias da informação e comunicação (TIC) subjacente. A fim de assegurar um nível de cibersegurança adequado aos riscos, os fornecedores de sistemas de IA de risco elevado , bem como os organismos notificados, as autoridades nacionais competentes e as autoridades de fiscalização do mercado, devem tomar medidas adequadas, tendo ainda em devida conta a infraestrutura de TIC subjacente. Os sistemas de IA de risco elevado devem ser acompanhados de soluções e correções de segurança ao longo da vida do produto, ou, em caso de ausência de dependência de um produto específico, durante um período que deve ser declarado pelo fabricante.

Alteração 88

Proposta de regulamento

Considerando 53-A (novo)

Texto da Comissão

Alteração

 

(53-A)

Enquanto signatários da Convenção das Nações Unidas sobre os Direitos das Pessoas com Deficiência (CNUDPD), a União Europeia e os seus Estados-Membros estão legalmente obrigados a proteger as pessoas com deficiência contra a discriminação e a promover a sua igualdade, a assegurar que as pessoas com deficiência gozem da mesma igualdade de acesso que outros às tecnologias e sistemas de informação e comunicação e a assegurar o respeito pela privacidade das pessoas com deficiência. Tendo em conta a crescente importância e utilização de sistemas de IA, a aplicação estrita dos princípios de conceção universal a todas as novas tecnologias e serviços deverá garantir o acesso pleno, igual e sem restrições de todas as pessoas potencialmente afetadas pelas tecnologias de IA ou que utilizem essas tecnologias, incluindo as pessoas com deficiência, de uma forma que tenha plenamente em conta a sua inerente dignidade e diversidade. Por conseguinte, é essencial que os fornecedores assegurem a plena conformidade com os requisitos de acessibilidade, incluindo a Diretiva (UE) 2016/2102 e a Diretiva (UE) 2019/882. Os fornecedores devem assegurar o cumprimento destes requisitos desde a conceção. Por conseguinte, as medidas necessárias devem ser integradas, tanto quanto possível, na conceção do sistema de IA de risco elevado.

Alteração 89

Proposta de regulamento

Considerando 54

Texto da Comissão

Alteração

(54)

O fornecedor deve introduzir um sistema de gestão da qualidade sólido, garantir a realização do procedimento de avaliação da conformidade exigido, elaborar a documentação pertinente e estabelecer um sistema de acompanhamento pós-comercialização capaz. As autoridades públicas que colocam em serviço sistemas de IA de risco elevado para sua própria utilização podem adotar e aplicar as regras relativas ao sistema de gestão da qualidade no âmbito do sistema de gestão da qualidade adotado a nível nacional ou regional, consoante o caso, tendo em conta as especificidades do setor e as competências e a organização da autoridade pública em causa.

(54)

O fornecedor deve introduzir um sistema de gestão da qualidade sólido, garantir a realização do procedimento de avaliação da conformidade exigido, elaborar a documentação pertinente e estabelecer um sistema de acompanhamento pós-comercialização capaz. Para os prestadores que já dispõem de sistemas de gestão da qualidade baseados em normas como a norma ISO 9001 ou outras normas pertinentes, não se deve esperar uma duplicação total do sistema de gestão da qualidade, mas sim uma adaptação dos seus sistemas existentes a determinados aspetos relacionados com o cumprimento dos requisitos específicos do presente regulamento. Tal deve também refletir-se em futuras atividades de normalização ou orientações adotadas pela Comissão a este respeito. As autoridades públicas que colocam em serviço sistemas de IA de risco elevado para sua própria utilização podem adotar e aplicar as regras relativas ao sistema de gestão da qualidade no âmbito do sistema de gestão da qualidade adotado a nível nacional ou regional, consoante o caso, tendo em conta as especificidades do setor e as competências e a organização da autoridade pública em causa.

Alteração 90

Proposta de regulamento

Considerando 56

Texto da Comissão

Alteração

(56)

Para permitir a execução do presente regulamento e criar condições de concorrência equitativas para os operadores, tendo ainda em conta as diferentes formas de disponibilização de produtos digitais, é importante assegurar que, em qualquer circunstância, uma pessoa estabelecida na União possa fornecer às autoridades todas as informações necessárias sobre a conformidade de um sistema de IA. Como tal, antes de disponibilizarem os seus sistemas de IA na União, caso não seja possível identificar um importador, os fornecedores estabelecidos fora da União devem, através de mandato escrito, designar um mandatário estabelecido na União.

(56)

Para permitir a execução do presente regulamento e criar condições de concorrência equitativas para os operadores, tendo ainda em conta as diferentes formas de disponibilização de produtos digitais, é importante assegurar que, em qualquer circunstância, uma pessoa estabelecida na União possa fornecer às autoridades todas as informações necessárias sobre a conformidade de um sistema de IA. Como tal, antes de disponibilizarem os seus sistemas de IA na União, os fornecedores estabelecidos fora da União devem, através de mandato escrito, designar um mandatário estabelecido na União.

Alteração 91

Proposta de regulamento

Considerando 58

Texto da Comissão

Alteração

(58)

Dada a natureza dos sistemas de IA e os riscos para a segurança e os direitos fundamentais possivelmente associados à sua utilização, nomeadamente no que respeita à necessidade de assegurar um controlo adequado do desempenho de um sistema de IA num cenário real, é apropriado determinar responsabilidades específicas para os utilizadores . Em particular, os utilizadores devem utilizar os sistemas de IA de risco elevado de acordo com as instruções de utilização e devem ser equacionadas outras obrigações relativas ao controlo do funcionamento dos sistemas de IA e à manutenção de registos, se for caso disso.

(58)

Dada a natureza dos sistemas de IA e os riscos para a segurança e os direitos fundamentais possivelmente associados à sua utilização, nomeadamente no que respeita à necessidade de assegurar um controlo adequado do desempenho de um sistema de IA num cenário real, é apropriado determinar responsabilidades específicas para os responsáveis pela implantação . Em particular, os responsáveis pela implantação devem utilizar os sistemas de IA de risco elevado de acordo com as instruções de utilização e devem ser equacionadas outras obrigações relativas ao controlo do funcionamento dos sistemas de IA e à manutenção de registos, se for caso disso.

Alteração 92

Proposta de regulamento

Considerando 58-A (novo)

Texto da Comissão

Alteração

 

(58-A)

Ainda que os riscos relacionados com os sistemas de IA possam ter origem na sua conceção, tais riscos também podem decorrer da forma como os referidos sistemas de IA são utilizados. Os responsáveis pela implantação de sistemas de IA de risco elevado desempenham, por conseguinte, um papel fundamental na garantia da proteção dos direitos fundamentais, complementando as obrigações do fornecedor aquando do desenvolvimento do sistema de IA. Os responsáveis pela utilização estão melhor posicionados para entender, na prática, de que forma o sistema de IA de risco elevado será utilizado, pelo que podem identificar potenciais riscos significativos que não foram previstos na fase de desenvolvimento, graças a um conhecimento mais preciso do contexto de utilização, das pessoas ou grupos de pessoas suscetíveis de serem afetados, incluindo os grupos marginalizados e vulneráveis. Os responsáveis pela implantação devem identificar estruturas de governação adequadas nesse contexto específico de utilização, tais como mecanismos de supervisão humana, procedimentos de tratamento de queixas e procedimentos de recurso, uma vez que as escolhas nas estruturas de governação podem ser fundamentais para atenuar os riscos para os direitos fundamentais em casos concretos de utilização. A fim de garantir de forma eficiente a proteção dos direitos fundamentais, o responsável pela implantação de sistemas de IA de risco elevado deve, por conseguinte, realizar, antes de colocar em funcionamento os sistemas de IA, uma avaliação do impacto sobre os direitos fundamentais. A avaliação do impacto deve ser acompanhada de um plano detalhado que descreva as medidas ou ferramentas que ajudarão a atenuar os riscos para os direitos fundamentais identificados o mais tardar no momento da entrada em serviço. Se esse plano não puder ser identificado, o responsável pela implantação deve abster-se de colocar o sistema em serviço. Ao realizar esta avaliação de impacto, o responsável pela implantação deve notificar a autoridade nacional de controlo e, na medida do possível, as partes interessadas pertinentes, bem como os representantes de grupos de pessoas suscetíveis de serem afetados pelo sistema de IA, a fim de recolher as informações pertinentes consideradas necessárias para realizar a avaliação de impacto, existindo um incentivo para que seja disponibilizado publicamente o resumo da sua avaliação de impacto sobre os direitos fundamentais no seu sítio Web em linha. Estas obrigações não devem aplicar-se às PME que, devido à falta de recursos, possam ter dificuldade em realizar essa consulta. No entanto, devem também procurar envolver esses representantes na avaliação do impacto sobre os direitos fundamentais. Além disso, tendo em conta o potencial impacto e a necessidade de supervisão e controlo democráticos, os responsáveis pela implantação de sistemas de IA de risco elevado que sejam autoridades públicas ou instituições, órgãos, organismos e agências da União, bem como os responsáveis pela implantação que sejam empresas designadas como controladores de acesso nos termos do Regulamento (UE) 2022/1925, devem ser obrigados a registar a utilização de qualquer sistema de IA de risco elevado numa base de dados pública. Outros responsáveis pela implantação podem inscrever-se voluntariamente.

Alteração 93

Proposta de regulamento

Considerando 59

Texto da Comissão

Alteração

(59)

É apropriado definir que o  utilizador do sistema de IA é a pessoa singular ou coletiva, a autoridade pública, a agência ou outro organismo sob cuja autoridade o sistema de IA é operado, salvo se o sistema for utilizado no âmbito de uma atividade pessoal de caráter não profissional.

(59)

É apropriado definir que o  responsável pela implantação do sistema de IA é a pessoa singular ou coletiva, a autoridade pública, a agência ou outro organismo sob cuja autoridade o sistema de IA é operado, salvo se o sistema for utilizado no âmbito de uma atividade pessoal de caráter não profissional.

Alteração 94

Proposta de regulamento

Considerando 60

Texto da Comissão

Alteração

(60)

Face à complexidade da cadeia de valor da inteligência artificial , determinados terceiros, nomeadamente os envolvidos na venda e no fornecimento de software, ferramentas e componentes de software, modelos pré-treinados e dados , ou os fornecedores de serviços de rede, devem cooperar , consoante o caso , com os fornecedores os utilizadores , para permitir que estes cumpram as obrigações estabelecidas no presente regulamento, e com as autoridades competentes estabelecidas no presente regulamento .

(60)

Na cadeia de valor da IA muitas entidades oferecem frequentemente ferramentas e serviços, mas também componentes ou processos, que são depois incorporados pelo fornecedor no sistema de IA, inclusivamente relacionados com a recolha e pré-tratamento de dados, formação com base em modelos, reciclagem, ensaio e avaliação de modelos, integração em software ou outros aspetos do desenvolvimento de modelos. As entidades envolvidas podem disponibilizar a sua oferta comercial direta ou indiretamente, através de interfaces, como as interfaces de programação de aplicações (IPA), distribuídas ao abrigo de licenças gratuitas e de fonte aberta, mas também cada vez mais por plataformas profissionais de IA, revenda de parâmetros de formação, kits «faça você mesmo» para construção de modelos ou da oferta de acesso pago a uma arquitetura para modelos que permita o seu desenvolvimento e treino. Face a esta complexidade da cadeia de valor da IA , todos os terceiros pertinentes , em especial os envolvidos no desenvolvimento, na venda e no fornecimento comercial de ferramentas de software, componentes , modelos pré-treinados ou dados incorporados no sistema de IA , ou os fornecedores de serviços de rede, devem , sem comprometer os seus próprios direitos de propriedade intelectual ou segredos comerciais , disponibilizar as informações , a formação ou os conhecimentos especializados necessários e cooperar, conforme adequado , com os fornecedores para permitir o seu controlo sobre todos os aspetos pertinentes das obrigações inerentes ao sistema de IA que sejam abrangidas pelo presente regulamento . A fim de permitir uma governação da cadeia de valor da IA que seja eficaz em termos de custos, o nível de controlo deve ser explicitamente divulgado por cada terceiro que disponibilize ao fornecedor um instrumento, serviço, componente ou processo, que será posteriormente incorporado pelo fornecedor no sistema de IA.

Alteração 95

Proposta de regulamento

Considerando 60-A (novo)

Texto da Comissão

Alteração

 

(60-A)

Quando uma das partes se encontra numa posição de negociação mais forte, existe o risco de essa parte poder utilizar essa posição em detrimento da outra parte contratante quando negoceiam o fornecimento de ferramentas, serviços, componentes ou processos utilizados ou integrados num sistema de IA de risco elevado ou as medidas corretivas em caso de violação ou de cessação de obrigações conexas. Esses desequilíbrios contratuais prejudicam, em especial, as micro, pequenas e médias empresas, bem como as empresas em fase de arranque, a menos que sejam detidas ou subcontratadas por uma empresa capaz de compensar adequadamente o subcontratante, uma vez que não dispõem de uma capacidade significativa para negociar as condições do acordo contratual e não podem ter outra alternativa senão aceitar cláusulas contratuais do tipo «pegar ou largar». Por conseguinte, as cláusulas contratuais abusivas que regulam o fornecimento de ferramentas, serviços, componentes ou processos que são utilizadas ou integradas num sistema de IA de risco elevado ou as medidas corretivas em caso de violação ou de cessação de obrigações conexas não devem ser vinculativas para as micro, pequenas ou médias empresas, e empresas em fase de arranque, quando lhes tenham sido impostas unilateralmente.

Alteração 96

Proposta de regulamento

Considerando 60-B (novo)

Texto da Comissão

Alteração

 

(60-B)

As regras relativas às cláusulas contratuais devem ter em conta o princípio da liberdade contratual enquanto conceito essencial nas relações entre empresas. Por conseguinte, nem todas as cláusulas contratuais devem ser sujeitas a um teste do caráter abusivo, mas apenas as cláusulas impostas unilateralmente às micro, pequenas e médias empresas. Tal diz respeito a situações do tipo «pegar ou largar», em que uma parte propõe uma determinada cláusula contratual e a micro, pequena ou média empresa ou empresa em fase de arranque não pode influenciar o teor dessa cláusula, apesar de tentar negociá-la. Uma cláusula contratual que é simplesmente proposta por uma das partes e aceite pela micro, pequena ou média empresa ou empresa em fase de arranque ou uma cláusula que é negociada e subsequentemente acordada de forma alterada entre as partes contratantes não deve ser considerada como imposta unilateralmente.

Alteração 97

Proposta de regulamento

Considerando 60-C (novo)

Texto da Comissão

Alteração

 

(60-C)

Além disso, as regras relativas a cláusulas contratuais abusivas só devem ser aplicáveis aos elementos de um contrato relativos ao fornecimento de ferramentas, serviços, componentes ou processos utilizados ou integrados num sistema de IA de risco elevado ou às medidas corretivas em caso de violação ou de cessação de obrigações conexas. As outras partes do mesmo contrato, que não estejam relacionadas com esses elementos, não devem ser sujeitas ao teste do caráter abusivo previsto no presente regulamento.

Alteração 98

Proposta de regulamento

Considerando 60-D (novo)

Texto da Comissão

Alteração

 

(60-D)

Os critérios de identificação das cláusulas contratuais abusivas só devem ser aplicados a cláusulas contratuais excessivas, em caso de abuso de uma posição negocial mais forte. A grande maioria das cláusulas contratuais que são comercialmente mais favoráveis para uma parte do que para a outra, incluindo as que são normais nos contratos entre empresas, constituem uma expressão normal do princípio da liberdade contratual e continuam a ser aplicáveis. Caso uma cláusula contratual não conste da lista de cláusulas que são sempre consideradas abusivas, aplica-se a disposição geral relativa ao caráter abusivo. A esse respeito, as cláusulas enumeradas como cláusulas abusivas devem servir de referência para a interpretação da disposição geral relativa ao caráter abusivo.

Alteração 99

Proposta de regulamento

Considerando 60-D (novo)

Texto da Comissão

Alteração

 

(60-E)

Os modelos de base são um desenvolvimento recente, em que os modelos de IA são desenvolvidos a partir de algoritmos concebidos para otimizar a generalidade e a versatilidade dos resultados. Esses modelos são frequentemente treinados com um vasta gama de fontes de dados e com grandes quantidades de dados para realizar um grande número de tarefas a jusante, incluindo algumas para as quais não foram especificamente desenvolvidos e treinados. O modelo de base pode ser unimodal ou multimodal, treinado através de vários métodos, como a aprendizagem supervisionada ou a aprendizagem reforçada. Os sistemas de IA com uma finalidade específica prevista e os sistemas de IA de finalidade geral podem ser uma aplicação de um modelo de base, o que significa que cada modelo de base pode ser reutilizado em inúmeros sistemas de IA a jusante ou em sistemas de IA de finalidade geral. Esses modelos têm uma importância cada vez maior para muitas aplicações e sistemas a jusante.

Alteração 100

Proposta de regulamento

Considerando 60-F (novo)

Texto da Comissão

Alteração

 

(60-F)

No caso dos modelos de base prestados como um serviço, como o acesso a IPA, a cooperação com os prestadores a jusante deve prolongar-se ao longo do período durante o qual esse serviço é prestado e suportado, a fim de permitir uma atenuação adequada dos riscos, a menos que o fornecedor do modelo de base transfira o modelo de treino, bem como informações exaustivas e adequadas sobre os conjuntos de dados e o processo de desenvolvimento do sistema ou restrinja o serviço, como o acesso a IPA, de modo a que o fornecedor a jusante possa cumprir plenamente o presente regulamento sem mais apoio do fornecedor original do modelo de base.

Alteração 101

Proposta de regulamento

Considerando 60-G (novo)

Texto da Comissão

Alteração

 

(60-G)

Tendo em conta a natureza e a complexidade da cadeia de valor dos sistemas de IA, é essencial esclarecer o papel dos intervenientes que contribuem para o desenvolvimento desses sistemas. Existe uma grande incerteza sobre como os modelos de base vão evoluir, tanto em termos de tipologia dos modelos como em termos de autogovernação. Por conseguinte, é essencial esclarecer a situação jurídica dos fornecedores de modelos de base. Tendo em conta a sua complexidade e impacto imprevisível e a falta de controlo do fornecedor de IA a jusante sobre o desenvolvimento do modelo de base e o consequente desequilíbrio de poder, e a fim de assegurar uma partilha equitativa das responsabilidades ao longo da cadeia de valor da IA, esses modelos devem estar sujeitos a requisitos e obrigações proporcionados e mais específicos ao abrigo do presente regulamento, nomeadamente, os modelos de base devem avaliar e atenuar os riscos e danos potenciais através de uma conceção, ensaio e análise adequados, devem aplicar medidas de governação de dados, incluindo a avaliação de enviesamentos, e cumprir os requisitos de conceção técnica, a fim de assegurar níveis adequados de desempenho, previsibilidade, interpretabilidade, corrigibilidade, segurança e cibersegurança e devem cumprir as normas ambientais. Estas obrigações devem ser acompanhadas de normas. Além disso, os modelos de base devem estar sujeitos a obrigações de informação e preparar toda a documentação técnica necessária para que os potenciais fornecedores a jusante possam cumprir as suas obrigações ao abrigo do presente regulamento. Os modelos de base generativa devem assegurar a transparência quanto ao facto de o conteúdo ser gerado por um sistema de IA e não por seres humanos. Esses requisitos e obrigações específicos não equivalem a considerar os modelos de base como sistemas de IA de risco elevado, mas devem garantir a concretização dos objetivos do presente regulamento de assegurar um nível elevado de proteção dos direitos fundamentais, da saúde, da segurança, do ambiente, da democracia e do Estado de direito. Os modelos pré-treinados desenvolvidos para um conjunto mais restrito, menos geral e mais limitado de aplicações e que não podem ser adaptados a uma vasta gama de tarefas, como os sistemas de IA polivalentes simples, não devem ser considerados modelos de base para efeitos do presente regulamento, devido à sua maior interpretabilidade, o que torna o seu comportamento menos imprevisível.

Alteração 102

Proposta de regulamento

Considerando 60-H (novo)

Texto da Comissão

Alteração

 

(60-H)

Tendo em conta a natureza dos modelos de base, há falta de conhecimentos especializados em avaliação da conformidade e os métodos de auditoria por terceiros ainda estão a ser desenvolvidos. O próprio setor está, por conseguinte, a desenvolver novas formas de avaliar os modelos fundamentais que cumprem, em parte, o objetivo de auditoria (como a avaliação de modelos, a simulação de ataques ou as técnicas de verificação e validação da aprendizagem automática). Essas avaliações internas dos modelos de base devem ser aplicáveis na generalidade (por exemplo, independentemente dos canais de distribuição, da modalidade e dos métodos de desenvolvimento), a fim de abordar os riscos específicos desses modelos, tendo em conta as práticas mais avançadas do setor, e centrar-se no desenvolvimento de conhecimentos e controlos técnicos suficientes sobre o modelo, na gestão de riscos razoavelmente previsíveis e na análise e ensaio exaustivos do modelo através de medidas adequadas, como a inclusão de avaliadores independentes. Uma vez que os modelos de base são um desenvolvimento novo e em rápida evolução no domínio da inteligência artificial, é conveniente que a Comissão e o Serviço IA acompanhem e avaliem periodicamente o quadro legislativo e de governação desses modelos e, em especial, dos sistemas de IA generativos baseados nesses modelos, que levantam questões significativas relacionadas com a geração de conteúdos em violação do direito da União ou das regras em matéria de direitos de autor e com potenciais utilizações abusivas. Importa esclarecer que o presente regulamento não prejudica a legislação da União em matéria de direitos de autor e direitos conexos, incluindo as Diretivas 2001/29/CE, 2004/48/ECR e (UE) 2019/790 do Parlamento Europeu e do Conselho.

Alteração 103

Proposta de regulamento

Considerando 61

Texto da Comissão

Alteração

(61)

A normalização deve desempenhar um papel fundamental, disponibilizando aos fornecedores soluções técnicas que assegurem o cumprimento do presente regulamento. O cumprimento de normas harmonizadas, conforme definido no Regulamento (UE) n.o 1025/2012 do Parlamento Europeu e do Conselho (54), deve constituir um meio de os fornecedores demonstrarem a conformidade com os requisitos do presente regulamento. Contudo , a  Comissão pode adotar especificações técnicas comuns em domínios onde não existem normas harmonizadas ou onde estas são insuficientes .

(61)

A normalização deve desempenhar um papel fundamental, disponibilizando aos fornecedores soluções técnicas que assegurem o cumprimento do presente regulamento. O cumprimento de normas harmonizadas, conforme definido no Regulamento (UE) n.o 1025/2012 do Parlamento Europeu e do Conselho (54), deve constituir um meio de os fornecedores demonstrarem a conformidade com os requisitos do presente regulamento. A fim de assegurar a eficácia das normas como instrumento político da União , e tendo em conta importância das normas para assegurar a conformidade com os requisitos do presente regulamento e para a competitividade das empresas, é necessário assegurar uma representação equilibrada dos interesses, incluindo todas as partes interessadas relevantes na elaboração das normas . O processo de normalização deve ser transparente no que diz respeito às pessoas singulares e coletivas que participam nas atividades de normalização.

Alteração 104

Proposta de regulamento

Considerando 61-A (novo)

Texto da Comissão

Alteração

 

(61-A)

A fim de facilitar o cumprimento, os primeiros pedidos de normalização devem ser emitidos pela Comissão o mais tardar dois meses após a entrada em vigor do presente regulamento. Tal deve servir para melhorar a segurança jurídica, promovendo assim o investimento e a inovação em IA, bem como a competitividade e o crescimento do mercado da União, reforçando simultaneamente a governação multilateral, representativa de todas as partes interessadas europeias relevantes, como o Serviço IA, as organizações e organismos europeus de normalização e os grupos de peritos criados ao abrigo da legislação setorial aplicável da União, bem como o setor, as PME, as empresas em fase de arranque, a sociedade civil, os investigadores e os parceiros sociais, e deve, em última análise, facilitar a cooperação mundial em matéria de normalização no domínio da IA, de forma coerente com os valores da União. Quando preparar o pedido de normalização, a Comissão deve consultar o Serviço IA e o Fórum Consultivo para a IA, a fim de recolher conhecimentos especializados pertinentes.

Alteração 105

Proposta de regulamento

Artigo 61-B (novo)

Texto da Comissão

Alteração

 

(61-B)

Caso os sistemas de IA se destinarem a serem utilizados no local de trabalho, as normas harmonizadas devem limitar-se às especificações técnicas e aos procedimentos.

Alteração 106

Proposta de regulamento

Considerando 61-C (novo)

Texto da Comissão

Alteração

 

(61-C)

A Comissão deve poder adotar especificações comuns em determinadas condições, sempre que não exista uma norma harmonizada pertinente, ou dar resposta a preocupações específicas em matéria de direitos fundamentais. Ao longo de todo o processo de elaboração, a Comissão deve consultar regularmente o Serviço IA e o seu fórum consultivo, as organizações e organismos europeus de normalização ou os grupos de peritos criados ao abrigo do direito setorial pertinente da União, bem como as partes interessadas relevantes, como a indústria, as PME, as empresas em fase de arranque, a sociedade civil, os investigadores e os parceiros sociais.

Alteração 107

Proposta de regulamento

Considerando 61-D (novo)

Texto da Comissão

Alteração

 

(61-D)

Ao adotar especificações comuns, a Comissão deve esforçar-se por alinhar a regulamentação relativa à IA com parceiros mundiais que partilham as mesmas ideias, o que é fundamental para promover a inovação e as parcerias transfronteiriças no domínio da IA, uma vez que a coordenação com parceiros que partilham as mesmas ideias nos organismos internacionais de normalização é extremamente importante.

Alteração 108

Proposta de regulamento

Considerando 62

Texto da Comissão

Alteração

(62)

A fim de assegurar um nível elevado de fiabilidade dos sistemas de IA de risco elevado, estes devem ser sujeitos a uma avaliação da conformidade antes de serem colocados no mercado ou em serviço.

(62)

A fim de assegurar um nível elevado de fiabilidade dos sistemas de IA de risco elevado, estes devem ser sujeitos a uma avaliação da conformidade antes de serem colocados no mercado ou em serviço. Para aumentar a confiança na cadeia de valor e proporcionar segurança às empresas quanto ao desempenho dos seus sistemas, os terceiros que fornecem componentes de IA podem solicitar voluntariamente uma avaliação da conformidade por terceiros.

Alteração 109

Proposta de regulamento

Considerando 64

Texto da Comissão

Alteração

(64)

Dada a  experiência mais vasta dos certificadores de pré-comercialização profissionais no domínio da segurança dos produtos e a diferente natureza dos riscos inerentes, é apropriado limitar, pelo menos numa fase inicial da aplicação do presente regulamento, o âmbito da avaliação da conformidade por terceiros aos sistemas de IA de risco elevado que não estejam relacionados com produtos. Como tal, a avaliação da conformidade desses sistemas deve ser realizada, regra geral, pelo fornecedor sob a sua própria responsabilidade, com a exceção única dos sistemas de IA concebidos para serem utilizados para a identificação biométrica à distância de pessoas, cuja avaliação da conformidade, contanto que os sistemas em causa não sejam proibidos, deve contar com a participação de um organismo notificado.

(64)

Dada a  complexidade dos sistemas de IA de risco elevado e os riscos que lhes estão associados, é essencial desenvolver uma capacidade mais adequada para a aplicação da avaliação da conformidade por terceiros aos sistemas de IA de risco elevado. No entanto, dada a atual experiência dos certificadores de pré-comercialização profissionais no domínio da segurança dos produtos e a diferente natureza dos riscos inerentes, é apropriado limitar, pelo menos numa fase inicial da aplicação do presente regulamento, o âmbito da avaliação da conformidade por terceiros aos sistemas de IA de risco elevado que não estejam relacionados com produtos. Como tal, a avaliação da conformidade desses sistemas deve ser realizada, regra geral, pelo fornecedor sob a sua própria responsabilidade, com a exceção única dos sistemas de IA concebidos para serem utilizados para a identificação biométrica à distância de pessoas e dos sistemas de IA concebidos para serem utilizados para fazer inferências sobre as características pessoais de pessoas singulares a partir de dados biométricos ou dados baseados em biometria, incluindo os sistemas de reconhecimento de emoções , cuja avaliação da conformidade, contanto que os sistemas em causa não sejam proibidos, deve contar com a participação de um organismo notificado.

Alteração 110

Proposta de regulamento

Considerando 65

Texto da Comissão

Alteração

(65)

Para efeitos de avaliação da conformidade por terceiros de sistemas de IA concebidos para serem utilizados para a identificação biométrica à distância de pessoas , o presente regulamento prevê que as autoridades nacionais competentes designem organismos notificados, os quais devem cumprir uma série de requisitos, nomeadamente em termos de independência, competência e ausência de conflitos de interesse.

(65)

Sempre que seja necessário realizar avaliações da conformidade por terceiros, o presente regulamento prevê que as autoridades nacionais competentes designem organismos notificados, os quais devem cumprir uma série de requisitos, nomeadamente em termos de independência, competência, ausência de conflitos de interesse e requisitos mínimos de cibersegurança . Os Estados-Membros devem promover a designação de um número suficiente de organismos de avaliação da conformidade para que a certificação seja viável de modo atempado. Os procedimentos de avaliação, designação, notificação e acompanhamento dos organismos de avaliação da conformidade devem ser implementados o mais uniformemente possível nos Estados-Membros, a fim de eliminar barreiras administrativas fronteiriças e garantir a realização do potencial do mercado interno.

Alteração 111

Proposta de regulamento

Considerando 65-A (novo)

Texto da Comissão

Alteração

 

(65-A)

Em conformidade com os compromissos assumidos pela União no âmbito do Acordo sobre os Obstáculos Técnicos ao Comércio da Organização Mundial do Comércio, é adequado maximizar a aceitação dos resultados dos testes produzidos pelos organismos de avaliação da conformidade competentes, independentemente do território onde estejam estabelecidos, se tal for necessário para demonstrar a conformidade com os requisitos aplicáveis do regulamento. A Comissão deve procurar utilizar ativamente eventuais instrumentos internacionais para esse efeito e, em especial, tentar celebrar eventuais acordos de reconhecimento mútuo com países que se encontrem num nível comparável de desenvolvimento técnico e tenham uma abordagem compatível em matéria de IA e de avaliação da conformidade.

Alteração 112

Proposta de regulamento

Considerando 66

Texto da Comissão

Alteração

(66)

Em consonância com a noção comummente estabelecida de modificação substancial de produtos regulamentados pela legislação de harmonização da União, é apropriado que um sistema de IA seja objeto de uma nova avaliação da conformidade sempre que seja alterado de maneira que possa afetar o cumprimento do presente regulamento ou que a finalidade prevista do sistema se altere. Além disso, no que respeita aos sistemas de IA que continuam a «aprender» depois de terem sido colocados no mercado ou em serviço (ou seja, que adaptam automaticamente o modo de funcionamento), é necessário criar regras que determinem que as alterações do algoritmo e do desempenho predeterminados pelo fornecedor e examinados aquando da avaliação da conformidade não constituem uma modificação substancial.

(66)

Em consonância com a noção comummente estabelecida de modificação substancial de produtos regulamentados pela legislação de harmonização da União, é apropriado que um sistema de IA de risco elevado seja objeto de uma nova avaliação da conformidade sempre que seja alterado de maneira não planeada que vá além do controlo ou das alterações predeterminadas pelo prestador, incluindo a aprendizagem contínua, e que possa criar um novo risco inaceitável e afetar significativamente o cumprimento do presente regulamento ou que a finalidade prevista do sistema de IA de risco elevado se altere. Além disso, no que respeita aos sistemas de IA que continuam a «aprender» depois de terem sido colocados no mercado ou em serviço (ou seja, que adaptam automaticamente o modo de funcionamento), é necessário criar regras que determinem que as alterações do algoritmo e do desempenho predeterminados pelo fornecedor e examinados aquando da avaliação da conformidade não constituem uma modificação substancial. O mesmo deve aplicar-se a atualizações do sistema de IA por motivos de segurança em geral e para proteger contra as ameaças em constante evolução de manipulação do sistema, desde que tal não implique uma modificação substancial.

Alteração 113

Proposta de regulamento

Considerando 67

Texto da Comissão

Alteração

(67)

Para que possam circular livremente dentro do mercado interno, os sistemas de IA de risco elevado devem apresentar a marcação CE para indicar o cumprimento do presente regulamento. Os Estados-Membros não podem criar obstáculos injustificados à colocação no mercado ou à colocação em serviço de sistemas de IA de risco elevado que cumpram os requisitos previstos no presente regulamento e apresentem a marcação CE.

(67)

Para que possam circular livremente dentro do mercado interno, os sistemas de IA de risco elevado devem apresentar a marcação CE para indicar o cumprimento do presente regulamento. No caso dos sistemas físicos de IA de risco elevado, deve ser aposta uma marcação CE física, que pode ser complementada por uma marcação CE digital. No caso dos sistemas unicamente digitais de IA de risco elevado, deve ser utilizada uma marcação CE digital. Os Estados-Membros não podem criar obstáculos injustificados à colocação no mercado ou à colocação em serviço de sistemas de IA de risco elevado que cumpram os requisitos previstos no presente regulamento e apresentem a marcação CE.

Alteração 114

Proposta de regulamento

Considerando 68

Texto da Comissão

Alteração

(68)

Em certas condições, uma disponibilização rápida de tecnologias inovadoras pode ser crucial para a saúde e a segurança das pessoas e  da sociedade em geral. Como tal, é apropriado que, por razões excecionais de segurança pública ou proteção da vida e da saúde das pessoas singulares e de proteção da propriedade industrial e comercial , os Estados-Membros possam autorizar a colocação no mercado ou a colocação em serviço de sistemas de IA que não foram objeto de uma avaliação da conformidade.

(68)

Em certas condições, uma disponibilização rápida de tecnologias inovadoras pode ser crucial para a saúde e a segurança das pessoas , para o ambiente as alterações climáticas e para a sociedade em geral. Como tal, é apropriado que, por razões excecionais de proteção da vida e da saúde das pessoas singulares, de proteção do ambiente e de proteção infraestruturas críticas , os Estados-Membros possam autorizar a colocação no mercado ou a colocação em serviço de sistemas de IA que não foram objeto de uma avaliação da conformidade.

Alteração 115

Proposta de regulamento

Considerando 69

Texto da Comissão

Alteração

(69)

Para facilitar o trabalho da Comissão e dos Estados-Membros no domínio da inteligência artificial, bem como aumentar a transparência para o público, os fornecedores de sistemas de IA de risco elevado que não os relacionados com produtos abrangidos pelo âmbito da atual legislação de harmonização da União devem ser obrigados a registar esses sistemas de IA de risco elevado numa base de dados da UE que será criada e gerida pela Comissão. A Comissão deve ser o responsável pelo tratamento dessa base de dados, nos termos do Regulamento (UE) 2018/1725 do Parlamento Europeu e do Conselho (55). Para assegurar que a base de dados esteja plenamente operacional à data de implantação, o procedimento para a criação da base de dados deve incluir a elaboração de especificações funcionais pela Comissão e um relatório de auditoria independente.

(69)

Para facilitar o trabalho da Comissão e dos Estados-Membros no domínio da inteligência artificial, bem como aumentar a transparência para o público, os fornecedores de sistemas de IA de risco elevado que não os relacionados com produtos abrangidos pelo âmbito da atual legislação de harmonização da União devem ser obrigados a registar esses sistemas de IA de risco elevado e os modelos de base numa base de dados da UE que será criada e gerida pela Comissão. Essa base de dados deve ser de acesso livre e público, facilmente compreensível e legível por máquina. A base de dados também deve ser fácil de utilizar e de navegar, com funcionalidades de pesquisa, que permitam, no mínimo, ao público em geral pesquisar a base de dados por sistemas de alto risco específicos, localizações, categorias de risco nos termos do anexo IV e palavras-chave. Os responsáveis pela implantação que sejam autoridades públicas ou instituições, órgãos ou organismos da União ou que atuem em seu nome e os responsáveis pela implantação que sejam empresas designadas como controladores ao abrigo do Regulamento (UE) 2022/1925 também se devem registar na base de dados da UE antes da primeira colocação em serviço ou utilização de um sistema de IA de risco elevado e após cada modificação significativa. Os outros responsáveis pela implantação devem ter o direito de o fazer voluntariamente. Qualquer alteração substancial de um sistema de IA de risco elevado também deve ser registada na base de dados da UE.  A Comissão deve ser o responsável pelo tratamento dessa base de dados, nos termos do Regulamento (UE) 2018/1725 do Parlamento Europeu e do Conselho (55). Para assegurar que a base de dados esteja plenamente operacional à data de implantação, o procedimento para a criação da base de dados deve incluir a elaboração de especificações funcionais pela Comissão e um relatório de auditoria independente. A Comissão deve ter em conta os riscos de cibersegurança e os relacionados com os perigos no exercício das suas funções de responsável pelo tratamento de dados na base de dados da UE. A fim de maximizar a disponibilidade e a utilização da base de dados pelo público, a base de dados, incluindo as informações disponibilizadas através da mesma, deve cumprir os requisitos estabelecidos na Diretiva 2019/882.

Alteração 116

Proposta de regulamento

Considerando 71

Texto da Comissão

Alteração

(71)

A inteligência artificial é uma família de tecnologias em rápida evolução que exige novas formas de supervisão regulamentar e um espaço seguro para a experimentação, garantindo ao mesmo tempo uma inovação responsável e a integração de salvaguardas e medidas de atenuação dos riscos adequadas. Para assegurar um quadro jurídico propício à inovação, preparado para o futuro e resistente a perturbações, as autoridades nacionais competentes de um ou vários Estados-Membros devem ser incentivadas a criar ambientes de testagem da regulamentação da inteligência artificial que facilitem o desenvolvimento e o teste de sistemas de IA inovadores sob uma supervisão regulamentar rigorosa, antes que estes sistemas sejam colocados no mercado ou em serviço.

(71)

A inteligência artificial é uma família de tecnologias em rápida evolução que exige supervisão regulamentar e um espaço seguro e controlado para a experimentação, garantindo ao mesmo tempo uma inovação responsável e a integração de salvaguardas e medidas de atenuação dos riscos adequadas. Para assegurar um quadro jurídico que promova a inovação, preparado para o futuro e resistente a perturbações, os Estados-Membros devem criar pelo menos um ambiente de testagem da regulamentação da inteligência artificial que facilite o desenvolvimento e o teste de sistemas de IA inovadores sob uma supervisão regulamentar rigorosa, antes que estes sistemas sejam colocados no mercado ou em serviço. Com efeito, é desejável que a criação de ambientes de testagem da regulamentação, cuja criação está atualmente à discrição dos Estados-Membros, seja tornada, como um próximo passo, obrigatória com critérios estabelecidos. Esse ambiente de testagem obrigatório também pode ser criado em conjunto com um ou mais Estados-Membros, desde que esse ambiente de testagem abranja o respetivo nível nacional dos Estados-Membros envolvidos. Podem igualmente ser criados outros ambientes de testagem a diferentes níveis, incluindo entre Estados-Membros, a fim de facilitar a cooperação transfronteiriça e as sinergias. Com exceção do ambiente de testagem obrigatório a nível nacional, os Estados-Membros também devem poder criar ambientes de testagem virtuais ou híbridos. Todos os ambientes de testagem da regulamentação devem poder acolher produtos físicos e virtuais. As autoridades responsáveis pela criação devem assegurar igualmente que os ambientes de testagem da regulamentação disponham de recursos financeiros e humanos adequados para o seu funcionamento.

Alteração 117

Proposta de regulamento

Considerando 72

Texto da Comissão

Alteração

(72)

Os objetivos dos ambientes de testagem da regulamentação devem passar por: fomentar a inovação no domínio da IA, mediante a criação de um ambiente controlado de experimentação e teste na fase de desenvolvimento pré-comercialização, com vista a assegurar que os sistemas de IA inovadores cumprem o presente regulamento e outra legislação aplicável dos Estados-Membros e da União; reforçar a segurança jurídica para os inovadores; melhorar a supervisão a compreensão, por parte das autoridades competentes, das oportunidades, dos riscos emergentes e dos impactos da utilização da inteligência artificial; e acelerar o acesso aos mercados , nomeadamente por via da eliminação dos entraves para as pequenas e médias empresas (PME) e as empresas em fase de arranque. Para assegurar uma aplicação uniforme em toda a União e economias de escala, é apropriado criar regras comuns para implantação dos ambientes de testagem da regulamentação e um quadro para a cooperação entre as autoridades competentes envolvidas na supervisão desses ambientes. O presente regulamento deve estabelecer o fundamento jurídico para a utilização de dados pessoais recolhidos para outras finalidades com vista ao desenvolvimento de determinados sistemas de IA por motivos de interesse público no âmbito do ambiente de testagem da regulamentação da IA, em conformidade com o artigo 6.o, n.o 4, do Regulamento (UE) 2016/679 e do artigo 6 . o do Regulamento (UE) 2018/1725 e sem prejuízo do artigo 4.o, n.o 2, da Diretiva (UE) 2016/680. Os participantes no ambiente de testagem devem assegurar salvaguardas adequadas e cooperar com as autoridades competentes, nomeadamente seguindo as suas orientações atuando de forma célere e de boa-fé para atenuar eventuais riscos elevados para segurança e os direitos fundamentais que possam revelar-se durante o desenvolvimento e  a experimentação no ambiente de testagem. A conduta dos participantes no ambiente de testagem deve ser tida em conta quando as autoridades competentes decidirem sobre a aplicação de uma coima, nos termos do artigo 83.o, n.o 2, do Regulamento (UE) 2016/679 e do artigo 57.o da Diretiva (UE) 2016/680.

(72)

Os objetivos dos ambientes de testagem da regulamentação devem passar por: as autoridades responsáveis pela criação aumentarem a sua compreensão das evoluções técnicas, melhorarem os métodos de supervisão prestarem orientações aos criadores e fornecedores de sistemas de IA , a fim de cumprirem o presente regulamento ou, se for caso disso, outra legislação aplicável da União ou dos Estados-Membros , bem como com a Carta dos Direitos Fundamentais; os potenciais fornecedores permitirem facilitarem o ensaio e o desenvolvimento de soluções inovadoras relacionadas com os sistemas de IA na fase de pré-comercialização, a fim de reforçar a segurança jurídica , permitir uma maior aprendizagem regulamentar através da criação de autoridades num ambiente controlado para desenvolver orientações melhores e identificar possíveis melhorias futuras do quadro jurídico através do processo legislativo ordinário. A identificação de quaisquer riscos significativos durante o desenvolvimento e testagem desses sistemas deve resultar na adoção imediata de medidas de atenuação e, na sua falta, na suspensão do processo de desenvolvimento e testagem até que se verifique essa atenuação. Para assegurar uma aplicação uniforme em toda a União e economias de escala, é apropriado criar regras comuns para a implantação dos ambientes de testagem da regulamentação e um quadro para a cooperação entre as autoridades competentes envolvidas na supervisão desses ambientes . Os Estados-Membros devem assegurar que os ambientes de testagem da regulamentação estão amplamente disponíveis em toda a União, devendo a participação continuar a ser voluntária. É particularmente importante garantir que as PME as empresas em fase de arranque possam aceder facilmente esses ambientes de testagem, estejam ativamente envolvidas e participem no desenvolvimento e no teste de sistemas de IA inovadores, de modo poderem contribuir com os seus conhecimentos especializados experiência .

Alteração 118

Proposta de regulamento

Considerando 72-A (novo)

Texto da Comissão

Alteração

 

(72-A)

O presente regulamento deve estabelecer a base jurídica para a utilização de dados pessoais recolhidos para outras finalidades com vista ao desenvolvimento de alguns sistemas de IA por motivos de interesse público no âmbito do ambiente de testagem da regulamentação da IA apenas em condições específicas, em conformidade com o artigo 6.o, n.o 4, do Regulamento (UE) 2016/679 e do artigo 6.o do Regulamento (UE) 2018/1725 e sem prejuízo do artigo 4.o, n.o 2, da Diretiva (UE) 2016/680. Os potenciais fornecedores no ambiente de testagem devem assegurar salvaguardas adequadas e cooperar com as autoridades competentes, nomeadamente seguindo as suas orientações e atuando de forma célere e de boa-fé para atenuar eventuais riscos elevados para a segurança, a saúde, o ambiente e os direitos fundamentais que possam surgir durante o desenvolvimento e a experimentação no ambiente de testagem. A conduta dos potenciais fornecedores no ambiente de testagem deve ser tida em conta quando as autoridades competentes tomarem uma decisão sobre a suspensão temporária ou permanente da sua participação no ambiente de testagem, ou decidirem aplicar uma coima, nos termos do artigo 83.o, n.o 2, do Regulamento (UE) 2016/679 e do artigo 57.o da Diretiva (UE) 2016/680.

Alteração 119

Proposta de regulamento

Considerando 72-B (novo)

Texto da Comissão

Alteração

 

(72-B)

A fim de garantir que a Inteligência Artificial produza resultados sociais e ambientais benéficos, os Estados-Membros devem apoiar e promover a investigação e o desenvolvimento da IA nesse sentido, atribuindo recursos suficientes, incluindo financiamento público e da União, e concedendo acesso prioritário a ambientes de testagem da regulamentação a projetos liderados pela sociedade civil. Esses projetos devem ser baseados no princípio da cooperação interdisciplinar entre criadores de IA e especialistas em matéria de desigualdade, não discriminação, acessibilidade e direitos do consumidor, ambientais e digitais, bem como académicos.

Alteração 120

Proposta de regulamento

Considerando 73

Texto da Comissão

Alteração

(73)

A fim de promover e proteger a inovação, é importante ter em especial atenção os interesses dos fornecedores e utilizadores de sistemas de IA de pequena dimensão. Para esse efeito, os Estados-Membros devem desenvolver iniciativas dirigidas a esses operadores, incluindo ações de sensibilização e comunicação de informações. Além disso, os interesses e as necessidades específicas dos fornecedores de pequena dimensão devem ser tidas em conta quando os organismos notificados fixam as taxas a pagar pela avaliação da conformidade. Os custos de tradução associados à documentação obrigatória e à comunicação com as autoridades podem constituir um custo substancial para os fornecedores e outros operadores, nomeadamente para os fornecedores de menor dimensão. Os Estados-Membros podem eventualmente assegurar que uma das línguas por si determinadas e aceites para a elaboração de documentação pelos fornecedores e a comunicação com os operadores seja uma língua amplamente compreendida pelo maior número possível de utilizadores transfronteiras.

(73)

A fim de promover e proteger a inovação, é importante ter em especial atenção os interesses dos fornecedores e utilizadores de sistemas de IA de pequena dimensão. Para esse efeito, os Estados-Membros devem desenvolver iniciativas dirigidas a esses operadores, incluindo ações de literacia em IA e de sensibilização e comunicação de informações. Os Estados-Membros devem utilizar os canais existentes e, se for caso disso, criar novos canais específicos para comunicar com PME, empresas em fase de arranque, utilizadores e outros inovadores, a fim de fornecer orientações e responder a perguntas sobre a aplicação do presente regulamento. Esses canais existentes podem incluir, entre outros, as Equipas de Resposta a Incidentes de Segurança Informática da ENISA, as autoridades nacionais de proteção de dados, a plataforma de IA a pedido, os Polos Europeus de Inovação Digital e outros instrumentos relevantes financiados por programas da UE, bem como as instalações de ensaio e experimentação criadas pela Comissão e pelos Estados-Membros a nível nacional ou da União. Sempre que adequado, esses canais devem trabalhar em conjunto para criar sinergias e assegurar a homogeneidade da sua orientação às empresas em fase de arranque, às PME e aos utilizadores. Além disso, os interesses e as necessidades específicas dos fornecedores de pequena dimensão devem ser tidas em conta quando os organismos notificados fixam as taxas a pagar pela avaliação da conformidade. A Comissão deve avaliar regularmente os custos de certificação e de conformidade para as PME e as empresas em fase de arranque, nomeadamente através de consultas transparentes com PME, empresas em fase de arranque e utilizadores, e trabalhar com os Estados-Membros para reduzir esses custos. Por exemplo, os custos de tradução associados à documentação obrigatória e à comunicação com as autoridades podem constituir um custo substancial para os fornecedores e outros operadores, nomeadamente para os fornecedores de menor dimensão. Os Estados-Membros podem eventualmente assegurar que uma das línguas por si determinadas e aceites para a elaboração de documentação pelos fornecedores e a comunicação com os operadores seja uma língua amplamente compreendida pelo maior número possível de utilizadores transfronteiras. As empresas de média dimensão que passaram recentemente da categoria de pequena para média, na aceção do anexo da Recomendação 2003/361/CE (artigo 16.o), devem ter acesso a essas iniciativas e orientações durante um período de tempo considerado adequado pelos Estados-Membros, uma vez que essas novas empresas de média dimensão podem, por vezes, não dispor dos recursos jurídicos e da formação necessários para assegurar a compreensão e o cumprimento adequados das disposições.

Alteração 121

Proposta de regulamento

Considerando 74

Texto da Comissão

Alteração

(74)

Para minimizar os riscos para a aplicação resultantes da falta de conhecimentos e competências especializadas no mercado, bem como facilitar o cumprimento, por parte dos fornecedores e dos organismos notificados, das obrigações que lhes são impostas pelo presente regulamento, a «plataforma IA a pedido», os polos europeus de inovação digital e as instalações de ensaio e experimentação criadas pela Comissão e pelos Estados-Membros a nível nacional ou europeu podem eventualmente contribuir para a aplicação do presente regulamento. No âmbito da respetiva missão e domínios de competência, estas entidades podem prestar apoio técnico e científico aos fornecedores e aos organismos notificados.

(74)

Para minimizar os riscos para a aplicação resultantes da falta de conhecimentos e competências especializadas no mercado, bem como facilitar o cumprimento, por parte dos fornecedores e dos organismos notificados, das obrigações que lhes são impostas pelo presente regulamento, a «plataforma IA a pedido», os polos europeus de inovação digital e as instalações de ensaio e experimentação criadas pela Comissão e pelos Estados-Membros a nível nacional ou europeu podem contribuir para a aplicação do presente regulamento. No âmbito da respetiva missão e domínios de competência, estas entidades podem prestar apoio técnico e científico aos fornecedores e aos organismos notificados.

Alteração 122

Proposta de regulamento

Considerando 76

Texto da Comissão

Alteração

(76)

A fim de facilitar uma aplicação simples, eficaz e harmoniosa do presente regulamento, deve ser criado um Comité Europeu para a Inteligência Artificial. O  Comité deve ser responsável por uma série de funções consultivas, nomeadamente a emissão de pareceres, recomendações, conselhos ou orientações em questões relacionadas com a aplicação do presente regulamento, incluindo no tocante a especificações técnicas ou normas existentes relativas aos requisitos indicados no presente regulamento , e a prestação de aconselhamento assistência à Comissão sobre questões específicas relacionadas com a  inteligência artificial .

(76)

A fim de evitar a fragmentação, de assegurar o funcionamento ideal do mercado único, de assegurar uma aplicação eficaz e harmoniosa do presente regulamento, de alcançar um nível elevado de fiabilidade e de proteção da saúde, da segurança, dos direitos fundamentais, do ambiente, da democracia e do Estado de direito em toda a União, no que diz respeito aos sistemas de IA, de apoiar ativamente as autoridades nacionais de controlo, as instituições, órgãos e organismos da União em questões relacionadas com o presente regulamento, de aumentar a utilização da inteligência artificial em toda a União, deve ser criado um Serviço da União Europeia para a Inteligência Artificial. O  Serviço IA deve ter personalidade jurídica, agir com total independência, ser responsável por uma série de funções consultivas e de coordenação , nomeadamente a emissão de pareceres, recomendações, conselhos ou orientações em questões relacionadas com a aplicação do presente regulamento, e ser adequadamente financiado e dotado de pessoal. Os Estados-Membros devem providenciar direção estratégica e o controlo do Serviço IA através do conselho de administração do Serviço IA, juntamente com a Comissão, a AEPD, a FRA e a ENISA. Um diretor executivo deve ser responsável pela gestão das atividades do secretariado e pela representação do Serviço IA. As partes interessadas devem participar formalmente nos trabalhos do Serviço IA através de um fórum consultivo que deve assegurar uma representação variada e equilibrada das partes interessadas e aconselhar o Serviço IA em questões relacionadas com o presente regulamento. Caso criação do Serviço IA se revele insuficiente para assegurar uma aplicação plenamente coerente do presente regulamento a nível da União, bem como de medidas transfronteiriças eficientes de execução, deve ser ponderada a criação de uma agência para a IA .

Alteração 123

Proposta de regulamento

Considerando 77

Texto da Comissão

Alteração

(77)

Os Estados-Membros desempenham um papel fundamental na aplicação e execução do presente regulamento. Nesse sentido, cada Estado-Membro deve designar uma ou várias autoridades nacionais competentes para efeitos de supervisão da aplicação e execução do presente regulamento . A fim de aumentar a eficácia organizativa dos Estados-Membros e de criar um ponto de contacto oficial para o público e outras contrapartes a nível dos Estados-Membros e da União, cada Estado-Membro deve designar uma autoridade nacional como autoridade nacional de controlo .

(77)

Cada Estado-Membro deve designar uma autoridade nacional de controlo para efeitos de supervisão da aplicação e execução do presente regulamento. Deve igualmente representar o seu Estado-Membro no conselho de administração do Serviço IA . A fim de aumentar a eficácia organizativa dos Estados-Membros e de criar um ponto de contacto oficial para o público e outras contrapartes a nível dos Estados-Membros e da União. Cada autoridade nacional de controlo deve atuar com total independência no desempenho das suas funções e no exercício dos poderes que lhe são atribuídos nos termos do presente regulamento .

Alteração 124

Proposta de regulamento

Considerando 77-A (novo)

Texto da Comissão

Alteração

 

(77-A)

As autoridades nacionais de controlo devem acompanhar a aplicação das disposições do presente regulamento e contribuir para a sua aplicação coerente em toda a União. Para tal, as autoridades nacionais de controlo devem cooperar entre si, com as autoridades nacionais competentes relevantes, com a Comissão e com o Serviço IA.

Alteração 125

Proposta de regulamento

Considerando 77-B (novo)

Texto da Comissão

Alteração

 

(77-B)

Os membros e o pessoal de cada autoridade nacional de controlo devem, nos termos do direito da União ou do direito nacional, ficar sujeitos à obrigação de sigilo profissional, tanto durante o mandato como após o seu termo, no que diz respeito às informações confidenciais a que tenham tido acesso no desempenho das suas funções ou exercício dos seus poderes. Durante o seu mandato, essa obrigação de sigilo profissional aplica-se, em especial, a segredos comerciais e à prestação de informações por pessoas singulares de violações do presente regulamento.

Alteração 126

Proposta de regulamento

Considerando 78

Texto da Comissão

Alteração

(78)

Para assegurar que os fornecedores de sistemas de IA de risco elevado possam aproveitar a experiência adquirida na utilização de sistemas de IA de risco elevado para melhorarem os seus sistemas e o processo de conceção e desenvolvimento ou possam adotar possíveis medidas corretivas em tempo útil, todos os fornecedores devem dispor de um sistema de acompanhamento pós-comercialização. Este sistema também é fundamental para assegurar uma resolução mais eficaz e atempada dos eventuais riscos decorrentes dos sistemas de IA que continuam a «aprender» depois de terem sido colocados no mercado ou em serviço. Neste contexto, os fornecedores devem ainda ser obrigados a introduzir um sistema para comunicar às autoridades competentes quaisquer incidentes graves ou violações do direito nacional e da União que protege os direitos fundamentais resultantes da utilização dos sistemas de IA que fornecem.

(78)

Para assegurar que os fornecedores de sistemas de IA de risco elevado possam aproveitar a experiência adquirida na utilização de sistemas de IA de risco elevado para melhorarem os seus sistemas e o processo de conceção e desenvolvimento ou possam adotar possíveis medidas corretivas em tempo útil, todos os fornecedores devem dispor de um sistema de acompanhamento pós-comercialização. Este sistema também é fundamental para assegurar uma resolução mais eficaz e atempada dos eventuais riscos decorrentes dos sistemas de IA que continuam a «aprender» ou a evoluir depois de terem sido colocados no mercado ou em serviço. Neste contexto, os fornecedores devem ainda ser obrigados a introduzir um sistema para comunicar às autoridades competentes quaisquer incidentes graves ou violações do direito nacional e da União , nomeadamente às que protegem os direitos fundamentais e os direitos dos consumidores, resultantes da utilização dos sistemas de IA que fornecem e adotar as medidas corretivas adequadas . Os responsáveis pela implantação também devem comunicar às autoridades competentes todos os incidentes graves ou violações do direito nacional ou da União resultantes da utilização dos seus sistemas de IA, assim que passem a ter conhecimento desses incidentes graves ou violações.

Alteração 127

Proposta de regulamento

Considerando 79

Texto da Comissão

Alteração

(79)

Para assegurar uma execução adequada e eficaz dos requisitos e das obrigações estabelecidas no presente regulamento, que faz parte da legislação de harmonização da União, o sistema de fiscalização do mercado e de conformidade dos produtos estabelecido no Regulamento (UE) 2019/1020 deve ser aplicado na íntegra. Quando tal for necessário ao cumprimento do seu mandato, as autoridades públicas ou os organismos nacionais que supervisionam a aplicação do direito da União que protege direitos fundamentais, incluindo os organismos de promoção da igualdade, também devem ter acesso à documentação elaborada por força do presente regulamento.

(79)

Para assegurar uma execução adequada e eficaz dos requisitos e das obrigações estabelecidas no presente regulamento, que faz parte da legislação de harmonização da União, o sistema de fiscalização do mercado e de conformidade dos produtos estabelecido no Regulamento (UE) 2019/1020 deve ser aplicado na íntegra. Para efeitos do presente regulamento, as autoridades nacionais de controlo devem atuar como autoridades de fiscalização do mercado para os sistemas de IA abrangidos pelo presente regulamento, com exceção dos sistemas de IA abrangidos pelo anexo II do presente regulamento. Para os sistemas de IA abrangidos pelos atos jurídicos enumerados no anexo II, as autoridades competentes ao abrigo desses atos jurídicos devem continuar a ser a autoridade principal. As autoridades nacionais de controlo e as autoridades nacionais competentes dos atos jurídicos enumerados no anexo II devem trabalhar em conjunto sempre que necessário. Se for caso disso, as autoridades competentes constantes dos atos jurídicos enumerados no anexo II devem enviar pessoal competente à autoridade nacional de controlo para a ajudar a desempenhar as suas funções. Para efeitos do presente regulamento, as autoridades nacionais de controlo devem ter os mesmos poderes e obrigações que as autoridades de fiscalização do mercado ao abrigo do Regulamento (UE) 2019/1020. Quando tal for necessário ao cumprimento do seu mandato, as autoridades públicas ou os organismos nacionais que supervisionam a aplicação do direito da União que protege direitos fundamentais, incluindo os organismos de promoção da igualdade, também devem ter acesso à documentação elaborada por força do presente regulamento. Depois de esgotadas todas as outras formas razoáveis de avaliar/verificar a conformidade e mediante pedido fundamentado, a autoridade nacional de controlo deve ter acesso aos conjuntos de dados de treino, validação e teste, ao modelo treinado e de aprendizagem do sistema de IA de risco elevado, incluindo os seus parâmetros pertinentes, e ao seu ambiente de execução/funcionamento. No caso de sistemas de software mais simples abrangidos pelo presente regulamento que não se baseiem em modelos treinados e em que tenham sido esgotadas todas as outras formas de verificar a conformidade, a autoridade nacional de controlo pode, a título excecional, ter acesso ao código-fonte, mediante pedido fundamentado. Caso a autoridade nacional de controlo tenha obtido acesso aos conjuntos de dados de treino, validação e teste em conformidade com o presente regulamento, esse acesso deve ser efetuado através de ferramentas e meios técnicos adequados, incluindo o acesso no local e, em circunstâncias excecionais, o acesso remoto. A autoridade nacional de controlo deve tratar todas as informações obtidas, incluindo o código-fonte, o software e os dados, conforme aplicável, como informações confidenciais e respeitar a legislação da União aplicável em matéria de proteção da propriedade intelectual e de segredos comerciais. A autoridade nacional de controlo deve eliminar todas as informações obtidas após a conclusão da investigação.

Alteração 128

Proposta de regulamento

Considerando 80

Texto da Comissão

Alteração

(80)

A legislação da União em matéria de serviços financeiros inclui regras e requisitos relativos à governação interna e à gestão dos riscos aplicáveis às instituições financeiras regulamentadas durante a prestação desses serviços, incluindo quando estas utilizam sistemas de IA. Para assegurar a coerência na aplicação e na execução das obrigações previstas no presente regulamento e das regras e requisitos da legislação da União aplicáveis aos serviços financeiros, as autoridades responsáveis pela supervisão e execução da legislação no domínio dos serviços financeiros, incluindo, se for caso disso, o Banco Central Europeu, devem ser designadas autoridades competentes para efeitos de supervisão da aplicação do presente regulamento, incluindo o exercício de funções de fiscalização do mercado, no que diz respeito aos sistemas de IA fornecidos ou utilizados por instituições financeiras regulamentadas e supervisionadas. A fim de reforçar a coerência entre o presente regulamento e as regras aplicáveis às instituições de crédito regulamentadas pela Diretiva 2013/36/UE do Parlamento Europeu e do Conselho (56), também é apropriado integrar o procedimento de avaliação da conformidade e algumas das obrigações processuais dos fornecedores relativas à gestão de riscos, ao acompanhamento pós-comercialização e à documentação nas obrigações e procedimentos em vigor por força da mesma diretiva. No intuito de evitar sobreposições, também devem ser previstas derrogações limitadas no respeitante ao sistema de gestão da qualidade dos fornecedores e à obrigação de controlo imposta aos utilizadores de sistemas de IA de risco elevado, contanto que tal se aplique a instituições de crédito regulamentadas pela Diretiva 2013/36/UE.

(80)

O direito da União em matéria de serviços financeiros inclui regras e requisitos relativos à governação interna e à gestão dos riscos aplicáveis às instituições financeiras regulamentadas durante a prestação desses serviços, incluindo quando estas utilizam sistemas de IA. Para assegurar a coerência na aplicação e na execução das obrigações previstas no presente regulamento e das regras e requisitos do direito da União aplicável aos serviços financeiros, as autoridades responsáveis pela supervisão e execução da legislação no domínio dos serviços financeiros, incluindo, se for caso disso, o Banco Central Europeu, devem ser designadas autoridades competentes para efeitos de supervisão da aplicação do presente regulamento, incluindo o exercício de funções de fiscalização do mercado, no que diz respeito aos sistemas de IA fornecidos ou utilizados por instituições financeiras regulamentadas e supervisionadas. A fim de reforçar a coerência entre o presente regulamento e as regras aplicáveis às instituições de crédito regulamentadas pela Diretiva 2013/36/UE do Parlamento Europeu e do Conselho (56), também é apropriado integrar o procedimento de avaliação da conformidade e algumas das obrigações processuais dos fornecedores relativas à gestão de riscos, ao acompanhamento pós-comercialização e à documentação nas obrigações e procedimentos em vigor por força da mesma diretiva. No intuito de evitar sobreposições, também devem ser previstas derrogações limitadas no respeitante ao sistema de gestão da qualidade dos fornecedores e à obrigação de controlo imposta aos responsáveis pela implantação de sistemas de IA de risco elevado, contanto que tal se aplique a instituições de crédito regulamentadas pela Diretiva 2013/36/UE.

Alteração 129

Proposta de regulamento

Considerando 80-A (novo)

Texto da Comissão

Alteração

 

(80-A)

Atendendo aos objetivos do presente regulamento, nomeadamente de assegurar um nível equivalente de proteção da saúde, da segurança e dos direitos fundamentais das pessoas singulares, a proteção do Estado de direito e da democracia, e tendo em conta que a atenuação dos riscos que os sistemas de IA representam para esses direitos pode não ser suficientemente alcançada a nível nacional ou estar sujeita a interpretações divergentes, que, em última análise, podem conduzir a um nível desigual de proteção das pessoas singulares e provocar a fragmentação do mercado, as autoridades nacionais de controlo devem estar habilitadas a realizar investigações conjuntas ou a recorrer aos processo de salvaguarda da União previsto no presente regulamento para a execução efetiva. As investigações conjuntas devem ser iniciadas quando uma autoridades nacional de controlo tiver motivos suficientes para crer que uma violação ao presente regulamento constitui uma violação generalizada ou uma violação generalizada ao nível da União, ou se o sistema de IA ou o modelo de base representar um risco que afete ou seja suscetível de afetar, pelo menos, 45 milhões de pessoas em mais do que um Estado-Membro.

Alteração 130

Proposta de regulamento

Considerando 82

Texto da Comissão

Alteração

(82)

Não obstante, é importante que os sistemas de IA relacionados com produtos que não são de risco elevado, nos termos do presente regulamento, e que, como tal, não são obrigados a cumprir os requisitos do mesmo , sejam seguros quando são colocados no mercado ou em serviço. A fim de contribuir para alcançar esse objetivo, a Diretiva 2001/95/CE do Parlamento Europeu e do Conselho (57) será aplicada como uma rede de segurança.

(82)

Não obstante, é importante que os sistemas de IA relacionados com produtos que não são de risco elevado, nos termos do presente regulamento, e que, como tal, não são obrigados a cumprir os requisitos aplicáveis a sistemas de IA de risco elevado , sejam seguros quando são colocados no mercado ou em serviço. A fim de contribuir para alcançar esse objetivo, a Diretiva 2001/95/CE do Parlamento Europeu e do Conselho (57) será aplicada como uma rede de segurança.

Alteração 131

Proposta de regulamento

Considerando 83

Texto da Comissão

Alteração

(83)

Para assegurar uma cooperação de confiança e construtiva entre as autoridades competentes a nível da União e nacional, todas as partes envolvidas na aplicação do presente regulamento devem respeitar a confidencialidade das informações e dos dados obtidos no exercício das suas funções.

(83)

Para assegurar uma cooperação de confiança e construtiva entre as autoridades competentes a nível da União e nacional, todas as partes envolvidas na aplicação do presente regulamento devem visar a transparência e a abertura, respeitando simultaneamente a confidencialidade das informações e dos dados obtidos no exercício das suas funções , adotando medidas técnicas e organizativas para proteger a segurança e a confidencialidade das informações obtidas no exercício das suas atividades, nomeadamente em matéria de direitos de propriedade intelectual e de interesses de segurança pública e nacional. Nos casos em que as atividades da Comissão, das autoridades nacionais competentes e dos organismos notificados nos termos do presente regulamento resultem numa violação de direitos de propriedade intelectual, os Estados-Membros devem prever medidas e vias de recurso adequadas para garantir o respeito dos direitos de propriedade intelectual em aplicação da Diretiva 2004/48/CE.

Alteração 132

Proposta de regulamento

Considerando 84

Texto da Comissão

Alteração

(84)

Os Estados-Membros devem tomar todas as medidas necessárias para assegurar a aplicação das disposições do presente regulamento, inclusive estabelecendo sanções efetivas, proporcionadas e dissuasivas aplicáveis à sua violação. No caso de determinadas violações específicas, os Estados-Membros devem ter em conta as margens os critérios estabelecidos no presente regulamento . A Autoridade Europeia para a Proteção de Dados deve ter competências para impor coimas às instituições, órgãos e organismos da União que se enquadram no âmbito do presente regulamento.

(84)

O cumprimento do presente regulamento deve poder ser assegurado mediante a aplicação de coimas pela autoridade nacional de controlo no âmbito dos processos iniciados em conformidade com o procedimento previsto no presente regulamento. Os Estados-Membros devem tomar todas as medidas necessárias para assegurar a aplicação das disposições do presente regulamento, inclusive estabelecendo sanções efetivas, proporcionadas e dissuasivas aplicáveis à sua violação. A fim de reforçar e harmonizar as sanções administrativas em caso de violação do presente regulamento, devem ser estabelecidos os limites máximos para a fixação de coimas para determinadas violações específicas . Ao avaliar o montante das coimas , as autoridades nacionais competentes devem , em cada caso individual, ter em conta todas as circunstâncias relevantes da situação específica, prestando especial atenção à natureza, à gravidade à duração da violação e às suas consequências, bem como à dimensão do prestador, em particular se o prestador for uma PME ou uma empresa em fase de arranque . A Autoridade Europeia para a Proteção de Dados deve ter competências para impor coimas às instituições, órgãos e organismos da União que se enquadram no âmbito do presente regulamento. As sanções e os custos de contencioso ao abrigo do presente regulamento não devem estar sujeitos a cláusulas contratuais ou quaisquer outras disposições.

Alteração 133

Proposta de regulamento

Considerando 84-A (novo)

Texto da Comissão

Alteração

 

(84-A)

Uma vez que os direitos e liberdades das pessoas singulares e coletivas e dos grupos de pessoas singulares podem ser gravemente prejudicados pelos sistemas de IA, é essencial que as pessoas singulares e coletivas e os grupos de pessoas singulares tenham um acesso significativo aos mecanismos de prestação de informações e de recurso e tenham direito a vias de recurso proporcionadas e eficazes. Devem poder comunicar violações ao presente regulamento à sua autoridade nacional de controlo, bem como ter o direito de apresentar uma queixa contra os prestadores ou responsáveis pela implantação dos sistemas de IA. Se aplicável, os responsáveis pela implantação devem prever mecanismos internos de apresentação de queixas a utilizar por pessoas singulares e coletivas e grupos de pessoas singulares. Sem prejuízo de qualquer outra via de recurso administrativa ou extrajudicial, as pessoas singulares e coletivas e os grupos de pessoas singulares devem igualmente ter direito a um recurso judicial efetivo relativamente a uma decisão juridicamente vinculativa de uma autoridade nacional de controlo que lhes diga respeito ou, caso a autoridade nacional de controlo não trate uma queixa, não informe o reclamante do andamento ou do resultado preliminar da queixa apresentada ou não cumpra a sua obrigação de tomar uma decisão final, à queixa.

Alteração 134

Proposta de regulamento

Considerando 84-B (novo)

Texto da Comissão

Alteração

 

(84-B)

As pessoas afetadas devem ser sempre informadas de que estão a ser alvo da utilização de um sistema de IA de risco elevado, quando os responsáveis pela implantação utilizam um sistema de IA de risco elevado para ajudar na tomada de decisões ou tomar decisões relacionadas com pessoas singulares. Essa informação pode constituir uma base para as pessoas afetadas exercerem o seu direito a uma explicação ao abrigo do presente regulamento. Quando os responsáveis pela implantação fornecem uma explicação às pessoas afetadas ao abrigo do presente regulamento, devem ter em conta o nível de conhecimentos especializados e genéricos de uma pessoa ou consumidor médios.

Alteração 135

Proposta de regulamento

Considerando 84-C (novo)

Texto da Comissão

Alteração

 

(84-C)

A legislação da União relativa à proteção dos denunciantes (Diretiva (UE) 2019/1937) aplica-se inteiramente a académicos, técnicos de conceção, criadores, colaboradores de projetos, auditores, gestores de produtos, engenheiros e operadores económicos que obtenham informações sobre violações do direito da União por parte de um fornecedor de sistema de IA ou do seu sistema de IA.

Alteração 136

Proposta de regulamento

Considerando 85

Texto da Comissão

Alteração

(85)

Para assegurar que é possível adaptar o quadro regulamentar quando necessário, o poder de adotar atos nos termos do artigo 290.o do TFUE deve ser delegado na Comissão no que diz respeito à alteração das técnicas e abordagens que definem sistemas de IA mencionadas no anexo I, da legislação de harmonização da União enumerada no anexo II, da lista de sistemas de IA de risco elevado constante do anexo III, das disposições relativas à documentação técnica que constam do anexo IV, do conteúdo da declaração de conformidade UE estabelecido no anexo V, das disposições relativas aos procedimentos de avaliação da conformidade que constam dos anexos VI e VII e das disposições que definem os sistemas de IA de risco elevado aos quais se deve aplicar o procedimento de avaliação da conformidade com base na avaliação do sistema de gestão da qualidade e na avaliação da documentação técnica. É particularmente importante que a Comissão proceda às consultas adequadas durante os trabalhos preparatórios, inclusive ao nível de peritos, e que essas consultas sejam conduzidas de acordo com os princípios estabelecidos no Acordo Interinstitucional, de 13 de abril de 2016, sobre legislar melhor (58). Em particular, a fim de assegurar a igualdade de participação na preparação dos atos delegados, o Parlamento Europeu e o Conselho recebem todos os documentos ao mesmo tempo que os peritos dos Estados-Membros e os respetivos peritos têm sistematicamente acesso às reuniões dos grupos de peritos da Comissão que tratem da preparação dos atos delegados.

(85)

Para assegurar que é possível adaptar o quadro regulamentar quando necessário, o poder de adotar atos nos termos do artigo 290.o do TFUE deverá ser delegado na Comissão no que diz respeito à alteração da legislação de harmonização da União enumerada no anexo II, da lista de sistemas de IA de risco elevado constante do anexo III, das disposições relativas à documentação técnica que constam do anexo IV, do conteúdo da declaração de conformidade UE estabelecido no anexo V, das disposições relativas aos procedimentos de avaliação da conformidade que constam dos anexos VI e VII e das disposições que definem os sistemas de IA de risco elevado aos quais se deve aplicar o procedimento de avaliação da conformidade com base na avaliação do sistema de gestão da qualidade e na avaliação da documentação técnica. É particularmente importante que a Comissão proceda às consultas adequadas durante os trabalhos preparatórios, inclusive ao nível de peritos, e que essas consultas sejam conduzidas de acordo com os princípios estabelecidos no Acordo Interinstitucional, de 13 de abril de 2016, sobre legislar melhor (58) . Essas consultas devem incluir a participação de uma seleção equilibrada de partes interessadas, incluindo organizações de consumidores, a sociedade civil, associações que representem pessoas afetadas, representantes de empresas de diferentes setores e dimensões, investigadores e cientistas . Em particular, a fim de assegurar a igualdade de participação na preparação dos atos delegados, o Parlamento Europeu e o Conselho recebem todos os documentos ao mesmo tempo que os peritos dos Estados-Membros e os respetivos peritos têm sistematicamente acesso às reuniões dos grupos de peritos da Comissão que tratem da preparação dos atos delegados.

Alteração 137

Proposta de regulamento

Considerando 85-A (novo)

Texto da Comissão

Alteração

 

(85-A)

Tendo em conta a rápida evolução tecnológica e os conhecimentos técnicos especializados necessários para realizar a avaliação de sistemas de IA de risco elevado, a Comissão deve rever regularmente a aplicação do presente regulamento, em especial no que diz respeito aos sistemas de IA proibidos, às obrigações de transparência e à lista de domínios de risco elevado e de casos de utilização, pelo menos anualmente, consultando o Serviço IA e as partes interessadas relevantes.

Alteração 138

Proposta de regulamento

Considerando 87-A (novo)

Texto da Comissão

Alteração

 

(87-A)

Uma vez que as informações fiáveis sobre a utilização de recursos e de energia, a produção de resíduos e outros impactos ambientais dos sistemas de IA e das respetivas TIC, incluindo software, hardware e, em particular, centros de dados, são limitadas, a Comissão deve introduzir uma metodologia adequada para medir o impacto ambiental e a eficácia do presente regulamento face aos objetivos ambientais e climáticos da União.

Alteração 139

Proposta de regulamento

Considerando 89

Texto da Comissão

Alteração

(89)

A Autoridade Europeia para a Proteção de Dados e o Comité Europeu para a Proteção de Dados foram consultados nos termos do artigo 42.o, n.o 2, do Regulamento (UE) 2018/1725, e emitiram parecer em […],

(89)

A Autoridade Europeia para a Proteção de Dados e o Comité Europeu para a Proteção de Dados foram consultados nos termos do artigo 42.o, n.o 2, do Regulamento (UE) 2018/1725, e emitiram parecer em 18 de junho de 2021.

Alteração 140

Proposta de regulamento

Artigo 1 — parágrafo 1 (novo)

Texto da Comissão

Alteração

 

1.

A finalidade do presente regulamento é promover a adoção de inteligência artificial centrada no ser humano e de confiança e assegurar um nível elevado de proteção da saúde, da segurança, dos direitos fundamentais, da democracia, do Estado de direito e do ambiente contra os efeitos nocivos dos sistemas de inteligência artificial na União, apoiando simultaneamente a inovação;

Alteração 141

Proposta de regulamento

Artigo 1 — parágrafo 1 — alínea d)

Texto da Comissão

Alteração

d)

Regras de transparência harmonizadas para sistemas de IA concebidos para interagir com pessoas singulares, sistemas de reconhecimento de emoções e sistemas de categorização biométrica, bem como para sistemas de IA usados para gerar ou manipular conteúdos de imagem, áudio ou vídeo;

d)

Regras de transparência harmonizadas para determinados sistemas de IA;

Alteração 142

Proposta de regulamento

Artigo 1 — parágrafo 1 — alínea e)

Texto da Comissão

Alteração

e)

Regras relativas à fiscalização e vigilância do mercado.

e)

Regras relativas à fiscalização do mercado, à vigilância do mercado , à governação e à execução;

Alteração 143

Proposta de regulamento

Artigo 1 — parágrafo 1 — alínea e-A) (nova)

Texto da Comissão

Alteração

 

e-A)

Medidas de apoio à inovação, com destaque especial para as PME e as empresas em fase de arranque, incluindo a criação de ambientes de testagem da regulamentação e de medidas específicas destinadas a reduzir a carga regulamentar para as PME e as empresas em fase de arranque;

Alteração 144

Proposta de regulamento

Artigo 1 — parágrafo 1 — alínea e-B) (nova)

Texto da Comissão

Alteração

 

e-B)

Regras para a criação e funcionamento do Serviço da União para a Inteligência Artificial (Serviço IA).

Alteração 145

Proposta de regulamento

Artigo 2 — n.o 1 — alínea b)

Texto da Comissão

Alteração

b)

Utilizadores de sistemas de IA localizados na União;

b)

Responsáveis pela implantação de sistemas de IA que tenham o seu local de estabelecimento ou que estejam localizados na União;

Alteração 146

Proposta de regulamento

Artigo 2 — n.o 1 — alínea c)

Texto da Comissão

Alteração

c)

Fornecedores e  utilizadores de sistemas de IA localizados num país terceiro, se o resultado produzido pelo sistema for utilizado na União.

c)

Fornecedores e  responsáveis pela implantação de sistemas de IA que tenham o seu local de estabelecimento ou estejam localizados num país terceiro, caso a legislação dos Estados-Membros seja aplicável por força de direito internacional público ou se o resultado produzido pelo sistema se destine a ser utilizado na União;

Alteração 147

Proposta de regulamento

Artigo 2 — n.o 1 — alínea c-A) (nova)

Texto da Comissão

Alteração

 

c-A)

Fornecedores que coloquem no mercado ou coloquem em serviço os sistemas de IA, a que se refere o artigo 5.o, fora do território da União, se o fornecedor ou distribuidor desses sistemas estiver localizado na União;

Alteração 148

Proposta de regulamento

Artigo 2 — n.o 1 — alínea c-B) (nova)

Texto da Comissão

Alteração

 

c-B)

Importadores e distribuidores de sistemas de IA, bem como representantes autorizados de fornecedores de sistemas de IA, caso esses importadores, distribuidores ou representantes autorizados tenham o seu estabelecimento ou estejam localizados na União;

Alteração 149

Proposta de regulamento

Artigo 2.o — n.o 1 — alínea c-C) (nova)

Texto da Comissão

Alteração

 

c-C)

Pessoas afetadas, na aceção do artigo 3.o, n.o 8-A, que estejam localizadas na União e cuja saúde, segurança ou direitos fundamentais sejam afetados negativamente pela utilização de um sistema de IA colocado no mercado ou colocado em serviço na União.

Alteração 150

Proposta de regulamento

Artigo 2.o — n.o 2 — parte introdutória

Texto da Comissão

Alteração

2.   Aos sistemas de IA de risco elevado que são componentes de segurança de produtos ou sistemas ou que são, eles próprios, produtos ou sistemas abrangidos pelo âmbito dos atos a seguir enumerados , apenas é aplicável o artigo 84.o do presente regulamento:

2.   Aos sistemas de IA de risco elevado que são componentes de segurança de produtos ou sistemas ou que são, eles próprios, produtos ou sistemas abrangidos pelo âmbito da legislação de harmonização enumerada no anexo II, secção B , apenas é aplicável o artigo 84.o do presente regulamento;

Alteração 151

Proposta de regulamento

Artigo 2 — n.o 2 — alínea a)

Texto da Comissão

Alteração

a)

Regulamento (CE) n.o 300/2008;

Suprimido

Alteração 152

Proposta de regulamento

Artigo 2 — n.o 2 — alínea b)

Texto da Comissão

Alteração

b)

Regulamento (UE) n.o 167/2013;

Suprimido

Alteração 153

Proposta de regulamento

Artigo 2 — n.o 2 — alínea c)

Texto da Comissão

Alteração

c)

Regulamento (UE) n.o 168/2013;

Suprimido

Alteração 154

Proposta de regulamento

Artigo 2 — n.o 2 — alínea d)

Texto da Comissão

Alteração

d)

Diretiva 2014/90/UE;

Suprimido

Alteração 155

Proposta de regulamento

Artigo 2 — n.o 2 — alínea e)

Texto da Comissão

Alteração

e)

Diretiva (UE) 2016/797;

Suprimido

Alteração 156

Proposta de regulamento

Artigo 2 — n.o 2 — alínea f)

Texto da Comissão

Alteração

f)

Regulamento (UE) 2018/858;

Suprimido

Alteração 157

Proposta de regulamento

Artigo 2 — n.o 2 — alínea g)

Texto da Comissão

Alteração

g)

Regulamento (UE) 2018/1139;

Suprimido

Alteração 158

Proposta de regulamento

Artigo 2 — n.o 2 — alínea h)

Texto da Comissão

Alteração

h)

Regulamento (UE) 2019/2144.

Suprimido

Alteração 159

Proposta de regulamento

Artigo 2 — n.o 4

Texto da Comissão

Alteração

4.   O presente regulamento não se aplica a autoridades públicas de países terceiros, nem a organizações internacionais abrangidas pelo âmbito do presente regulamento nos termos do n.o 1, quando essas autoridades ou organizações usem sistemas de IA no âmbito de acordos internacionais para efeitos de cooperação policial e judiciária com a União ou com um ou vários Estados-Membros.

4.   O presente regulamento não se aplica a autoridades públicas de países terceiros, nem a organizações internacionais abrangidas pelo âmbito do presente regulamento nos termos do n.o 1, quando essas autoridades ou organizações usem sistemas de IA no âmbito de cooperação ou acordos internacionais para efeitos de cooperação policial e judiciária com a União ou com um ou vários Estados-Membros e são objeto de uma decisão da Comissão adotada nos termos do artigo 36 . o da Diretiva (UE) 2016/680 ou do artigo 45.o do Regulamento 2016/679 («decisão de adequação») ou fazem parte de um acordo internacional celebrado entre a União e esse país terceiro ou organização internacional, nos termos do artigo 218.o do TFUE, que apresente salvaguardas adequadas em matéria de proteção da privacidade e dos direitos e liberdades fundamentais das pessoas;

Alteração 160

Proposta de regulamento

Artigo 2 — n.o 5-A (novo)

Texto da Comissão

Alteração

 

5-A.     A legislação da União em matéria de proteção de dados pessoais, de privacidade e de confidencialidade das comunicações aplica-se aos dados pessoais tratados em relação aos direitos e obrigações estabelecidos no presente regulamento. O presente regulamento não afeta os Regulamentos (UE) 2016/679 e (UE) 2018/1725 nem as Diretivas 2002/58/CE e (UE) 2016/680, sem prejuízo do disposto no artigo 10.o, n.o 5, e no artigo 54.o do presente regulamento;

Alteração 161

Proposta de regulamento

Artigo 2 — n.o 5-B (novo)

Texto da Comissão

Alteração

 

5-B.     O presente regulamento não prejudica as regras estabelecidas por outros atos legislativos da União relacionados com a proteção dos consumidores e a segurança dos produtos;

Alteração 162

Proposta de regulamento

Artigo 2 — n.o 5-C (novo)

Texto da Comissão

Alteração

 

5-C.     O presente regulamento não impede que os Estados-Membros ou a União mantenham ou introduzam disposições legislativas, regulamentares ou administrativas mais favoráveis para os trabalhadores em termos de proteção dos seus direitos no que diz respeito à utilização de sistemas de IA por empregadores, ou que incentivem ou permitam a aplicação de convenções coletivas mais favoráveis para os trabalhadores.

Alteração 163

Proposta de regulamento

Artigo 2 — n.o 5-D (novo)

Texto da Comissão

Alteração

 

5-D.     O presente regulamento não se aplica às atividades de investigação, teste e desenvolvimento de um sistema de IA antes de esse sistema ser colocado no mercado ou colocado em serviço, desde que essas atividades sejam realizadas no respeito dos direitos fundamentais e da legislação aplicável da União. A presente isenção não abrange os testes em condições reais. A Comissão fica habilitada a adotar atos delegados, em conformidade com o artigo 73.o, que clarifiquem a aplicação do presente número, a fim de especificar esta isenção, para evitar abusos existentes e potenciais. O Serviço IA deve fornecer orientações sobre a governação da investigação e do desenvolvimento nos termos do artigo 56.o, visando igualmente coordenar a sua aplicação pelas autoridades nacionais de controlo;

Alteração 164

Proposta de regulamento

Artigo 2 — n.o 5-E (novo)

Texto da Comissão

Alteração

 

5-E.     O presente regulamento não é aplicável aos componentes de IA prestados ao abrigo de licenças livres e de fonte aberta, exceto na medida em que sejam colocados no mercado ou colocados em serviço por um fornecedor como parte de um sistema de IA de risco elevado ou de um sistema de IA abrangido pelos títulos II ou IV. Esta isenção não se aplica aos modelos de base definidos no artigo 3.o.

Alteração 165

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 1

Texto da Comissão

Alteração

(1)

«Sistema de inteligência artificial» (sistema de IA), um programa informático desenvolvido com uma ou várias das técnicas e abordagens enumeradas no anexo I, capaz de , tendo em vista um determinado conjunto de objetivos definidos por seres humanos , criar resultados, tais como conteúdos, previsões, recomendações ou decisões, que influenciam os ambientes com os quais interage ;

(1)

«Sistema de inteligência artificial» (sistema de IA), um sistema baseado em máquinas concebido para operar com vários níveis de autonomia e que pode , em relação a objetivos explícitos ou implícitos , criar resultados, como previsões, recomendações ou decisões, que influenciam ambientes físicos ou virtuais ;

Alteração 166

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 1-A (novo)

Texto da Comissão

Alteração

 

(1-A)

«Risco», a combinação da probabilidade de ocorrência de um dano com a gravidade desse dano;

Alteração 167

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 1-B (novo)

Texto da Comissão

Alteração

 

(1-B)

«Risco significativo», um risco significativo resultante da combinação da sua gravidade, intensidade, probabilidade de ocorrência e duração dos seus efeitos com a sua capacidade para afetar uma pessoa, várias pessoas ou um grupo específico de pessoas;

Alteração 168

Proposta de regulamento

Artigo 3.o — n.o 1 — ponto 1-C (novo)

Texto da Comissão

Alteração

 

(1-C)

«Modelo de base», um modelo de sistema de IA que é treinado num vasto conjunto de dados em grande escala, concebido para a generalidade dos resultados e pode ser adaptado a uma grande gama de tarefas distintas;

Alteração 169

Proposta de regulamento

Artigo 3.o — n.o 1 — ponto 1-D (novo)

Texto da Comissão

Alteração

 

(1-D)

«Sistema de IA de uso geral», um sistema de IA que pode ser utilizado e adaptado a uma vasta gama de aplicações para as quais não foi intencionalmente nem especificamente concebido;

Alteração 170

Proposta de regulamento

Artigo 3.o — n.o 1 — ponto 1-E (novo)

Texto da Comissão

Alteração

 

(1-E)

«Grandes sessões de treino», o processo de produção de um modelo de IA poderoso que exige recursos informáticos acima de um limiar muito elevado;

Alteração 171

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 3

Texto da Comissão

Alteração

(3)

«Fornecedor de pequena dimensão», um fornecedor que seja uma micro ou pequena empresa na aceção da Recomendação 2003/361/CE da Comissão  (61) ;

Suprimido

Alteração 172

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 4

Texto da Comissão

Alteração

(4)

«Utilizador» , uma pessoa singular ou coletiva, autoridade pública, agência ou outro organismo que utilize, sob a sua autoridade, um sistema de IA, salvo se o sistema de IA for utilizado no âmbito de uma atividade pessoal de caráter não profissional;

(4)

«Responsável pela implantação» , uma pessoa singular ou coletiva, autoridade pública, agência ou outro organismo que utilize, sob a sua autoridade, um sistema de IA, salvo se o sistema de IA for utilizado no âmbito de uma atividade pessoal de caráter não profissional;

Alteração 173

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 8

Texto da Comissão

Alteração

(8)

«Operador», um fornecedor, utilizador , mandatário, importador ou distribuidor;

(8)

«Operador», um fornecedor, responsável pela implantação , mandatário, importador ou distribuidor;

Alteração 174

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 8-A (novo)

Texto da Comissão

Alteração

 

(8-A)

«Pessoa afetada», qualquer pessoa singular ou grupo de pessoas sujeitas ou afetadas por um sistema de IA;

Alteração 175

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 11

Texto da Comissão

Alteração

(11)

«Colocação em serviço», o fornecimento de um sistema de IA para a primeira utilização no mercado da União, diretamente ao utilizador ou para utilização própria, para a finalidade prevista;

(11)

«Colocação em serviço», o fornecimento de um sistema de IA para a primeira utilização no mercado da União, diretamente ao responsável pela implantação ou para utilização própria, para a finalidade prevista;

Alteração 176

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 13

Texto da Comissão

Alteração

(13)

«Utilização indevida razoavelmente previsível», a utilização de um sistema de IA de uma forma não conforme com a sua finalidade prevista, mas que pode resultar de comportamentos humanos ou de interações com outros sistemas razoavelmente previsíveis;

(13)

«Utilização indevida razoavelmente previsível», a utilização de um sistema de IA de uma forma não conforme com a sua finalidade prevista , tal como indicada nas instruções de utilização estabelecidas pelo fornecedor , mas que pode resultar de comportamentos humanos ou de interações com outros sistemas razoavelmente previsíveis , incluindo outros sistemas de IA ;

Alteração 177

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 14

Texto da Comissão

Alteração

(14)

«Componente de segurança de um produto ou sistema», um componente de um produto ou sistema que cumpre uma função de segurança nesse produto ou sistema ou cuja falha ou anomalia põe em risco a segurança e a saúde de pessoas ou bens;

(14)

«Componente de segurança de um produto ou sistema», em linha com a legislação de harmonização da União enumerada no anexo II, um componente de um produto ou sistema que cumpre uma função de segurança nesse produto ou sistema ou cuja falha ou anomalia põe em risco a segurança e a saúde de pessoas ou bens;

Alteração 178

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 15

Texto da Comissão

Alteração

(15)

«Instruções de utilização», as informações facultadas pelo fornecedor para esclarecer o  utilizador , em especial, sobre a finalidade prevista e a utilização correta de um sistema de IA, incluindo o enquadramento geográfico, comportamental ou funcional específico no qual o sistema de IA de risco elevado se destina a ser utilizado;

(15)

«Instruções de utilização», as informações facultadas pelo fornecedor para esclarecer o  responsável pela implantação , em especial, sobre a finalidade prevista e a utilização correta de um sistema de IA , bem como informações relativas a precauções a tomar , incluindo o enquadramento geográfico, comportamental ou funcional específico no qual o sistema de IA de risco elevado se destina a ser utilizado;

Alteração 179

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 16

Texto da Comissão

Alteração

(16)

«Recolha de um sistema de IA», qualquer medida que vise obter a devolução ao fornecedor de um sistema de IA disponibilizado a  utilizadores ;

(16)

«Recolha de um sistema de IA», qualquer medida que vise obter a devolução ao fornecedor de um sistema de IA que foi disponibilizado a  responsáveis pela implantação ;

Alteração 180

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 20

Texto da Comissão

Alteração

(20)

«Avaliação da conformidade», o processo de verificar se estão preenchidos os requisitos estabelecidos no título III, capítulo 2, do presente regulamento relacionados com um sistema de IA;

(20)

«Avaliação da conformidade», o processo de demonstrar se estão preenchidos os requisitos estabelecidos no título III, capítulo 2, do presente regulamento relacionados com um sistema de IA;

Alteração 181

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 22

Texto da Comissão

Alteração

(22)

«Organismo notificado», um organismo de avaliação da conformidade designado nos termos do presente regulamento ou de outra legislação de harmonização da União aplicável;

(22)

«Organismo notificado», um organismo de avaliação da conformidade notificado nos termos do presente regulamento ou de outra legislação de harmonização da União aplicável;

Alteração 182

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 23

Texto da Comissão

Alteração

(23)

«Modificação substancial», uma alteração do sistema de IA após a sua colocação no mercado ou colocação em serviço que afeta a conformidade do sistema de IA com os requisitos estabelecidos no título III, capítulo 2, do presente regulamento ou conduz a uma modificação da finalidade prevista relativamente à qual o sistema de IA foi avaliado;

(23)

«Modificação substancial», uma modificação ou série de modificações do sistema de IA após a sua colocação no mercado ou colocação em serviço que não foi prevista pelo fornecedor na avaliação inicial dos riscos e que como consequência a conformidade do sistema de IA com os requisitos estabelecidos no título III, capítulo 2, do presente regulamento é afetada ou conduz a uma modificação da finalidade prevista relativamente à qual o sistema de IA foi avaliado;

Alteração 183

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 24

Texto da Comissão

Alteração

(24)

«Marcação de conformidade CE» (marcação CE), a marcação pela qual um fornecedor atesta que um sistema de IA está em conformidade com os requisitos estabelecidos no título III, capítulo 2, do presente regulamento e na restante legislação da União aplicável que harmoniza as condições de comercialização de produtos («legislação de harmonização da União») em que seja prevista a respetiva aposição;

(24)

«Marcação de conformidade CE» (marcação CE), a marcação física ou digital pela qual um fornecedor atesta que um sistema de IA ou um produto com um sistema de IA integrado está em conformidade com os requisitos estabelecidos no título III, capítulo 2, do presente regulamento e na restante legislação da União aplicável que harmoniza as condições de comercialização de produtos («legislação de harmonização da União») em que seja prevista a respetiva aposição;

Alteração 184

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 29

Texto da Comissão

Alteração

(29)

«Dados de treino», os dados usados para treinar um sistema de IA mediante o ajustamento dos seus parâmetros passíveis de serem aprendidos , incluindo os pesos de uma rede neuronal ;

(29)

«Dados de treino», os dados usados para treinar um sistema de IA mediante o ajustamento dos seus parâmetros passíveis de serem aprendidos;

Alteração 185

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 30

Texto da Comissão

Alteração

(30)

«Dados de validação», os dados utilizados para realizar uma avaliação do sistema de IA treinado e para ajustar os seus parâmetros não passíveis de serem aprendidos e o seu processo de aprendizagem, a fim de, entre outros objetivos, evitar um sobreajustamento; sendo que o conjunto de dados de validação pode ser um conjunto de dados separado ou parte de um conjunto de dados de treino, quer como divisão fixa ou variável;

(30)

«Dados de validação», os dados utilizados para realizar uma avaliação do sistema de IA treinado e para ajustar os seus parâmetros não passíveis de serem aprendidos e o seu processo de aprendizagem, a fim de, entre outros objetivos, evitar um sobreajustamento ou um sobreajustamento, sendo que o conjunto de dados de validação é ser um conjunto de dados separado ou parte de um conjunto de dados de treino, quer como divisão fixa ou variável;

Alteração 186

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 33

Texto da Comissão

Alteração

(33)

«Dados biométricos», dados pessoais resultantes de um tratamento técnico específico das características físicas , fisiológicas ou comportamentais de uma pessoa singular , os quais permitem obter ou confirmar a identificação única dessa pessoa singular, nomeadamente imagens faciais ou dados dactiloscópicos ;

(33)

«Dados biométricos», dados biométricos na aceção do artigo 4.o , ponto 14 , do Regulamento (UE) 2016/679 ;

Alteração 187

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 33-A (novo)

Texto da Comissão

Alteração

 

(33-A)

«Dados baseados em biometria», dados resultantes de um tratamento técnico específico relativo às características físicas, fisiológicas ou comportamentais de uma pessoa singular;

Alteração 188

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 33-B (novo)

Texto da Comissão

Alteração

 

(33-B)

«Identificação biométrica», o reconhecimento automatizado de características humanas físicas, fisiológicas, comportamentais e psicológicas para efeitos de determinação da identidade de uma pessoa, comparando os dados biométricos dessa pessoa com os dados biométricos de pessoas armazenados numa base de dados (identificação «um para muitos»);

Alteração 189

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 33-C (novo)

Texto da Comissão

Alteração

 

(33-C)

«Verificação biométrica», a verificação automatizada da identidade de pessoas singulares através da comparação de dados biométricos de uma pessoa com dados biométricos previamente fornecidos (verificação «um para um», incluindo a autenticação);

Alteração 190

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 33-D (novo)

Texto da Comissão

Alteração

 

(33-D)

«Categorias especiais de dados pessoais», as categorias de dados pessoais referidas no artigo 9.o, n.o 1, do Regulamento n.o 2016/679;

Alteração 191

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 34

Texto da Comissão

Alteração

(34)

«Sistema de reconhecimento de emoções», um sistema de IA concebido para identificar ou inferir emoções ou intenções de pessoas singulares com base nos seus dados biométricos;

(34)

«Sistema de reconhecimento de emoções», um sistema de IA concebido para identificar ou inferir emoções , pensamentos, estados de espírito ou intenções de pessoas ou grupos com base nos seus dados biométricos e dados baseados em biometria ;

Alteração 192

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 35

Texto da Comissão

Alteração

(35)

«Sistema de categorização biométrica», um sistema de IA concebido para classificar pessoas singulares em categorias específicas, tais como sexo, idade, cor do cabelo, cor dos olhos, tatuagens, origem étnica ou orientação sexual ou política, com base nos seus dados biométricos ;

(35)

«Categorização biométrica», a classificação de pessoas singulares em categorias específicas, ou a dedução das suas características e atributos com base nos seus dados biométricos ou dados baseados em biometria, ou que possam ser inferidas a partir desses dados;

Alteração 193

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 36

Texto da Comissão

Alteração

(36)

«Sistema de identificação biométrica à distância», um sistema de IA concebido para identificar pessoas singulares à distância por meio da comparação dos dados biométricos de uma pessoa com os dados biométricos contidos numa base de dados de referência, sem que o  utilizador do sistema de IA saiba antecipadamente se a pessoa em causa estará presente e pode ser identificada;

(36)

«Sistema de identificação biométrica à distância», um sistema de IA concebido para identificar pessoas singulares à distância por meio da comparação dos dados biométricos de uma pessoa com os dados biométricos contidos numa base de dados de referência, sem que o  responsável pela implantação do sistema de IA saiba antecipadamente se a pessoa em causa estará presente e pode ser identificada , excluindo os sistemas de verificação ;

Alteração 194

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 37

Texto da Comissão

Alteração

(37)

«Sistema de identificação biométrica à distância “em tempo real”», um sistema de identificação biométrica à distância em que a recolha de dados biométricos, a comparação e a identificação ocorrem sem atraso significativo. Para evitar que as regras sejam contornadas, tal inclui não apenas a identificação instantânea, mas também a identificação com ligeiro atraso;

(Não se aplica à versão portuguesa.)

Alteração 195

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 39

Texto da Comissão

Alteração

(39)

«Espaço acessível ao público», qualquer espaço físico aberto ao público, independentemente da eventual aplicação de condições de acesso específicas;

(39)

«Espaço acessível ao público», qualquer espaço físico público ou privado aberto ao público, independentemente da eventual aplicação de condições de acesso específicas e eventuais limitações relacionadas com a lotação ;

Alteração 196

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 41

Texto da Comissão

Alteração

(41)

«Manutenção da ordem pública», as atividades realizadas por autoridades policiais para efeitos de prevenção, investigação, deteção ou repressão de infrações penais ou execução de sanções penais, incluindo a proteção contra ameaças à segurança pública e a prevenção das mesmas;

(41)

«Manutenção da ordem pública», as atividades realizadas por autoridades policiais , ou em seu nome, para efeitos de prevenção, investigação, deteção ou repressão de infrações penais ou execução de sanções penais, incluindo a proteção contra ameaças à segurança pública e a prevenção das mesmas;

Alteração 197

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 42

Texto da Comissão

Alteração

(42)

«Autoridade nacional de controlo», a autoridade à qual um Estado-Membro atribui a responsabilidade pela execução e aplicação do presente regulamento, pela coordenação das atividades confiadas a esse Estado-Membro, por atuar como ponto de contacto único para a Comissão e por representar o Estado-Membro no Comité Europeu para a Inteligência Artificial ;

(42)

«Autoridade nacional de controlo», uma autoridade pública (Alt. 69) à qual um Estado-Membro atribui a responsabilidade pela execução e aplicação do presente regulamento, pela coordenação das atividades confiadas a esse Estado-Membro, por atuar como ponto de contacto único para a Comissão e por representar o Estado-Membro no conselho de administração do Serviço IA ;

Alteração 198

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 43

Texto da Comissão

Alteração

(43)

«Autoridade nacional competente», a autoridade de controlo, a autoridade notificadora ou a autoridade de fiscalização do mercado designadas a nível nacional ;

(43)

«Autoridade nacional competente», qualquer autoridade nacional responsável pela aplicação do presente regulamento ;

Alteração 199

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 44 — parte introdutória

Texto da Comissão

Alteração

(44)

«Incidente grave», qualquer incidente que, direta ou indiretamente, tenha, poderia ter tido ou possa vir a ter alguma das seguintes consequências:

(44)

«Incidente grave», qualquer incidente ou anomalia de um sistema de IA que, direta ou indiretamente, tenha, poderia ter tido ou possa vir a ter alguma das seguintes consequências:

a)

A morte de uma pessoa ou danos graves para a saúde de uma pessoa , bens, ou o ambiente ,

a)

A morte de uma pessoa ou danos graves para a saúde de uma pessoa,

b)

Uma perturbação grave e irreversível da gestão e do funcionamento de uma infraestrutura crítica.

b)

Uma perturbação grave e irreversível da gestão e do funcionamento de uma infraestrutura crítica,

 

b-A)

Uma violação dos direitos fundamentais protegidos pelo direito da União,

 

b-B)

Danos graves para bens ou o ambiente.

Alteração 200

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 44-A (novo)

Texto da Comissão

Alteração

 

(44-A)

«Dados pessoais», os dados pessoais na aceção do artigo 4.o, ponto 1, do Regulamento (UE) 2016/679;

Alteração 201

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 44-B (novo)

Texto da Comissão

Alteração

 

(44-B)

«Dados não pessoais», os dados que não sejam dados pessoais;

Alteração 202

Proposta de regulamento

Artigo 3 — parágrafo 1– ponto 44-C (novo)

Texto da Comissão

Alteração

 

(44-C)

«Definição de perfis», qualquer forma de tratamento automatizado de dados pessoais, na aceção do artigo 4.o, ponto 4, do Regulamento (UE) 2016/679; no caso das autoridades responsáveis pela aplicação da lei, na aceção do artigo 3.o, ponto 4, da Diretiva (UE) 2016/680 ou, no caso de instituições, órgãos ou organismos da União, na aceção do artigo 3.o, ponto 5, do Regulamento (UE) 2018/1725;

Alteração 203

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 44-D (novo)

Texto da Comissão

Alteração

 

(44-D)

«Falsificação profunda», um conteúdo de áudio, imagem ou vídeo manipulado ou sintético que, falsamente, parece ser autêntico ou verdadeiro e que representa pessoas que parecem dizer ou fazer coisas que não disseram nem fizeram, produzido utilizando técnicas de IA, incluindo aprendizagem automática e aprendizagem profunda;

Alteração 204

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 44-E (novo)

Texto da Comissão

Alteração

 

(44-E)

«Violação generalizada», qualquer ato ou omissão contrário à legislação da União que protege os interesses das pessoas singulares:

 

a)

Que tenha prejudicado, ou seja suscetível de prejudicar, os interesses coletivos das pessoas que residem em pelo menos dois Estados-Membros que não o Estado-Membro no qual:

 

 

i)

o ato ou omissão tenha tido origem ou sido cometido,

 

 

ii)

o fornecedor em causa ou, se aplicável, o seu mandatário está estabelecido, ou,

 

 

iii)

o responsável pela implantação está estabelecido, caso a violação seja cometida por este;

 

b)

Que tenha prejudicado, ou seja suscetível de prejudicar, os interesses coletivos das pessoas com características comuns, incluindo a mesma prática ilegal, a violação do mesmo interesse, e que ocorra simultaneamente, cometido pelo mesmo operador, em pelo menos três Estados-Membros;

Alteração 205

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 44-F (novo)

Texto da Comissão

Alteração

 

(44-F)

«Violação generalizada ao nível da União», uma violação generalizada que tenha prejudicado, ou seja suscetível de prejudicar, os interesses coletivos de pessoas em pelo menos dois terços dos Estados-Membros, que, conjuntamente, correspondam a pelo menos dois terços da população da União;

Alteração 206

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 44-G (novo)

Texto da Comissão

Alteração

 

(44-G)

«Ambiente de testagem da regulamentação», um ambiente controlado criado por uma autoridade pública que facilita o desenvolvimento, teste e validação seguros de sistemas inovadores de IA por um tempo limitado antes de sua colocação no mercado ou colocação em serviço de acordo com um plano específico sob controlo regulamentar;

Alteração 207

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 44-H (novo)

Texto da Comissão

Alteração

 

(44-H)

«Infraestrutura crítica», um ativo, uma instalação, um equipamento, uma rede ou um sistema, ou parte de um ativo, uma instalação, um equipamento, uma rede ou um sistema, necessário para a prestação de um serviço essencial na aceção do artigo 2.o, n.o 4, da Diretiva (UE) 2022/2557;

Alteração 208

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 44-K (novo)

Texto da Comissão

Alteração

 

(44-K)

«Classificação social», a avaliação ou classificação de pessoas singulares com base no seu comportamento social, estatuto socioeconómico ou características pessoais ou de personalidade, conhecidas ou previstas;

Alteração 209

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 44-L (novo)

Texto da Comissão

Alteração

 

(44-L)

«Comportamento social», a forma como uma pessoa singular interage e influencia outras pessoas singulares ou a sociedade;

Alteração 210

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 44-M (novo)

Texto da Comissão

Alteração

 

(44-M)

«Estado da técnica», a fase de desenvolvimento da capacidade técnica num dado momento no que diz respeito a produtos, processos e serviços, com base em dados consolidados relevantes da ciência, da tecnologia e da experiência;

Alteração 211

Proposta de regulamento

Artigo 3 — parágrafo 1 — ponto 44-N (novo)

Texto da Comissão

Alteração

 

(44-N)

«Teste em condições reais», o teste temporário de um sistema de IA para o fim a que se destina em condições reais fora de um laboratório ou de outro ambiente simulado;

Alteração 212

Proposta de regulamento

Artigo 4.o

Texto da Comissão

Alteração

Artigo 4.o

Suprimido

Alterações do anexo I

 

A Comissão fica habilitada a adotar atos delegados nos termos do artigo 73.o para alterar a lista de técnicas e abordagens enumeradas no anexo I, a fim de a atualizar face à evolução do mercado e da tecnologia com base em características similares às técnicas e abordagens constantes da lista.

 

Alteração 213

Proposta de regulamento

Artigo 4-A (novo)

Texto da Comissão

Alteração

 

Artigo 4.o-A

 

Princípios gerais aplicáveis a todos os sistemas de IA

 

1.     Todos os operadores abrangidos pelo presente regulamento devem envidar todos os esforços para desenvolver e utilizar sistemas de IA ou modelos de base de acordo com os seguintes princípios gerais que estabelecem um quadro de alto nível para promover uma abordagem europeia coerente, centrada no ser humano, em matéria de inteligência artificial ética e de confiança, que esteja plenamente em linha com a Carta e com os valores em que se baseia a União:

 

a)

«Controlo e supervisão por humanos», os sistemas de IA devem ser desenvolvidos e utilizados como uma ferramenta ao serviço das pessoas, que respeite a dignidade humana e a autonomia pessoal, e que funcione de uma forma que possa ser adequadamente controlada e supervisionada por seres humanos;

 

b)

«Robustez técnica e segurança», os sistemas de IA devem ser desenvolvidos e utilizados de forma a minimizar os danos imprevistos e não intencionais, devem ser robustos em caso de problemas imprevistos e devem ser resilientes contra tentativas de alteração da utilização ou do desempenho do sistema de IA tendo em vista permitir uma utilização ilícita por terceiros mal intencionados;

 

c)

«Privacidade e governação de dados», os sistemas de IA devem ser desenvolvidos e utilizados em conformidade com as regras existentes em matéria de privacidade e de proteção de dados e o tratamento de dados deve satisfazer normas elevadas em termos de qualidade e de integridade;

 

d)

«Transparência», os sistemas de IA devem ser desenvolvidos e utilizados de forma a permitir uma rastreabilidade e explicabilidade adequadas, sensibilizando ao mesmo tempo os seres humanos para o facto de estarem a comunicar ou a interagir com um sistema de IA, informando devidamente os utilizadores das capacidades e limitações desse sistema de IA e informando as pessoas afetadas dos direitos que lhes assistem;

 

e)

«Diversidade, não discriminação e equidade», os sistemas de IA devem ser desenvolvidos e utilizados de forma a incluir diferentes intervenientes e a promover a igualdade de acesso, a igualdade de género e a diversidade cultural, evitando simultaneamente efeitos discriminatórios e enviesamentos injustos que sejam proibidos pela legislação da União ou nacional;

 

f)

«Bem-estar social e ambiental», os sistemas de IA devem ser desenvolvidos e utilizados de forma sustentável e respeitadora do ambiente, bem como de forma a beneficiar todos os seres humanos, controlando e avaliando ao mesmo tempo os impactos de longo prazo nas pessoas, na sociedade e na democracia.

 

2.     O n.o 1 não prejudica as obrigações estabelecidas pela legislação da União e nacional em vigor. No caso dos sistemas de IA de risco elevado, os princípios gerais são aplicados e cumpridos pelos fornecedores ou responsáveis pela implantação através dos requisitos estabelecidos nos artigos 8.o a 15.o e as obrigações relevantes estabelecidas no título III, capítulo 3, do presente regulamento. No caso dos modelos de base, os princípios gerais são aplicados e cumpridos pelos fornecedores através dos requisitos estabelecidos nos artigos 28.o a 28.o-B. Para todos os sistemas de IA, a aplicação dos princípios referidos no n.o 1 pode ser alcançada, conforme aplicável, através das disposições do artigo 28.o e do artigo 52.o, ou da aplicação de normas harmonizadas, especificações técnicas e códigos de conduta a que se refere o artigo 69.o, sem criar novas obrigações ao abrigo do presente regulamento.

 

3.     A Comissão e o Serviço IA devem incorporar estes princípios orientadores nos pedidos de normalização, bem como as recomendações que consistam em orientações técnicas para ajudar os fornecedores e os responsáveis pela implantação no desenvolvimento e utilização de sistemas de IA. As organizações europeias de normalização devem ter em conta os princípios gerais referidos no n.o 1 do presente artigo como objetivos orientados para os resultados quando elaborarem as normas harmonizadas pertinentes para sistemas de IA de risco elevado, conforme referido no artigo 40.o, n.o 2-B.

Alteração 214

Proposta de regulamento

Artigo 4-B (novo)

Texto da Comissão

Alteração

 

Artigo 4.o-B

 

Literacia em IA

 

1.     Quando o presente regulamento for aplicado, a União e os Estados-Membros devem promover medidas para o desenvolvimento de um nível suficiente de literacia em IA, em todos os setores e tendo em conta as diferentes necessidades dos grupos de fornecedores, responsáveis pela implantação e pessoas afetadas, nomeadamente através da educação e da formação, de programas de qualificação e de requalificação e garantindo, ao mesmo tempo, um equilíbrio adequado de género e de idade, com vista a permitir um controlo democrático dos sistemas de IA.

 

2.     Os fornecedores e os responsáveis pela implantação de sistemas de IA devem adotar medidas para garantir um nível suficiente de literacia em IA do seu pessoal e de outras pessoas envolvidas na operação e utilização de sistemas de IA em seu nome, tendo em conta os seus conhecimentos técnicos, experiência, qualificações académicas e formação e o contexto em que os sistemas de IA vão ser utilizados, bem como as pessoas ou grupos de pessoas relativamente às quais os sistemas de IA vão ser utilizados.

 

3.     Essas medidas de literacia devem consistir, em especial, no ensino de noções e competências básicas sobre os sistemas de IA e o seu funcionamento, incluindo os diferentes tipos de produtos e utilizações e os respetivos riscos e benefícios.

 

4.     Um nível suficiente de literacia em IA é um que contribui, conforme necessário, para a capacidade de os fornecedores e os responsáveis pela implantação garantirem o cumprimento e a aplicação do presente regulamento.

Alteração 215

Proposta de regulamento

Artigo 5 — n.o 1 — alínea a)

Texto da Comissão

Alteração

a)

A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que empregue técnicas subliminares que contornem a consciência de uma pessoa para distorcer substancialmente o  seu comportamento de uma forma que cause ou seja suscetível de causar danos físicos ou psicológicos a essa ou a  outra pessoa ;

a)

A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que empregue técnicas subliminares que contornem a consciência de uma pessoa ou técnicas manifestamente de manipulação ou enganadoras, com o objetivo ou o efeito de distorcer substancialmente o  comportamento de uma pessoa ou grupo de pessoas prejudicando consideravelmente a sua capacidade de tomar uma decisão informada e, dessa forma, levando a pessoa a tomar uma decisão que, caso contrário, não tomaria, de uma forma que cause ou seja suscetível de causar danos a essa ou a outra pessoa, ou a  um grupo de pessoas ;

 

A proibição de sistemas de IA que utilizem as técnicas subliminares a que se refere o primeiro parágrafo não se aplica a sistemas de IA concebidos para serem utilizados para fins terapêuticos aprovados com base no consentimento informado específico das pessoas que lhes são expostas ou, se for caso disso, do seu tutor legal;

Alteração 216

Proposta de regulamento

Artigo 5 — n.o 1 — alínea b)

Texto da Comissão

Alteração

b)

A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que explore quaisquer vulnerabilidades de um grupo específico de pessoas associadas à sua idade ou deficiência física ou mental , a  fim de distorcer substancialmente o comportamento de uma pessoa pertencente a esse grupo de uma forma que cause ou seja suscetível de causar danos físicos ou psicológicos a essa ou a outra pessoa;

b)

A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que explore quaisquer vulnerabilidades de uma pessoa ou de um grupo específico de pessoas , incluindo as suas características conhecidas ou previstas da personalidade ou da situação social ou económica , a  sua idade ou capacidade mental, com o objetivo ou o efeito de distorcer substancialmente o comportamento da pessoa ou de uma pessoa pertencente a esse grupo de uma forma que cause ou seja suscetível de causar danos significativos a essa ou a outra pessoa;

Alteração 217

Proposta de regulamento

Artigo 5 — n.o 1 — alínea b-A) (nova)

Texto da Comissão

Alteração

 

b-A)

A colocação no mercado, a colocação em serviço ou a utilização de sistemas de categorização biométrica, que categorizam as pessoas singulares de acordo com atributos ou características sensíveis ou protegidos, ou com base nesses atributos ou características inferidos. Esta proibição não se aplica a sistemas de IA concebidos para serem utilizados para fins terapêuticos aprovados com base no consentimento informado específico das pessoas que lhes são expostas ou, se for caso disso, do seu tutor legal.

Alteração 218

Proposta de regulamento

Artigo 5 — n.o 1 — alínea c) — parte introdutória

Texto da Comissão

Alteração

c)

A colocação no mercado, a colocação em serviço ou a utilização de sistemas de IA por autoridades públicas ou em seu nome para efeitos de avaliação ou classificação da credibilidade de pessoas singulares durante um certo período com base no seu comportamento social ou em características de personalidade ou pessoais, conhecidas ou previsíveis, em que a classificação social conduz a uma das seguintes situações ou a ambas:

c)

A colocação no mercado, a colocação em serviço ou a utilização de sistemas de IA para efeitos de avaliação ou de classificação social de pessoas singulares ou de grupos de pessoas durante um certo período com base no seu comportamento social ou em características de personalidade ou pessoais, conhecidas , inferidas ou previsíveis, em que a classificação social conduz a uma das seguintes situações ou a ambas:

Alteração 219

Proposta de regulamento

Artigo 5 — n.o 1 — alínea c) — subalínea i)

Texto da Comissão

Alteração

i)

tratamento prejudicial ou desfavorável de certas pessoas singulares ou grupos inteiros das mesmas em contextos sociais não relacionados com os contextos nos quais os dados foram originalmente gerados ou recolhidos,

(Não se aplica à versão portuguesa.)

Alteração 220

Proposta de regulamento

Artigo 5 — n.o 1 — alínea d) — parte introdutória

Texto da Comissão

Alteração

d)

A utilização de sistemas de identificação biométrica à distância em «tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública, salvo se essa utilização for estritamente necessária para alcançar um dos seguintes objetivos:

d)

A utilização de sistemas de identificação biométrica à distância em «tempo real» em espaços acessíveis ao público;

Alteração 221

Proposta de regulamento

Artigo 5 — n.o 1 — alínea d) — subalínea i)

Texto da Comissão

Alteração

i)

a investigação seletiva de potenciais vítimas específicas de crimes, nomeadamente crianças desaparecidas,

Suprimido

Alteração 222

Proposta de regulamento

Artigo 5 — n.o 1 — alínea d) — subalínea ii)

Texto da Comissão

Alteração

ii)

a prevenção de uma ameaça específica, substancial e iminente à vida ou à segurança física de pessoas singulares ou de um ataque terrorista,

Suprimido

Alteração 223

Proposta de regulamento

Artigo 5 — n.o 1 — alínea d) — subalínea iii)

Texto da Comissão

Alteração

iii)

a deteção, localização, identificação ou instauração de ação penal relativamente a um infrator ou suspeito de uma infração penal referida no artigo 2.o, n.o 2, da Decisão-Quadro 2002/584/JAI do Conselho  (62) e punível no Estado-Membro em causa com pena ou medida de segurança privativas de liberdade de duração máxima não inferior a três anos e tal como definidas pela legislação desse Estado-Membro.

Suprimido

Alteração 224

Proposta de regulamento

Artigo 5 — n.o 1 — alínea d-A) (nova)

Texto da Comissão

Alteração

 

d-A)

A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA para a realização de avaliações de risco de pessoas singulares ou de grupos de pessoas, a fim de avaliar o risco de uma pessoa singular poder cometer, ou voltar a cometer uma infração, ou para prever a ocorrência ou a recorrência de uma infração penal ou administrativa real ou potencial com base na definição do perfil de uma pessoa singular ou na avaliação de traços e características de personalidade, incluindo na localização da pessoa, ou no comportamento criminal passado de pessoas singulares ou de grupos de pessoas singulares;

Alteração 225

Proposta de regulamento

Artigo 5 — n.o 1 — alínea d-B) (nova)

Texto da Comissão

Alteração

 

d-B)

A colocação no mercado, a colocação em serviço ou a utilização de sistemas de IA que criam ou expandem bases de dados de reconhecimento facial através da recolha aleatória de imagens faciais a partir da Internet ou de imagens de CCTV;

Alteração 226

Proposta de regulamento

Artigo 5 — n.o 1 — alínea d-C) (nova)

Texto da Comissão

Alteração

 

d-C)

A colocação no mercado, a colocação em serviço ou a utilização de sistemas de IA para inferir emoções de uma pessoa singular nos domínios da aplicação da lei e da gestão das fronteiras, no local de trabalho e nos estabelecimentos de ensino.

Alteração 227

Proposta de regulamento

Artigo 5 — n.o 1 — alínea d-D) (nova)

Texto da Comissão

Alteração

 

d-D)

A colocação em serviço ou a utilização de sistemas de IA para a análise de vídeos de espaços acessíveis ao público através de sistemas de identificação biométrica à distância «em diferido», a menos que estejam sujeitos a uma autorização prejudicial em conformidade com a legislação da União e sejam estritamente necessários para a pesquisa precisa associada a uma infração penal grave específica, tal como definida no artigo 83.o, n.o 1, do TFUE, que já tenha ocorrido para efeitos de aplicação da lei.

Alteração 228

Proposta de regulamento

Artigo 5 — n.o 1-A (novo)

Texto da Comissão

Alteração

 

1-A.     O presente artigo não afeta as proibições aplicáveis quando uma prática de inteligência artificial viola outra legislação da UE, incluindo o acervo da UE em matéria de proteção de dados, de não discriminação e da concorrência;

Alteração 229

Proposta de regulamento

Artigo 5 — n.o 2

Texto da Comissão

Alteração

2.     A utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública que vise alcançar um dos objetivos referidos no n.o 1, alínea d), deve ter em conta os seguintes elementos:

Suprimido

a)

A natureza da situação que origina a possível utilização, em especial a gravidade, a probabilidade e a magnitude dos prejuízos causados na ausência da utilização do sistema;

 

b)

As consequências da utilização do sistema para os direitos e as liberdades de todas as pessoas afetadas, em especial a gravidade, a probabilidade e a magnitude dessas consequências.

 

Além disso, a utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública que vise alcançar um dos objetivos referidos no n.o 1, alínea d), deve observar salvaguardas e condições necessárias e proporcionadas em relação a tal utilização, nomeadamente no respeitante a limitações temporais, geográficas e das pessoas visadas.

 

Alteração 230

Proposta de regulamento

Artigo 5 — n.o 3

Texto da Comissão

Alteração

3.     No tocante ao n.o 1, alínea d), e ao n.o 2, cada utilização específica de um sistema de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública está sujeita a autorização prévia concedida por uma autoridade judiciária ou por uma autoridade administrativa independente do Estado-Membro no qual a utilização terá lugar após apresentação de um pedido fundamentado em conformidade com as regras de execução previstas no direito nacional a que se refere o n.o 4. Contudo, numa situação de urgência devidamente justificada, a utilização do sistema pode ser iniciada sem uma autorização e esta pode ser solicitada apenas durante ou após a utilização.

Suprimido

A autoridade judiciária ou administrativa competente apenas deve conceder a autorização se considerar, com base em dados objetivos ou indícios claros que lhe tenham sido apresentados, que a utilização do sistema de identificação biométrica à distância «em tempo real» em apreço é necessária e proporcionada para alcançar um dos objetivos especificados no n.o 1, alínea d), conforme identificado no pedido. Ao decidir sobre o pedido, a autoridade judiciária ou administrativa competente tem em conta os elementos referidos no n.o 2.

 

Alteração 231

Proposta de regulamento

Artigo 5 — n.o 4

Texto da Comissão

Alteração

4.     Um Estado-Membro pode decidir prever a possibilidade de autorizar total ou parcialmente a utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública dentro dos limites e sob as condições enumeradas no n.o 1, alínea d), e nos n.os 2 e 3. Esse Estado-Membro estabelece na sua legislação nacional as regras pormenorizadas aplicáveis ao pedido, à emissão e ao exercício das autorizações a que se refere o n.o 3, bem como à supervisão das mesmas. Essas regras especificam igualmente em relação a que objetivos enumerados no n.o 1, alínea d), incluindo quais das infrações penais referidas na subalínea iii) da mesma, as autoridades competentes podem ser autorizadas a usar esses sistemas para efeitos de manutenção da ordem pública.

Suprimido

Alteração 232

Proposta de regulamento

Artigo 6 — n.o 1 — alínea a)

Texto da Comissão

Alteração

a)

O sistema de IA destina-se a ser utilizado como um componente de segurança de um produto ou é, ele próprio, um produto abrangido pela legislação de harmonização da União enumerada no anexo II;

a)

O sistema de IA destina-se a ser utilizado como um componente de segurança de um produto ou o sistema de IA é, ele próprio, um produto abrangido pela legislação de harmonização da União enumerada no anexo II;

Alteração 233

Proposta de regulamento

Artigo 6 — n.o 1 — alínea b)

Texto da Comissão

Alteração

b)

Nos termos da legislação de harmonização da União enumerada no anexo II, o produto cujo componente de segurança é o sistema de IA, ou o próprio sistema de IA enquanto produto deve ser sujeito a uma avaliação da conformidade por terceiros com vista à colocação no mercado ou à colocação em serviço.

b)

Nos termos da legislação de harmonização da União enumerada no anexo II, o produto cujo componente de segurança nos termos da alínea a) é o sistema de IA, ou o próprio sistema de IA enquanto produto deve ser sujeito a uma avaliação da conformidade por terceiros relacionada com os riscos para a saúde e a segurança, com vista à colocação no mercado ou à colocação em serviço.

Alteração 234

Proposta de regulamento

Artigo 6 — n.o 2

Texto da Comissão

Alteração

2.   Além dos sistemas de IA de risco elevado referidos no n.o 1, os sistemas de IA referidos no anexo III são também considerados de risco elevado.

2.   Além dos sistemas de IA de risco elevado referidos no n.o 1, os sistemas de IA abrangidos por um ou mais domínios críticos e casos de utilização referidos no anexo III são considerados de risco elevado , se representarem um risco considerável para a saúde, a segurança ou os direitos fundamentais de pessoas singulares . Se um sistema de IA for abrangido pelo anexo III, ponto 2, deve ser considerado de risco elevado se representar um risco significativo de dano para o ambiente.

 

A Comissão deve, seis meses antes da entrada em vigor do presente regulamento, após consulta do Serviço IA e das partes interessadas relevantes, fornecer orientações que especifiquem claramente as circunstâncias em que os resultados dos sistemas de IA referidos no anexo III representariam um risco significativo de danos para a saúde, a segurança ou os direitos fundamentais das pessoas singulares ou os casos em que tal não seria o caso.

Alteração 235

Proposta de regulamento

Artigo 6 — n.o 2-A (novo)

Texto da Comissão

Alteração

 

2-A.     Caso os fornecedores abrangidos por um ou mais dos domínios críticos e casos de utilização referidos no anexo III considerem que o seu sistema de IA não representa um risco significativo, tal como descrito no n.o 2, devem apresentar uma notificação fundamentada à autoridade nacional de controlo de que não estão sujeitos aos requisitos do título III, capítulo 2, do presente regulamento. Se o sistema de IA se destinar a ser utilizado em dois ou mais Estados-Membros, essa notificação deve ser dirigida ao Serviço IA. Sem prejuízo do disposto no artigo 65.o, a autoridade nacional de controlo deve rever e responder à notificação, diretamente ou através do Serviço IA, no prazo de três meses, se considerar que o sistema de IA está classificado incorretamente.

Alteração 236

Proposta de regulamento

Artigo 6 — n.o 2-A (novo)

Texto da Comissão

Alteração

 

2-B.     Os fornecedores que classifiquem incorretamente os seus sistemas de IA como não sujeitos aos requisitos do título III, capítulo 2, do presente regulamento e que o coloquem no mercado antes do termo do prazo para a apresentação de objeções pelas autoridades nacionais de controlo estão sujeitos a coimas nos termos do artigo 71.o.

Alteração 237

Proposta de regulamento

Artigo 6 — n.o 2-B (novo)

Texto da Comissão

Alteração

 

2-C.     As autoridades nacionais de controlo devem apresentar um relatório anual ao Serviço IA especificando o número de notificações recebidas, os respetivos domínios de risco elevado em causa e as decisões tomadas relativamente às notificações recebidas.

Alteração 238

Proposta de regulamento

Artigo 7 — n.o 1 — parte introdutória

Texto da Comissão

Alteração

1.   A Comissão fica habilitada a adotar atos delegados nos termos do artigo 73.o para atualizar a lista do anexo III, aditando sistemas de IA de risco elevado que preencham ambas as condições que se seguem:

1.   A Comissão fica habilitada a adotar atos delegados em conformidade com o artigo  73.o para alterar o anexo III aditando ou modificando os domínios ou casos de utilização de sistemas de IA de risco elevado em que estes representem um risco significativo de danos para a saúde e a segurança, ou um impacto adverso nos direitos fundamentais, no ambiente, na democracia ou no Estado de direito, e que esse risco seja, quanto à sua gravidade e probabilidade de ocorrência, equivalente ou superior ao risco de danos ou de impacto adverso colocado pelos sistemas de IA de risco elevado já referidos no anexo III.

Alteração 239

Proposta de regulamento

Artigo 7 — n.o 1 — alínea a)

Texto da Comissão

Alteração

a)

Os sistemas de IA destinam-se a ser utilizados em qualquer um dos domínios enumerados no anexo III, pontos 1 a 8;

Suprimido

Alteração 240

Proposta de regulamento

Artigo 7 — n.o 1 — alínea b)

Texto da Comissão

Alteração

b)

Os sistemas de IA representam um risco de danos para a saúde e a segurança ou um risco de impacto adverso nos direitos fundamentais que, em termos de gravidade e probabilidade de ocorrência, é equivalente ou superior ao risco de danos ou impacto adverso representado pelos sistemas de IA de risco elevado já referidos no anexo III.

Suprimido

Alteração 241

Proposta de regulamento

Artigo 7 — n.o 1-A (novo)

Texto da Comissão

Alteração

 

1-A.     A Comissão fica igualmente habilitada a adotar atos delegados em conformidade com o artigo 73.o para eliminar os casos de utilização de sistemas de IA de risco elevado da lista do anexo III se as condições referidas no n.o 1 deixarem de se aplicar;

Alteração 242

Proposta de regulamento

Artigo 7 — n.o 2 — parte introdutória

Texto da Comissão

Alteração

2.   Ao avaliar , para efeitos do disposto no n.o 1, se um sistema de IA representa um risco de danos para a saúde a segurança ou um risco de impacto adverso nos direitos fundamentais equivalente ou superior ao risco de danos representado pelos sistemas de IA de risco elevado já referidos no anexo III , a Comissão tem em consideração os seguintes critérios:

2.   Ao avaliar um sistema de IA para efeitos do disposto no n.o 1 no n.o 1-A , a Comissão tem em consideração os seguintes critérios:

Alteração 243

Proposta de regulamento

Artigo 7.o — n.o 2 — alínea a–A) (nova)

Texto da Comissão

Alteração

 

a-A)

As capacidades e funcionalidades gerais do sistema de IA, independentemente da sua finalidade prevista;

Alteração 244

Proposta de regulamento

Artigo 7 — n.o 2 — alínea b-A) (nova)

Texto da Comissão

Alteração

 

b-A)

A natureza e o volume dos dados tratados e utilizados pelo sistema de IA;

Alteração 245

Proposta de regulamento

Artigo 7 — n.o 2 — alínea b-B) (nova)

Texto da Comissão

Alteração

 

b-B)

Em que medida é que o sistema de IA atua de forma autónoma;

Alteração 246

Proposta de regulamento

Artigo 7 — n.o 2 — alínea c)

Texto da Comissão

Alteração

c)

Em que medida a utilização de um sistema de IA já causou danos para a saúde e a segurança ou um impacto adverso nos direitos fundamentais ou suscitou preocupações significativas quanto à  concretização desses danos ou desse impacto adverso, conforme demonstrado por relatórios ou alegações documentadas apresentadas às autoridades nacionais competentes ;

c)

Em que medida a utilização de um sistema de IA já causou danos para a saúde e a segurança , teve um impacto adverso nos direitos fundamentais , no ambiente, na democracia e no Estado de direito ou suscitou preocupações significativas quanto à  probabilidade desses danos ou desse impacto adverso, conforme demonstrado , por exemplo, por relatórios ou alegações documentadas apresentadas às autoridades nacionais de controlo, à Comissão, ao Serviço IA, à AEPD ou à Agência dos Direitos Fundamentais da União Europeia ;

Alteração 247

Proposta de regulamento

Artigo 7 — n.o 2 — alínea d)

Texto da Comissão

Alteração

d)

O potencial grau desses danos ou desse impacto adverso, nomeadamente em termos de intensidade e de capacidade para afetar um grande número de pessoas;

d)

O potencial grau desses danos ou desse impacto adverso, nomeadamente em termos de intensidade e de capacidade para afetar um grande número de pessoas , ou para afetar de forma desproporcionada um determinado grupo de pessoas ;

Alteração 248

Proposta de regulamento

Artigo 7 — n.o 2 — alínea e)

Texto da Comissão

Alteração

e)

O grau de dependência das pessoas potencialmente lesadas ou adversamente afetadas em relação ao resultado produzido por um sistema de IA, em especial se, por razões práticas ou jurídicas, aquelas não puderem razoavelmente autoexcluir-se desse resultado;

e)

O grau de dependência das pessoas potencialmente lesadas ou adversamente afetadas em relação ao resultado produzido envolvendo um sistema de IA, sendo esse resultado puramente acessório em relação à ação ou decisão pertinente a tomar, em especial se, por razões práticas ou jurídicas, aquelas não puderem razoavelmente autoexcluir-se desse resultado;

Alteração 249

Proposta de regulamento

Artigo 7 — n.o 2 — alínea e-A) (nova)

Texto da Comissão

Alteração

 

e-A)

A potencial utilização abusiva e maliciosa do sistema de IA e da tecnologia subjacente;

Alteração 250

Proposta de regulamento

Artigo 7 — n.o 2 — alínea f)

Texto da Comissão

Alteração

f)

A posição de vulnerabilidade das pessoas potencialmente prejudicadas ou adversamente afetadas em relação ao utilizador de um sistema de IA, nomeadamente devido a um desequilíbrio de poder ou de conhecimento, a circunstâncias económicas ou sociais, ou à idade;

f)

A posição de desequilíbrio de poder ou de vulnerabilidade das pessoas potencialmente prejudicadas ou adversamente afetadas em relação ao utilizador de um sistema de IA, nomeadamente devido ao estatuto, à autoridade, ao conhecimento, a circunstâncias económicas ou sociais, ou à idade;

Alteração 251

Proposta de regulamento

Artigo 7 — n.o 2 — alínea g)

Texto da Comissão

Alteração

(g)

A facilidade de reversão do resultado produzido com um sistema de IA, tendo em conta que os resultados com impacto na saúde ou na segurança das pessoas não podem ser considerados como facilmente reversíveis;

g)

A facilidade de reversão ou correção do resultado produzido envolvendo um sistema de IA, tendo em conta que os resultados com impacto adverso na saúde, na segurança , nos direitos fundamentais das pessoas , no ambiente, ou na democracia e no Estado de direito não podem ser considerados como facilmente reversíveis;

Alteração 252

Proposta de regulamento

Artigo 7 — n.o 2 — alínea g-A) (nova)

Texto da Comissão

Alteração

 

g-A)

O grau de disponibilidade e utilização de soluções técnicas eficazes e mecanismos de controlo, fiabilidade e corrigibilidade do sistema de IA;

Alteração 253

Proposta de regulamento

Artigo 7 — n.o 2 — alínea g-B) (nova)

Texto da Comissão

Alteração

 

g-B)

A magnitude e a probabilidade das vantagens da implantação do sistema de IA para indivíduos, grupos ou a sociedade em geral, incluindo possíveis melhorias na segurança dos produtos;

Alteração 254

Proposta de regulamento

Artigo 7 — n.o 2 — alínea g-C) (nova)

Texto da Comissão

Alteração

 

g-C)

O grau de supervisão humana e a possibilidade de um ser humano interceder, a fim de anular uma decisão ou recomendações que possam causar danos potenciais;

Alteração 255

Proposta de regulamento

Artigo 7 — n.o 2 — alínea h)

Texto da Comissão

Alteração

i)

medidas de reparação eficazes em relação aos riscos representados por um sistema de IA, com exclusão de pedidos de indemnização,

h)

Em que medida a legislação da União em vigor prevê:

 

 

i)

medidas de reparação eficazes em relação aos danos causados por um sistema de IA, com exclusão de pedidos diretos ou indiretos de indemnização,

 

 

ii)

medidas eficazes para prevenir ou minimizar substancialmente esses riscos.

Alteração 256

Proposta de regulamento

Artigo 7 — n.o 2-A (novo)

Texto da Comissão

Alteração

 

2-A.     Ao efetuar a avaliação de um sistema de IA para efeitos dos n.os 1 e 1-A, a Comissão deve consultar o Serviço IA e, quando pertinente, representantes dos grupos sobre os quais um sistema de IA tem impacto, o setor de atividade, peritos independentes, os parceiros sociais e organizações da sociedade civil. A Comissão deve igualmente organizar consultas públicas a este respeito e disponibilizar ao público os resultados dessas consultas e da avaliação final;

Alteração 257

Proposta de regulamento

Artigo 7 — n.o 2-B (novo)

Texto da Comissão

Alteração

 

2-B.     O Serviço IA, as autoridades nacionais de controlo ou o Parlamento Europeu podem solicitar à Comissão que reavalie e reclassifique a categorização dos riscos de um sistema de IA, em conformidade com os n.os 1 e 1-A. A Comissão deve fundamentar a sua decisão e divulgar as suas razões.

Alteração 258

Proposta de regulamento

Artigo 8 — n.o 1-A (novo)

Texto da Comissão

Alteração

 

1-A.     No cumprimento dos requisitos estabelecidos no presente capítulo, devem ter-se em conta as orientações desenvolvidas conforme referido no artigo 82.o-B, o estado da técnica geralmente reconhecido, inclusive como refletido em normas harmonizadas e especificações comuns pertinentes referidas nos artigos 40.o e 41.o ou as já estabelecidas pela legislação de harmonização da União;

Alteração 259

Proposta de regulamento

Artigo 8 — n.o 2

Texto da Comissão

Alteração

2.   A finalidade prevista do sistema de IA de risco elevado e o sistema de gestão de riscos a que se refere o artigo 9.o devem ser tidos em conta para efeitos do cumprimento desses requisitos.

2.   A finalidade prevista do sistema de IA de risco elevado , as utilizações indevidas razoavelmente previsíveis e o sistema de gestão de riscos a que se refere o artigo 9.o devem ser tidos em conta para efeitos do cumprimento desses requisitos.

Alteração 260

Proposta de regulamento

Artigo 8 — n.o 2-A (novo)

Texto da Comissão

Alteração

 

2-A.     Desde que os requisitos do título III, capítulos 2 e 3, ou do título VIII, capítulos 1, 2 e 3, aplicáveis aos sistemas de IA de risco elevado sejam abrangidos pela legislação de harmonização da União, enumerada no anexo II, secção A, considera-se que os requisitos ou as obrigações desses capítulos do presente regulamento são cumpridos, desde que incluam o componente de IA. Os requisitos do título III, capítulos 2 e 3, ou do título VIII, capítulos 1, 2 e 3, aplicáveis aos sistemas de IA de risco elevado não abrangidos pela legislação de harmonização da União, enumerada no anexo II, secção A, devem ser incorporados nessa legislação de harmonização da União, quando aplicável. A avaliação da conformidade pertinente deve ser efetuada no âmbito dos procedimentos previstos na legislação de harmonização da União, enumerada no anexo II, secção A.

Alteração 261

Proposta de regulamento

Artigo 9 — n.o 1

Texto da Comissão

Alteração

1.   Deve ser criado, implantado, documentado e mantido um sistema de gestão de riscos em relação a sistemas de IA de risco elevado.

1.   Deve ser criado, implantado, documentado e mantido um sistema de gestão de riscos em relação a sistemas de IA de risco elevado , durante todo o ciclo de vida do sistema de IA . O sistema de gestão de riscos, ou uma parte deste, pode ser integrado nos procedimentos de gestão de riscos já existentes, relacionados com a legislação setorial da União aplicável, desde que cumpra os requisitos do presente artigo.

Alteração 262

Proposta de regulamento

Artigo 9 — n.o 2 — parte introdutória

Texto da Comissão

Alteração

2.   O sistema de gestão de riscos deve consistir num processo iterativo contínuo, executado ao longo de todo o ciclo de vida de um sistema de IA de risco elevado, o que requer atualizações regulares sistemáticas . Deve compreender as seguintes etapas:

2.   O sistema de gestão de riscos deve consistir num processo iterativo contínuo, executado ao longo de todo o período de vida de um sistema de IA de risco elevado, o que requer revisões e atualizações regulares do processo de gestão de riscos para assegurar a sua eficácia contínua, bem como a documentação de quaisquer decisões e ações significativas tomadas no âmbito do presente artigo . Deve compreender as seguintes etapas:

Alteração 263

Proposta de regulamento

Artigo 9 — n.o 2 — alínea a)

Texto da Comissão

Alteração

a)

Identificação e análise dos riscos conhecidos e previsíveis associados a cada sistema de IA de risco elevado;

a)

Identificação , estimativa e avaliação dos riscos conhecidos e razoavelmente previsíveis que o sistema de IA de risco elevado pode representar para a saúde ou a segurança das pessoas singulares, os seus direitos fundamentais, incluindo a igualdade de acesso e de oportunidades, a democracia e o Estado de direito ou o ambiente, quando o sistema de IA de risco elevado for utilizado de acordo com a sua finalidade prevista e em condições de utilização indevida razoavelmente previsíveis ;

Alteração 264

Proposta de regulamento

Artigo 9 — n.o 2 — alínea b)

Texto da Comissão

Alteração

b)

Estimativa e avaliação de riscos que podem surgir quando o sistema de IA de risco elevado é usado em conformidade com a sua finalidade prevista e em condições de utilização indevida razoavelmente previsíveis;

Suprimido

Alteração 265

Proposta de regulamento

Artigo 9 — n.o 2 — alínea c)

Texto da Comissão

Alteração

c)

Avaliação de outros riscos que possam surgir, baseada na análise dos dados recolhidos a partir do sistema de acompanhamento pós-comercialização a que se refere o artigo 61.o;

c)

Avaliação de novos riscos significativos, como os descritos na alínea a) e identificados com base na análise dos dados recolhidos a partir do sistema de acompanhamento pós-comercialização a que se refere o artigo 61.o;

Alteração 266

Proposta de regulamento

Artigo 9 — n.o 2 — alínea d)

Texto da Comissão

Alteração

d)

Adoção de medidas de gestão de riscos adequadas em conformidade com o disposto nos números que se seguem.

d)

Adoção de medidas de gestão de riscos apropriadas e específicas, concebidas para abordar os riscos identificados nas alíneas a) e b) do presente número, em conformidade com o disposto nos números que se seguem.

Alteração 267

Proposta de regulamento

Artigo 9 — n.o 3

Texto da Comissão

Alteração

3.   As medidas de gestão de riscos a que se refere o n.o 2, alínea d), devem ter em devida consideração os efeitos e eventuais interações resultantes da aplicação combinada dos requisitos estabelecidos no presente capítulo . Devem também ter em conta o estado da técnica geralmente reconhecido, incluindo o que se encontrar refletido em normas harmonizadas ou especificações comuns pertinentes.

3.   O sistema de gestão de riscos a que se refere o n.o 2, alínea d) devem ter em devida consideração os efeitos e eventuais interações resultantes da aplicação combinada dos requisitos estabelecidos no presente capítulo , com vista a atenuar os riscos de forma eficaz, garantindo, simultaneamente, um cumprimento adequado e proporcionado dos requisitos .

Alteração 268

Proposta de regulamento

Artigo 9 — n.o 4 — parte introdutória

Texto da Comissão

Alteração

4.   As medidas de gestão de riscos a que se refere o n.o 2, alínea d), devem levar a que o  eventual risco residual associado a cada perigo, bem como o risco residual global dos sistemas de IA de risco elevado, sejam considerados aceitáveis, contanto que o sistema de IA de risco elevado seja usado em conformidade com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis. Os riscos residuais devem ser comunicados ao utilizador .

4.   O sistema de gestão de riscos a que se refere o n.o 2, alínea d) devem levar a que o risco residual relevante associado a cada perigo, bem como o risco residual global dos sistemas de IA de risco elevado, sejam considerados razoavelmente aceitáveis, contanto que o sistema de IA de risco elevado seja usado em conformidade com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis. Esses riscos residuais e os juízos fundamentados apresentados devem ser comunicados ao responsável pela implantação .

 

Ao identificar as medidas de gestão de riscos mais apropriadas, deve assegurar-se o seguinte:

Alteração 269

Proposta de regulamento

Artigo 9 — n.o 4 — parágrafo 1 — alínea a)

Texto da Comissão

Alteração

a)

Eliminação ou redução de riscos tanto quanto possível , graças a processos de conceção e desenvolvimento adequados;

a)

Eliminação ou redução de riscos identificados tanto quanto seja tecnicamente viável , graças a processos de conceção e desenvolvimento do sistema de IA de risco elevado adequados , que envolvam, quando pertinente, peritos e partes interessadas externas ;

Alteração 270

Proposta de regulamento

Artigo 9 — n.o 4 — parágrafo 1 — alínea b)

Texto da Comissão

Alteração

b)

Se for caso disso, adoção de medidas de atenuação e controlo adequadas em relação a riscos que não possam ser eliminados;

b)

Se for caso disso, adoção de medidas de atenuação e controlo adequadas para fazer face a riscos significativos que não possam ser eliminados;

Alteração 271

Proposta de regulamento

Artigo 9 — n.o 4 — parágrafo 1 — alínea c)

Texto da Comissão

Alteração

c)

Prestação de informações adequadas nos termos do artigo 13.o , em especial no atinente aos riscos a que se refere o n.o 2, alínea b), do presente artigo e, se for caso disso, formação dos utilizadores .

c)

Prestação das informações exigidas nos termos do artigo 13.o e, se for caso disso, formação dos responsáveis pela implantação .

Alteração 272

Proposta de regulamento

Artigo 9 — n.o 4 — parágrafo 2

Texto da Comissão

Alteração

Na eliminação ou redução de riscos relacionados com a utilização do sistema de IA de risco elevado, há que ter em consideração o conhecimento técnico, a experiência, a educação e a formação que se pode esperar que o utilizador possua e o ambiente em que está previsto utilizar o sistema .

Na eliminação ou redução de riscos relacionados com a utilização do sistema de IA de risco elevado, os fornecedores devem ter em consideração o conhecimento técnico, a experiência, a educação e a formação de que o responsável pela implantação possa precisar, nomeadamente no que diz respeito ao ambiente em que está previsto utilizar o sistema .

Alteração 273

Proposta de regulamento

Artigo 9 — n.o 5

Texto da Comissão

Alteração

5.   Os sistemas de IA de risco elevado devem ser sujeitos a testes para que se identifiquem as medidas de gestão de riscos mais apropriadas. Os testes asseguram que os sistemas de IA de risco elevado tenham um desempenho coerente com a finalidade prevista e que cumpram os requisitos estabelecidos no presente capítulo.

5.   Os sistemas de IA de risco elevado devem ser sujeitos a testes para que se identifiquem as medidas de gestão de riscos mais apropriadas e específicas e para que se ponderem eventuais medidas perante as potenciais vantagens e os objetivos previstos do sistema . Os testes asseguram que os sistemas de IA de risco elevado tenham um desempenho coerente com a finalidade prevista e que cumpram os requisitos estabelecidos no presente capítulo.

Alteração 274

Proposta de regulamento

Artigo 9 — n.o 6

Texto da Comissão

Alteração

6.   Os procedimentos de teste são adequados para alcançar a finalidade prevista do sistema de IA e não precisam de ir além do necessário para alcançar essa finalidade .

6.   Os procedimentos de teste são adequados para alcançar a finalidade prevista do sistema de IA.

Alteração 275

Proposta de regulamento

Artigo 9 — n.o 7

Texto da Comissão

Alteração

7.   Os testes dos sistemas de IA de risco elevado devem ser realizados , consoante apropriado, em qualquer momento durante o processo de desenvolvimento e, em qualquer caso, antes da colocação no mercado ou da colocação em serviço. Os testes devem ser realizados relativamente a métricas previamente definidas e a limiares probabilísticos que são apropriados para a finalidade prevista do sistema de IA de risco elevado.

7.   Os testes dos sistemas de IA de risco elevado devem ser realizados antes da colocação no mercado ou da colocação em serviço. Os testes devem ser realizados relativamente a métricas previamente definidas e a limiares probabilísticos que sejam apropriados para a finalidade prevista ou para a utilização indevida razoavelmente previsível do sistema de IA de risco elevado.

Alteração 276

Proposta de regulamento

Artigo 9 — n.o 8

Texto da Comissão

Alteração

8.   Ao implantar o sistema de gestão de riscos descrito nos n.os 1 a 7, deve tomar-se especificamente em conta se o sistema de IA de risco elevado é suscetível de ser acedido por crianças ou de ter impacto nas mesmas .

8.   Ao implantar o sistema de gestão de riscos descrito nos n.os 1 a 7, os fornecedores devem tomar especificamente em conta se o sistema de IA de risco elevado é suscetível de ter um impacto adverso em grupos vulneráveis de pessoas ou crianças .

Alteração 277

Proposta de regulamento

Artigo 9 — n.o 9

Texto da Comissão

Alteração

9.   Em relação às instituições de crédito regulamentadas pela Diretiva 2013/36/UE, os aspetos descritos nos n.os 1 a 8 fazem parte dos procedimentos de gestão de riscos estabelecidos por essas instituições nos termos do artigo 74.o da referida diretiva .

9.   Em relação a fornecedores e a sistemas de IA já abrangidos pela legislação da União que os obriga a implantar sistemas de gestão de riscos específicos, nomeadamente instituições de crédito regulamentadas pela Diretiva 2013/36/UE, os aspetos descritos nos n.os 1 a 8 fazem parte ou podem ser combinados com os procedimentos de gestão de riscos estabelecidos por essa legislação da União .

Alteração 278

Proposta de regulamento

Artigo 10 — n.o 1

Texto da Comissão

Alteração

1.   Os sistemas de IA de risco elevado que utilizem técnicas que envolvam o treino de modelos com dados devem ser desenvolvidos com base em conjuntos de dados de treino, validação e teste que cumpram os critérios de qualidade referidos nos n.os 2 a 5.

1.   Os sistemas de IA de risco elevado que utilizem técnicas que envolvam o treino de modelos com dados devem ser desenvolvidos com base em conjuntos de dados de treino, validação e teste que cumpram os critérios de qualidade referidos nos n.os 2 a 5 , desde que tal seja tecnicamente viável, em função do segmento de mercado ou do âmbito de aplicação em questão .

 

As técnicas que não exijam dados de cálculo rotulados, como a aprendizagem não supervisionada e a aprendizagem por reforço, devem ser desenvolvidas com base em conjuntos de dados, tais como os conjuntos de dados para testes e verificações, que cumpram os critérios de qualidade referidos nos n.os 2 a 5.

Alteração 279

Proposta de regulamento

Artigo 10 — n.o 2 — parte introdutória

Texto da Comissão

Alteração

2.   Os conjuntos de dados de treino, validação e teste devem estar sujeitos a  práticas adequadas de governação e gestão de dados. Essas práticas dizem nomeadamente respeito:

2.   Os conjuntos de dados de treino, validação e teste devem estar sujeitos a  uma governação de dados adequada para o contexto de utilização, bem como para a finalidade a que o sistema de IA se destina . Essas medidas dizem nomeadamente respeito:

Alteração 280

Proposta de regulamento

Artigo 10 — n.o 2 — alínea a-A) (nova)

Texto da Comissão

Alteração

 

(a-A)

À transparência quanto à finalidade original da recolha de dados;

Alteração 281

Proposta de regulamento

Artigo 10 — n.o 2 — alínea b)

Texto da Comissão

Alteração

b)

À recolha de dados;

b)

Aos processos de recolha de dados;

Alteração 282

Proposta de regulamento

Artigo 10 — n.o 2 — alínea c)

Texto da Comissão

Alteração

c)

Às operações de preparação e tratamento de dados necessárias , tais como anotação, rotulagem, limpeza, enriquecimento e agregação;

c)

Às operações de preparação e tratamento de dados, tais como anotação, rotulagem, limpeza, atualização, enriquecimento e agregação;

Alteração 283

Proposta de regulamento

Artigo 10 — n.o 2 — alínea d)

Texto da Comissão

Alteração

d)

À formulação dos pressupostos aplicáveis , nomeadamente no que diz respeito às informações que os dados devem medir e representar;

d)

À formulação dos pressupostos, nomeadamente no que diz respeito às informações que os dados devem medir e representar;

Alteração 284

Proposta de regulamento

Artigo 10 — n.o 2 — alínea e)

Texto da Comissão

Alteração

e)

À avaliação prévia da disponibilidade, quantidade e adequação dos conjuntos de dados que são necessários;

e)

A uma avaliação da disponibilidade, quantidade e adequação dos conjuntos de dados que são necessários;

Alteração 285

Proposta de regulamento

Artigo 10 — n.o 2 — alínea f)

Texto da Comissão

Alteração

f)

Ao exame para detetar eventuais enviesamentos;

f)

Ao exame para detetar eventuais enviesamentos suscetíveis de afetar a saúde e a segurança das pessoas, ter um impacto negativo nos direitos fundamentais ou conduzir a uma discriminação proibida pela legislação da União, especialmente quando os resultados obtidos a partir dos dados influenciem os dados de entrada para operações futuras («circuitos de realimentação») e medidas apropriadas para detetar, prevenir e atenuar eventuais enviesamentos ;

Alteração 286

Proposta de regulamento

Artigo 10 — n.o 2 — alínea f-A) (nova)

Texto da Comissão

Alteração

 

f-A)

Às medidas apropriadas para detetar, prevenir e atenuar os eventuais enviesamentos;

Alteração 287

Proposta de regulamento

Artigo 10 — n.o 2 — alínea g)

Texto da Comissão

Alteração

g)

À identificação de eventuais lacunas ou deficiências de dados e de possíveis soluções para as mesmas.

g)

À identificação de lacunas ou deficiências de dados relevantes, que impeçam o cumprimento do presente regulamento, e de possíveis soluções para as mesmas;

Alteração 288

Proposta de regulamento

Artigo 10 — n.o 3

Texto da Comissão

Alteração

3.   Os conjuntos de dados de treino, validação e teste devem ser pertinentes, representativos, isentos de erros e completos. Devem ter as propriedades estatísticas adequadas, nomeadamente, quando aplicável, no tocante às pessoas ou grupos de pessoas em que o sistema de IA de risco elevado se destina a ser utilizado. Estas características dos conjuntos de dados podem ser satisfeitas a nível de conjuntos de dados individuais ou de uma combinação dos mesmos.

3.   Os conjuntos de dados de treino e, se aplicável, os conjuntos de dados de validação e teste , incluindo os rótulos, devem ser pertinentes, suficientemente representativos, devidamente controlados em termos de erros e  tão completos quanto possível, tendo em vista a finalidade prevista . Devem ter as propriedades estatísticas adequadas, nomeadamente, quando aplicável, no tocante às pessoas ou grupos de pessoas em relação às quais o sistema de IA de risco elevado se destina a ser utilizado. Estas características dos conjuntos de dados devem ser satisfeitas a nível de conjuntos de dados individuais ou de uma combinação dos mesmos.

Alteração 289

Proposta de regulamento

Artigo 10 — n.o 4

Texto da Comissão

Alteração

4.   Os conjuntos de dados de treino, validação e teste devem ter em conta, na medida do necessário para a finalidade prevista, as características ou os elementos que são idiossincráticos do enquadramento geográfico, comportamental ou funcional específico no qual o sistema de IA de risco elevado se destina a ser utilizado.

4.   Os conjuntos de dados devem ter em conta, na medida do necessário para a finalidade prevista ou para as utilizações indevidas razoavelmente previsíveis do sistema de IA , as características ou os elementos que são idiossincráticos do enquadramento geográfico, cultural, comportamental , contextual ou funcional específico no qual o sistema de IA de risco elevado se destina a ser utilizado.

Alteração 290

Proposta de regulamento

Artigo 10 — n.o 5

Texto da Comissão

Alteração

5.   Na medida do estritamente necessário para assegurar o controlo, a deteção e a correção de enviesamentos em relação a sistemas de IA de risco elevado, os fornecedores desses sistemas podem tratar categorias especiais de dados pessoais a que se refere o artigo 9.o, n.o 1, do Regulamento (UE) 2016/679, o artigo 10.o da Diretiva (UE) 2016/680 e o artigo 10.o, n.o 1, do Regulamento (UE) 2018/1725, assegurando salvaguardas adequadas dos direitos fundamentais e liberdades das pessoas singulares, incluindo impor limitações técnicas à reutilização e utilizar medidas de segurança e preservação da privacidade de última geração , tais como a pseudonimização ou a cifragem nos casos em que a anonimização possa afetar significativamente a finalidade preconizada .

5.   Na medida do estritamente necessário para assegurar a deteção e a correção de enviesamentos negativos em relação a sistemas de IA de risco elevado, os fornecedores desses sistemas podem excecionalmente tratar categorias especiais de dados pessoais a que se refere o artigo 9.o, n.o 1, do Regulamento (UE) 2016/679, o artigo 10.o da Diretiva (UE) 2016/680 e o artigo 10.o, n.o 1, do Regulamento (UE) 2018/1725, assegurando salvaguardas adequadas dos direitos fundamentais e liberdades das pessoas singulares, incluindo impor limitações técnicas à reutilização e utilizar medidas de segurança e preservação da privacidade de última geração. Em especial, são aplicáveis todas as seguintes condições para que se realize este tratamento:

a)

A deteção e a correção de enviesamentos não podem ser eficazmente efetuadas através do tratamento de dados sintéticos ou anonimizados;

 

b)

Os dados são pseudonimizados;

 

c)

O fornecedor toma as medidas técnicas e organizativas adequadas para assegurar que os dados tratados para efeitos do presente número estejam em segurança, sejam protegidos, sujeitos a garantias adequadas e apenas as pessoas autorizadas tenham acesso a esses dados com obrigações de confidencialidade apropriadas;

 

d)

Os dados tratados para efeitos do presente número não devem ser transmitidos, transferidos ou acedidos de outro modo por outras partes;

 

e)

Os dados tratados para efeitos do presente número são protegidos através de medidas técnicas e organizativas adequadas e apagados assim que o enviesamento for corrigido ou que os dados pessoais atinjam o fim do respetivo período de conservação;

 

f)

Existem medidas eficazes e adequadas para garantir a disponibilidade, a segurança e a resiliência dos sistemas e dos serviços de tratamento contra incidentes técnicos ou físicos;

 

g)

Existem medidas eficazes e adequadas para garantir a segurança física dos locais onde os dados são armazenados e tratados, a governação e a gestão internas do serviço de informática e do serviço de segurança informática, a certificação de processos e produtos;

 

Os fornecedores que recorram a esta disposição devem elaborar documentação que explique por que motivo o tratamento de categorias especiais de dados pessoais foi necessário para detetar e corrigir enviesamentos .

Alteração 291

Proposta de regulamento

Artigo 10 — n.o 6-A (novo)

Texto da Comissão

Alteração

 

6-A.     Sempre que o fornecedor não possa cumprir as obrigações estabelecidas no presente artigo em virtude de não ter acesso aos dados e os dados sejam detidos exclusivamente pelo responsável pela implantação, este pode, com base num contrato, ser responsabilizado por qualquer violação do presente artigo.

Alteração 292

Proposta de regulamento

Artigo 11 — n.o 1 — parágrafo 1

Texto da Comissão

Alteração

A documentação técnica deve ser elaborada de maneira que demonstre que o sistema de IA de risco elevado cumpre os requisitos estabelecidos no presente capítulo e deve facultar às autoridades nacionais competentes e aos organismos notificados todas as informações necessárias para aferir a conformidade do sistema de IA com esses requisitos. A documentação técnica deve conter, no mínimo, os elementos previstos no anexo IV.

A documentação técnica deve ser elaborada de maneira que demonstre que o sistema de IA de risco elevado cumpre os requisitos estabelecidos no presente capítulo e deve facultar às autoridades nacionais de controlo e aos organismos notificados as informações necessárias para aferir a conformidade do sistema de IA com esses requisitos. A documentação técnica deve conter, no mínimo, os elementos previstos no anexo IV ou, no caso das PME e das empresas em fase de arranque, qualquer documentação equivalente que cumpra os mesmos objetivos, sob reserva da aprovação da autoridade nacional competente .

Alteração 293

Proposta de regulamento

Artigo 11 — n.o 2

Texto da Comissão

Alteração

2.   Caso um sistema de IA de risco elevado relacionado com um produto, ao qual sejam aplicáveis os atos jurídicos enumerados no anexo II, secção A, seja colocado no mercado ou colocado em serviço, deve ser elaborada uma única documentação técnica que contenha todas as informações enumeradas no anexo IV e as informações exigidas nos termos desses atos jurídicos.

2.   Caso um sistema de IA de risco elevado relacionado com um produto, ao qual sejam aplicáveis os atos jurídicos enumerados no anexo II, secção A, seja colocado no mercado ou colocado em serviço, deve ser elaborada uma única documentação técnica que contenha todas as informações enumeradas no n.o 1 e as informações exigidas nos termos desses atos jurídicos.

Alteração 294

Proposta de regulamento

Artigo 11 — n.o 3-A (novo)

Texto da Comissão

Alteração

 

3-A.     Os fornecedores que sejam instituições de crédito regulamentadas pela Diretiva 2013/36/UE devem manter a documentação técnica como parte da documentação relativa a governação interna, sistemas, processos e mecanismos elaborada nos termos do artigo 74.o da referida diretiva.

Alteração 295

Proposta de regulamento

Artigo 12 — n.o 1

Texto da Comissão

Alteração

1.   Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos com capacidades que permitam o registo automático de eventos («registos») enquanto o sistema de IA de risco elevado estiver em funcionamento. Essas capacidades de registo devem estar em conformidade com normas reconhecidas ou especificações comuns.

1.   Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos com capacidades que permitam o registo automático de eventos («registos») enquanto o sistema de IA de risco elevado estiver em funcionamento. Essas capacidades de registo devem estar em conformidade com o estado da técnica e normas reconhecidas ou especificações comuns.

Alteração 296

Proposta de regulamento

Artigo 12 — n.o 2

Texto da Comissão

Alteração

2.    As capacidades de registo devem assegurar um nível de rastreabilidade do funcionamento do sistema de IA ao longo do seu ciclo de vida que seja adequado à finalidade prevista do sistema.

2.    Para assegurar um nível de rastreabilidade do funcionamento do sistema de IA ao longo de todo o seu período de vida que seja adequado à finalidade prevista do sistema , as capacidades de registo devem facilitar o controlo do funcionamento a que se refere o artigo 29.o, n.o 4, bem como o acompanhamento pós-comercialização a que se refere o artigo 61.o . Em especial, devem permitir o registo de acontecimentos relevantes para a identificação de situações que possam:

 

a)

Dar azo a que o sistema de IA apresente um risco, na aceção do artigo 65.o, n.o 1; ou

 

b)

Dar origem a uma modificação substancial do sistema de IA.

Alteração 297

Proposta de regulamento

Artigo 12 — n.o 2-A (novo)

Texto da Comissão

Alteração

 

2 a.     Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos com capacidades de registo que permitam o registo do consumo de energia, a medição ou o cálculo da utilização de recursos e o impacto ambiental do sistema de IA de risco elevado durante todas as fases do ciclo de vida do sistema.

Alteração 298

Proposta de regulamento

Artigo 12 — n.o 3

Texto da Comissão

Alteração

3.     Em especial, as capacidades de registo devem permitir o controlo do funcionamento do sistema de IA de risco elevado no que diz respeito à ocorrência de situações que possam dar azo a que o sistema de IA apresente um risco, na aceção do artigo 65.o, n.o 1, ou dar origem a uma modificação substancial, e facilitar o acompanhamento pós-comercialização a que se refere o artigo 61.o.

Suprimido

Alteração 299

Proposta de regulamento

Artigo 13 — título

Texto da Comissão

Alteração

Transparência e prestação de informações aos utilizadores

Transparência e prestação de informações

Alteração 300

Proposta de regulamento

Artigo 13 — n.o 1

Texto da Comissão

Alteração

1.   Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que assegure que o seu funcionamento seja suficientemente transparente para permitir aos utilizadores interpretar o resultado do sistema e utilizá-lo corretamente . Deve ser garantido um tipo e um grau adequados de transparência, que permita cumprir as obrigações que incumbem ao utilizador e ao fornecedor por força do capítulo 3 do presente título.

1.   Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que assegure que o seu funcionamento seja suficientemente transparente para permitir aos fornecedores e utilizadores compreender razoavelmente o funcionamento do sistema. Deve ser garantida uma transparência apropriada, em conformidade com a finalidade prevista do sistema de IA, que permita cumprir as obrigações que incumbem ao fornecedor e ao utilizador por força do capítulo 3 do presente título.

 

Transparência significa, por conseguinte, que, no momento em que o sistema de IA de risco elevado é colocado no mercado, todos os meios técnicos disponíveis em consonância com o estado da técnica geralmente reconhecido são utilizados para assegurar que os resultados do sistema de IA sejam interpretáveis pelo fornecedor e pelo utilizador. O utilizador deve poder compreender e utilizar o sistema de IA de forma adequada, sabendo, de um modo geral, como funciona o sistema de IA e quais os dados que trata, o que permite ao utilizador explicar as decisões tomadas pelo sistema de IA à pessoa afetada nos termos do artigo 68.o, alínea c).

Alteração 301

Proposta de regulamento

Artigo 13 — n.o 2

Texto da Comissão

Alteração

2.   Os sistemas de IA de risco elevado devem ser acompanhados de instruções de utilização, num formato digital ou outro adequado , que incluam informações concisas, completas , corretas e claras que sejam pertinentes, acessíveis e compreensíveis para os utilizadores.

2.   Os sistemas de IA de risco elevado devem ser acompanhados de instruções de utilização compreensíveis , num formato digital ou disponibilizado de outro modo num formato duradouro , que incluam informações concisas, corretas, claras e, na medida do possível, completas que contribuam para o funcionamento e a manutenção do sistema de IA, bem como para apoiar a tomada de decisões informadas pelos utilizadores, e que sejam razoavelmente pertinentes, acessíveis e compreensíveis para os utilizadores.

Alteração 302

Proposta de regulamento

Artigo 13 — n.o 3 — parte introdutória

Texto da Comissão

Alteração

3.   As informações a que se refere o n.o 2 devem especificar:

3.    Para alcançar os resultados mencionados no n.o 1, as informações a que se refere o n.o 2 devem especificar:

Alteração 303

Proposta de regulamento

Artigo 13 — n.o 3 — alínea a)

Texto da Comissão

Alteração

a)

A identidade e os dados de contacto do fornecedor e, se for caso disso, do seu mandatário ;

a)

A identidade e os dados de contacto do fornecedor e, se for caso disso, dos seus mandatários ;

Alteração 304

Proposta de regulamento

Artigo 13 — n.o 3 — alínea a-A) (nova)

Texto da Comissão

Alteração

 

a-A)

Quando sejam diferentes dos do fornecedor, a identidade e os dados de contacto da entidade que efetuou a avaliação da conformidade e, se for caso disso, do seu mandatário;

Alteração 305

Proposta de regulamento

Artigo 13 — n.o 3 — alínea b) — parte introdutória

Texto da Comissão

Alteração

b)

As características, capacidades e limitações de desempenho do sistema de IA de risco elevado, incluindo:

b)

As características, capacidades e limitações de desempenho do sistema de IA de risco elevado, incluindo , se for caso disso :

Alteração 306

Proposta de regulamento

Artigo 13 — n.o 3 — alínea b) — subalínea ii)

Texto da Comissão

Alteração

ii)

o nível de exatidão, solidez e cibersegurança a que se refere o artigo 15.o relativamente ao qual o sistema de IA de risco elevado foi testado e validado e que pode ser esperado, bem como quaisquer circunstâncias conhecidas e previsíveis que possam ter um impacto nesse nível esperado de exatidão, solidez e cibersegurança,

ii)

o nível de exatidão, solidez e cibersegurança a que se refere o artigo 15.o relativamente ao qual o sistema de IA de risco elevado foi testado e validado e que pode ser esperado, bem como quaisquer circunstâncias claramente conhecidas e previsíveis que possam ter um impacto nesse nível esperado de exatidão, solidez e cibersegurança,

Alteração 307

Proposta de regulamento

Artigo 13 — n.o 3 — alínea b) — subalínea iii)

Texto da Comissão

Alteração

iii)

qualquer circunstância conhecida ou previsível, relacionada com a utilização do sistema de IA de risco elevado de acordo com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis, que possa causar riscos para a saúde e a segurança ou os direitos fundamentais,

iii)

qualquer circunstância claramente conhecida ou previsível, relacionada com a utilização do sistema de IA de risco elevado de acordo com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis, que possa causar riscos para a saúde e a segurança, os direitos fundamentais ou o ambiente, incluindo, se for caso disso, exemplos ilustrativos dessas limitações e de cenários em que o sistema não deva ser utilizado ,

Alteração 308

Proposta de regulamento

Artigo 13 — n.o 3 — alínea b) — subalínea iii-A) (nova)

Texto da Comissão

Alteração

 

iii-A)

em que medida o sistema de IA pode proporcionar uma explicação para as decisões que toma;

Alteração 309

Proposta de regulamento

Artigo 13 — n.o 3 — alínea b) — subalínea v)

Texto da Comissão

Alteração

v)

quando oportuno, especificações para os dados de entrada, ou quaisquer outras informações importantes em termos dos conjuntos de dados de treino, validação e teste usados, tendo em conta a finalidade prevista do sistema de IA;

v)

informações pertinentes sobre as ações dos utilizadores suscetíveis de afetar o desempenho do sistema, incluindo o tipo ou a qualidade dos dados de entrada, ou quaisquer outras informações importantes em termos dos conjuntos de dados de treino, validação e teste usados, tendo em conta a finalidade prevista do sistema de IA;

Alteração 310

Proposta de regulamento

Artigo 13 — n.o 3 — alínea e)

Texto da Comissão

Alteração

e)

A vida útil esperada do sistema de IA de risco elevado e quaisquer medidas de manutenção e assistência necessárias para assegurar o correto funcionamento desse sistema de IA, incluindo no tocante a atualizações do software.

e)

Quaisquer medidas de manutenção e assistência necessárias para assegurar o correto funcionamento desse sistema de IA, incluindo no tocante a atualizações do software , ao longo da sua vida útil esperada .

Alteração 311

Proposta de regulamento

Artigo 13 — n.o 3 — alínea e-A) (nova)

Texto da Comissão

Alteração

 

e-A)

Uma descrição dos mecanismos incluídos no sistema de IA que permita aos utilizadores recolher, armazenar e interpretar corretamente os registos, em conformidade com o artigo 12.o, n.o 1.

Alteração 312

Proposta de regulamento

Artigo 13 — n.o 3 — alínea e-B) (nova)

Texto da Comissão

Alteração

 

e-B)

A informação deve ser transmitida, no mínimo, na língua oficial do país onde o sistema de IA é utilizado.

Alteração 313

Proposta de regulamento

Artigo 13 — n.o 3-A (novo)

Texto da Comissão

Alteração

 

3a.     A fim de cumprir as obrigações previstas no presente artigo, os fornecedores e os utilizadores devem garantir um nível suficiente de literacia em matéria de IA, em consonância com o artigo 4.o-B.

Alteração 314

Proposta de regulamento

Artigo 14 — n.o 1

Texto da Comissão

Alteração

1.   Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de tal modo, incluindo com ferramentas de interface homem-máquina apropriadas, que possam ser eficazmente supervisionados por pessoas singulares durante o período de utilização do sistema de IA.

1.   Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de tal modo, incluindo com ferramentas de interface homem-máquina apropriadas, que sejam eficazmente supervisionados por pessoas singulares proporcionalmente aos riscos associados aos referidos sistemas. As pessoas singulares responsáveis por assegurar a supervisão humana devem ter um nível suficiente de literacia em matéria de IA, em conformidade com o artigo 4.o-B, bem como o apoio e a autoridade necessários para exercer essa função durante o período de utilização do sistema de IA e para permitir uma investigação exaustiva após um incidente .

Alteração 315

Proposta de regulamento

Artigo 14 — n.o 2

Texto da Comissão

Alteração

2.   A supervisão humana deve procurar prevenir ou minimizar os riscos para a saúde, a segurança ou os direitos fundamentais que possam surgir quando um sistema de IA de risco elevado é usado em conformidade com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis, em especial quando esses riscos persistem apesar da aplicação de outros requisitos estabelecidos neste capítulo.

2.   A supervisão humana deve procurar prevenir ou minimizar os riscos para a saúde, a segurança, os direitos fundamentais ou o ambiente que possam surgir quando um sistema de IA de risco elevado é usado em conformidade com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis, em especial quando esses riscos persistem apesar da aplicação de outros requisitos estabelecidos neste capítulo e sempre que decisões baseadas exclusivamente no tratamento automatizado por sistemas de IA produzam efeitos jurídicos ou de outro modo significativos nas pessoas ou nos grupos de pessoas em que o sistema se destina a ser utilizado .

Alteração 316

Proposta de regulamento

Artigo 14 — n.o 3 — parte introdutória

Texto da Comissão

Alteração

3.   A supervisão humana deve ser assegurada por meio de um ou de todos os seguintes tipos de medidas:

3.   A supervisão humana deve ter em conta os riscos específicos, o nível de automatização e o contexto do sistema de IA e deve ser assegurada por meio de um ou de todos os seguintes tipos de medidas:

Alteração 317

Proposta de regulamento

Artigo 14 — n.o 4 — parte introdutória

Texto da Comissão

Alteração

4.    As medidas a que se refere o n.o 3 devem permitir que as pessoas responsáveis pela supervisão humana façam o seguinte , em função das circunstâncias:

4.    Para efeitos de aplicação dos n.os 1 a 3, o sistema de IA de risco elevado deve ser fornecido ao utilizador de forma a permitir que as pessoas singulares responsáveis pela supervisão humana, em função das circunstâncias e proporcionalmente às mesmas :

Alteração 318

Proposta de regulamento

Artigo 14 — n.o 4 — alínea a)

Texto da Comissão

Alteração

a)

Compreendam completamente as capacidades e limitações do sistema de IA de risco elevado e sejam capazes de controlar devidamente o seu funcionamento, de modo que os sinais de anomalias, disfuncionalidades e desempenho inesperado possam ser detetados e resolvidos o mais rapidamente possível;

a)

Estejam cientes e compreendam de forma suficiente as capacidades e limitações pertinentes do sistema de IA de risco elevado e sejam capazes de controlar devidamente o seu funcionamento, de modo que os sinais de anomalias, disfuncionalidades e desempenho inesperado possam ser detetados e resolvidos o mais rapidamente possível;

Alteração 319

Proposta de regulamento

Artigo 14 — n.o 4 — alínea e)

Texto da Comissão

Alteração

e)

Serem capazes de intervir no funcionamento do sistema de IA de risco elevado ou interromper o sistema por meio de um botão de «paragem» ou procedimento similar.

e)

Sejam capazes de intervir no funcionamento do sistema de IA de risco elevado ou interromper o sistema por meio de um botão de «paragem» ou procedimento similar , que permita que o sistema pare num estado seguro, exceto se a interferência humana aumentar os riscos ou afetar negativamente o desempenho, tendo em conta o estado da técnica geralmente reconhecido .

Alteração 320

Proposta de regulamento

Artigo 14 — n.o 5

Texto da Comissão

Alteração

5.   Em relação aos sistemas de IA de risco elevado a que se refere o anexo III, ponto 1, alínea a), as medidas referidas no n.o 3 devem, além disso, permitir assegurar que nenhuma ação ou decisão seja tomada pelo utilizador com base na identificação resultante do sistema, salvo se a mesma tiver sido verificada e confirmada por, pelo menos, duas pessoas singulares.

5.   Em relação aos sistemas de IA de risco elevado a que se refere o anexo III, ponto 1, alínea a), as medidas referidas no n.o 3 devem, além disso, permitir assegurar que nenhuma ação ou decisão seja tomada pelo utilizador com base na identificação resultante do sistema, salvo se a mesma tiver sido verificada e confirmada por, pelo menos, duas pessoas singulares com a competência, a formação e a autoridade necessárias .

Alteração 321

Proposta de regulamento

Artigo 15 — n.o 1

Texto da Comissão

Alteração

1.   Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que alcancem, tendo em conta a finalidade prevista, um nível apropriado de exatidão, solidez e cibersegurança e  apresentem um desempenho coerente em relação a tais aspetos durante o ciclo de vida.

1.   Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de acordo com o princípio da segurança desde a conceção e por defeito . Tendo em conta a finalidade prevista, devem atingir um nível apropriado de exatidão, solidez , segurança e cibersegurança e  apresentar um desempenho coerente em relação a tais aspetos durante o ciclo de vida. O cumprimento destes requisitos deve incluir a aplicação das medidas mais avançadas, em função do segmento de mercado ou do âmbito de aplicação em questão.

Alteração 322

Proposta de regulamento

Artigo 15 — n.o 1-A (novo)

Texto da Comissão

Alteração

 

1-A.     A fim de abordar os aspetos técnicos de como medir os níveis adequados de exatidão e robustez estabelecidos no n.o 1 do presente artigo, o Serviço IA deve reunir as autoridades de metrologia e de avaliação comparativa nacionais e internacionais e fornecer orientações não vinculativas sobre a matéria, tal como previsto no artigo 56.o, n.o 2, alínea a).

Alteração 323

Proposta de regulamento

Artigo 15 — n.o 1-B (novo)

Texto da Comissão

Alteração

 

1-B.     Para resolver quaisquer questões emergentes no mercado interno no que diz respeito à cibersegurança, a Agência da União Europeia para a Cibersegurança (ENISA) deve envolver-se juntamente com o Comité Europeu para a Inteligência Artificial, tal como previsto no artigo 56.o, n.o 2, alínea b).

Alteração 324

Proposta de regulamento

Artigo 15 — n.o 2

Texto da Comissão

Alteração

2.   As instruções de utilização que acompanham os sistemas de IA de risco elevado devem declarar os níveis de exatidão e a métrica de exatidão aplicável.

2.   As instruções de utilização que acompanham os sistemas de IA de risco elevado devem declarar os níveis de exatidão e a métrica de exatidão aplicável. A linguagem utilizada deve ser clara e não deve ser propícia a mal-entendidos ou interpretações erróneas.

Alteração 325

Proposta de regulamento

Artigo 15 — n.o 3 — parágrafo 1

Texto da Comissão

Alteração

Os sistemas de IA de risco elevado devem ser resistentes a erros, falhas ou incoerências que possam ocorrer no sistema ou no ambiente em que aquele opera, em especial devido à interação com pessoas singulares ou outros sistemas.

Devem ser adotadas medidas técnicas e organizativas para assegurar que os sistemas de IA de risco elevado sejam tão resistentes quanto possível a erros, falhas ou incoerências que possam ocorrer no sistema ou no ambiente em que aquele opera, em especial devido à interação com pessoas singulares ou outros sistemas.

Alteração 326

Proposta de regulamento

Artigo 15 — n.o 3 — parágrafo 2

Texto da Comissão

Alteração

A solidez dos sistemas de IA de risco elevado pode ser alcançada por via de soluções de redundância técnica, que podem incluir planos de reserva ou de segurança à prova de falhas.

A solidez dos sistemas de IA de risco elevado pode ser alcançada pelo fornecedor adequado com o contributo do utilizador, sempre que necessário, por via de soluções de redundância técnica, que podem incluir planos de reserva ou de segurança à prova de falhas.

Alteração 327

Proposta de regulamento

Artigo 15 — n.o 3 — parágrafo 3

Texto da Comissão

Alteração

Os sistemas de IA de risco elevado que continuam a aprender após a colocação no mercado ou a colocação em serviço devem ser desenvolvidos de maneira que assegure que os resultados possivelmente enviesados devido a resultados usados como dados de entrada para futuras operações («circuitos de realimentação») sejam devidamente abordados por via de medidas de atenuação adequadas.

Os sistemas de IA de risco elevado que continuam a aprender após a colocação no mercado ou a colocação em serviço devem ser desenvolvidos de maneira que assegure que os resultados possivelmente enviesados que influenciem dados de entrada para futuras operações («circuitos de realimentação») e a manipulação maliciosa dos dados de entrada utilizados na aprendizagem durante o funcionamento sejam devidamente abordados por via de medidas de atenuação adequadas.

Alteração 328

Proposta de regulamento

Artigo 15 — n.o 4 — parágrafo 1

Texto da Comissão

Alteração

Os sistemas de IA de risco elevado devem ser resistentes a tentativas de terceiros não autorizados de alterar a sua utilização ou desempenho explorando as vulnerabilidades do sistema.

Os sistemas de IA de risco elevado devem ser resistentes a tentativas de terceiros não autorizados de alterar a sua utilização , comportamento, resultados ou desempenho explorando as vulnerabilidades do sistema.

Alteração 329

Proposta de regulamento

Artigo 15 — n.o 4 — parágrafo 3

Texto da Comissão

Alteração

As soluções técnicas para resolver vulnerabilidades específicas da inteligência artificial devem incluir, se for caso disso, medidas para prevenir e controlar ataques que visem manipular o conjunto de dados de treino («contaminação de dados»), dados de entrada preparados para fazer com que o modelo cometa um erro («exemplos antagónicos»), ou falhas do modelo.

As soluções técnicas para resolver vulnerabilidades específicas da inteligência artificial devem incluir, se for caso disso, medidas para prevenir , detetar, responder, resolver e controlar ataques que visem manipular o conjunto de dados de treino («contaminação de dados»), ou componentes pré-treinados utilizados no treino («contaminação de modelos»), dados de entrada preparados para fazer com que o modelo cometa um erro («exemplos antagónicos» ou «evasão de modelos» ) , ataques de confidencialidade ou falhas do modelo , que podem conduzir a tomadas de decisão prejudiciais .

Alteração 330

Proposta de regulamento

Título III — Capítulo 3 — título

Texto da Comissão

Alteração

OBRIGAÇÕES DOS FORNECEDORES E  UTILIZADORES DE SISTEMAS DE INTELIGÊNCIA ARTIFICIAL DE RISCO ELEVADO E DE OUTRAS PARTES

OBRIGAÇÕES DOS FORNECEDORES E  RESPONSÁVEIS PELA IMPLANTAÇÃO DE SISTEMAS DE INTELIGÊNCIA ARTIFICIAL DE RISCO ELEVADO E DE OUTRAS PARTES

Alteração 331

Proposta de regulamento

Artigo 16 — título

Texto da Comissão

Alteração

Obrigações dos fornecedores de sistemas de inteligência artificial de risco elevado

Obrigações dos fornecedores e responsáveis pela implantação de sistemas de inteligência artificial de risco elevado e de outras partes

Alteração 332

Proposta de regulamento

Artigo 16 — parágrafo 1 — alínea a)

Texto da Comissão

Alteração

a)

Assegurar que os seus sistemas de IA de risco elevado cumprem os requisitos estabelecidos no capítulo 2 do presente título;

a)

Assegurar que os seus sistemas de IA de risco elevado cumprem os requisitos estabelecidos no capítulo 2 do presente título antes de os colocarem no mercado ou colocarem em serviço ;

Alteração 333

Proposta de regulamento

Artigo 16 — parágrafo 1 — alínea a-A) (nova)

Texto da Comissão

Alteração

 

a-A)

Indicar o seu nome, nome comercial registado ou marca registada, o seu endereço e dados de contacto no sistema de IA de risco elevado, ou, se tal não for possível, na documentação que o acompanha, conforme adequado;

Alteração 334

Proposta de regulamento

Artigo 16 — parágrafo 1 — alínea a-B) (nova)

Texto da Comissão

Alteração

 

a-B)

Assegurar que as pessoas singulares que estão encarregadas da supervisão humana dos sistemas de IA de risco elevado sejam especificamente consciencializadas do risco de enviesamento da automatização ou da confirmação;

Alteração 335

Proposta de regulamento

Artigo 16 — parágrafo 1 — alínea a-C) (nova)

Texto da Comissão

Alteração

 

a-C)

Indicar especificações para os dados de entrada, ou quaisquer outras informações pertinentes em termos dos conjuntos de dados usados, incluindo a sua limitação e pressupostos, tendo em conta a finalidade prevista e as utilizações indevidas previsíveis e razoavelmente previsíveis do sistema de IA;

Alteração 336

Proposta de regulamento

Artigo 16 — parágrafo 1 — alínea c)

Texto da Comissão

Alteração

c)

Elaborar a documentação técnica do sistema de IA de risco elevado;

c)

Elaborar e manter a documentação técnica do sistema de IA de risco elevado mencionada no artigo 11.o ;

Alteração 337

Proposta de regulamento

Artigo 16 — parágrafo 1 — alínea d)

Texto da Comissão

Alteração

d)

Quando tal esteja sob o seu controlo, manter os registos gerados automaticamente pelos sistemas de IA de risco elevado que fornecem ;

d)

Quando tal esteja sob o seu controlo, manter os registos gerados automaticamente pelos sistemas de IA de risco elevado , que são necessários para assegurar e demonstrar a conformidade com o presente regulamento, nos termos do artigo 20.o ;

Alteração 338

Proposta de regulamento

Artigo 16 — n.o 1 — alínea e)

Texto da Comissão

Alteração

e)

Assegurar que o sistema de IA de risco elevado seja sujeito ao procedimento de avaliação da conformidade aplicável, antes da colocação no mercado ou da colocação em serviço;

e)

Assegurar que o sistema de IA de risco elevado seja sujeito ao procedimento de avaliação da conformidade aplicável, antes da colocação no mercado ou da colocação em serviço , nos termos do artigo 43.o ;

Alteração 339

Proposta de regulamento

Artigo 16 — parágrafo 1 — alínea e-A) (nova)

Texto da Comissão

Alteração

 

e-A)

Elaborar uma declaração de conformidade UE, nos termos do artigo 48.o;

Alteração 340

Proposta de regulamento

Artigo 16 — parágrafo 1 — alínea e-B) (nova)

Texto da Comissão

Alteração

 

e-B)

Apor a marcação CE no sistema de IA de risco elevado para indicar a conformidade com o presente regulamento, nos termos do artigo 49.o;

Alteração 341

Proposta de regulamento

Artigo 16 — parágrafo 1 — alínea g)

Texto da Comissão

Alteração

g)

Adotar as medidas corretivas necessárias , se o sistema de IA de risco elevado não estiver em conformidade com os requisitos estabelecidos no capítulo 2 do presente título ;

g)

Adotar as medidas corretivas necessárias a que se refere o artigo 21.o e fornecer informações a esse respeito ;

Alteração 342

Proposta de regulamento

Artigo 16 — parágrafo 1 — alínea h)

Texto da Comissão

Alteração

h)

Informar as autoridades nacionais competentes dos Estados-Membros nos quais disponibilizaram o sistema de IA ou o colocaram em serviço e, se for caso disso, o organismo notificado sobre a não conformidade e quaisquer medidas corretivas tomadas;

Suprimido

Alteração 343

Proposta de regulamento

Artigo 16 — parágrafo 1 — alínea i)

Texto da Comissão

Alteração

i)

Apor a marcação CE nos sistemas de IA de risco elevado para indicar a conformidade com o presente regulamento de acordo com o artigo 49.o;

Suprimido

Alteração 344

Proposta de regulamento

Artigo 16 — parágrafo 1 — alínea j)

Texto da Comissão

Alteração

j)

Mediante pedido de uma autoridade nacional competente , demonstrar a conformidade do sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título.

j)

Mediante pedido fundamentado de uma autoridade nacional de controlo , demonstrar a conformidade do sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título.

Alteração 345

Proposta de regulamento

Artigo 16 — parágrafo 1 — alínea j-A) (nova)

Texto da Comissão

Alteração

 

j-A)

Assegurar que o sistema de IA de risco elevado cumpre os requisitos de acessibilidade.

Alteração 346

Proposta de regulamento

Artigo 17 — n.o 1 — parte introdutória

Texto da Comissão

Alteração

1.   Os fornecedores de sistemas de IA de risco elevado devem criar um sistema de gestão da qualidade que assegure a conformidade com o presente regulamento. Esse sistema deve estar documentado de uma forma sistemática e ordenada, sob a forma de políticas, procedimentos e instruções escritas, e deve incluir, no mínimo, os seguintes aspetos:

1.   Os fornecedores de sistemas de IA de risco elevado devem possuir um sistema de gestão da qualidade que assegure a conformidade com o presente regulamento. Esse sistema deve estar documentado de uma forma sistemática e ordenada, sob a forma de políticas, procedimentos ou instruções escritas, e  pode ser integrado num sistema de gestão da qualidade existente ao abrigo dos atos legislativos setoriais da União : Deve incluir, no mínimo, os seguintes aspetos:

Alteração 347

Proposta de regulamento

Artigo 17 — n.o 1 — alínea a)

Texto da Comissão

Alteração

a)

Uma estratégia para o cumprimento da regulamentação, incluindo a observância de procedimentos de avaliação da conformidade e de procedimentos de gestão de modificações do sistema de IA de risco elevado;

Suprimido

Alteração 348

Proposta de regulamento

Artigo 17 — n.o 1 — alínea e)

Texto da Comissão

Alteração

e)

Especificações técnicas, incluindo normas, a aplicar e, se as normas harmonizadas em causa não forem aplicadas na íntegra, os meios a usar para assegurar que o sistema de IA de risco elevado cumpra os requisitos estabelecidos no capítulo 2 do presente título;

e)

Especificações técnicas, incluindo normas, a aplicar e, se as normas harmonizadas em causa não forem aplicadas na íntegra ou não abrangerem todos os requisitos pertinentes , os meios a usar para assegurar que o sistema de IA de risco elevado cumpra os requisitos estabelecidos no capítulo 2 do presente título;

Alteração 349

Proposta de regulamento

Artigo 17 — n.o 1 — alínea f)

Texto da Comissão

Alteração

f)

Sistemas e procedimentos de gestão de dados, incluindo recolha de dados, análise de dados, rotulagem de dados, armazenamento de dados, filtragem de dados, prospeção de dados, agregação de dados, conservação de dados e qualquer outra operação relativa aos dados que seja realizada antes e para efeitos da colocação no mercado ou colocação em serviço de sistemas de IA de risco elevado;

f)

Sistemas e procedimentos de gestão de dados, incluindo aquisição de dados, recolha de dados, análise de dados, rotulagem de dados, armazenamento de dados, filtragem de dados, prospeção de dados, agregação de dados, conservação de dados e qualquer outra operação relativa aos dados que seja realizada antes e para efeitos da colocação no mercado ou colocação em serviço de sistemas de IA de risco elevado;

Alteração 350

Proposta de regulamento

Artigo 17 — n.o 1 — alínea j)

Texto da Comissão

Alteração

j)

A gestão da comunicação com autoridades nacionais competentes, autoridades competentes, incluindo as setoriais , disponibilizando ou apoiando o acesso a dados, organismos notificados, outros operadores, clientes ou outras partes interessadas ;

j)

A gestão da comunicação com autoridades competentes pertinentes , incluindo as setoriais;

Alteração 351

Proposta de regulamento

Artigo 17 — n.o 2

Texto da Comissão

Alteração

2.   A aplicação dos aspetos referidos no n.o 1 deve ser proporcionada à dimensão da organização do fornecedor.

2.   A aplicação dos aspetos referidos no n.o 1 deve ser proporcionada à dimensão da organização do fornecedor. Os fornecedores devem, em qualquer caso, respeitar o grau de rigor e o nível de proteção exigidos para garantir a conformidade dos seus sistemas de IA com o presente regulamento.

Alteração 352

Proposta de regulamento

Artigo 18 — título

Texto da Comissão

Alteração

Obrigação de elaborar documentação técnica

Suprimido

Alteração 353

Proposta de regulamento

Artigo 18 — n.o 1

Texto da Comissão

Alteração

1.     Os fornecedores de sistemas de IA de risco elevado devem elaborar a documentação técnica a que se refere o artigo 11.o de acordo com o anexo IV.

Suprimido

Alteração 354

Proposta de regulamento

Artigo 18 — n.o 2

Texto da Comissão

Alteração

2.     Os fornecedores que sejam instituições de crédito regulamentadas pela Diretiva 2013/36/UE devem manter a documentação técnica como parte da documentação relativa a sistemas, processos e mecanismos de governação interna elaborada nos termos do artigo 74.o da referida diretiva.

Suprimido

Alteração 355

Proposta de regulamento

Artigo 19

Texto da Comissão

Alteração

Artigo 19

Suprimido

Avaliação da conformidade

 

1.     Os fornecedores de sistemas de IA de risco elevado devem assegurar que os sistemas que fornecem são sujeitos a um procedimento de avaliação da conformidade de acordo com o artigo 43.o, antes de serem colocados no mercado ou colocados em serviço. Assim que a conformidade dos sistemas de IA com os requisitos estabelecidos no capítulo 2 do presente título tiver sido demonstrada na sequência de uma avaliação da conformidade, os fornecedores devem elaborar uma declaração de conformidade UE de acordo com o artigo 48.o e apor a marcação de conformidade CE de acordo com o artigo 49.o.

 

2.     Em relação aos sistemas de IA de risco elevado referidos no anexo III, ponto 5, alínea b), colocados no mercado ou colocados em serviço por fornecedores que sejam instituições de crédito regulamentadas pela Diretiva 2013/36/UE, a avaliação da conformidade deve ser realizada no âmbito do procedimento a que se referem os artigos 97.o a 101.o da mesma diretiva.

 

Alteração 356

Proposta de regulamento

Artigo 20 — n.o 1

Texto da Comissão

Alteração

1.   Os fornecedores de sistemas de IA de risco elevado devem manter os registos gerados automaticamente pelos respetivos sistemas de IA de risco elevado, desde que esses registos estejam sob o seu controlo por força de uma disposição contratual com o utilizador ou de uma disposição legal . Os registos devem ser mantidos por um período adequado em função da finalidade prevista do sistema de IA de risco elevado e das obrigações legais aplicáveis nos termos da legislação da União ou nacional .

1.   Os utilizadores de sistemas de IA de risco elevado devem manter os registos gerados automaticamente por esse sistema de IA de risco elevado, desde que esses registos estejam sob o seu controlo. Sem prejuízo da legislação da União ou nacional aplicável, os registos devem ser mantidos por um período mínimo de 6 meses. O período de conservação deve estar em conformidade com as normas do setor e ser adequado à finalidade prevista do sistema de IA de risco elevado.

Alteração 357

Proposta de regulamento

Artigo 21 — n.o 1

Texto da Comissão

Alteração

Os fornecedores de sistemas de IA de risco elevado que considerem ou tenham motivos para crer que um sistema de IA de risco elevado que colocaram no mercado ou colocaram em serviço não está em conformidade com o presente regulamento devem tomar imediatamente as medidas corretivas necessárias para repor a conformidade do sistema em questão ou proceder à retirada ou recolha do mesmo, consoante o caso. Devem igualmente informar do facto os distribuidores do sistema de IA de risco elevado em questão e, se for caso disso, o mandatário e os importadores.

Os fornecedores de sistemas de IA de risco elevado que considerem ou tenham motivos para crer que um sistema de IA de risco elevado que colocaram no mercado ou colocaram em serviço não está em conformidade com o presente regulamento devem tomar imediatamente as medidas corretivas necessárias para repor a conformidade do sistema em questão ou proceder à retirada ou recolha do mesmo, consoante o caso.

 

Nos casos referidos no n.o 1, os fornecedores devem informar imediatamente:

 

a.

Os distribuidores;

 

b.

Os importadores;

 

c.

As autoridades nacionais competentes dos Estados-Membros em que disponibilizaram ou colocaram em serviço o sistema de IA; e

 

d.

Sempre que possível, o responsável pela implantação.

Alteração 358

Proposta de regulamento

Artigo 21 –parágrafo 1-A (novo)

Texto da Comissão

Alteração

 

Os fornecedores devem também informar o mandatário, caso este tenha sido nomeado em conformidade com o artigo 25.o, e o organismo notificado se o sistema de IA de risco elevado tiver de ser submetido a uma avaliação da conformidade por terceiros nos termos do artigo 43.o. Se for caso disso, devem também investigar as causas em colaboração com o responsável pela implantação.

Alteração 359

Proposta de regulamento

Artigo 22 — parágrafo 1

Texto da Comissão

Alteração

Se o sistema de IA de risco elevado apresentar um risco na aceção do artigo 65.o, n.o 1, e  esse risco for do conhecimento do fornecedor do sistema, este último deve informar imediatamente as autoridades nacionais competentes dos Estados-Membros nos quais disponibilizou o sistema e, se for caso disso, o organismo notificado que emitiu um certificado para o sistema de IA de risco elevado, em especial sobre a não conformidade e quaisquer as medidas corretivas tomadas.

Se o sistema de IA de risco elevado apresentar um risco na aceção do artigo 65.o, n.o 1, e  o fornecedor do sistema tomar conhecimento desse risco , este último deve informar imediatamente as autoridades nacionais de controlo dos Estados-Membros nos quais disponibilizou o sistema e, se for caso disso, o organismo notificado que emitiu um certificado para o sistema de IA de risco elevado, em especial sobre a  natureza da não conformidade e quaisquer medidas corretivas pertinentes tomadas.

Alteração 360

Proposta de regulamento

Artigo 22 — n.o 1-A (novo)

Texto da Comissão

Alteração

 

Nos casos referidos no n.o 1, os fornecedores do sistema de IA de risco elevado devem informar imediatamente:

 

a)

Os distribuidores;

 

b)

Os importadores;

 

c)

As autoridades nacionais competentes dos Estados-Membros em que disponibilizaram ou colocaram em serviço o sistema de IA; e

 

d)

Sempre que possível, os responsáveis pela implantação.

Alteração 361

Proposta de regulamento

Artigo 22 — parágrafo 1-B (novo)

Texto da Comissão

Alteração

 

Os fornecedores devem igualmente informar o mandatário, caso este tenha sido nomeado em conformidade com o artigo 25.o.

Alteração 362

Proposta de regulamento

Artigo 23 — título

Texto da Comissão

Alteração

Cooperação com as autoridades competentes

Cooperação com as autoridades competentes , o Gabinete e a Comissão

Alteração 363

Proposta de regulamento

Artigo 23 — parágrafo 1

Texto da Comissão

Alteração

Os fornecedores de sistemas de IA de risco elevado devem, mediante pedido de uma autoridade nacional competente, prestar a essa autoridade todas as informações e documentação necessárias para demonstrar a conformidade do sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título, numa língua oficial da União determinada pelo Estado-Membro em questão. Mediante pedido fundamentado de uma autoridade nacional competente, os fornecedores devem igualmente conceder a essa autoridade o acesso aos registos gerados automaticamente pelo sistema de IA de risco elevado, desde que esses registos estejam sob o seu controlo por força de uma disposição contratual com o utilizador ou de uma disposição legal.

Os fornecedores e, se for caso disso, os responsáveis pela implantação de sistemas de IA de risco elevado devem, mediante pedido de uma autoridade nacional competente ou, se for caso disso, do Gabinete ou da Comissão , prestar-lhes todas as informações e documentação necessárias para demonstrar a conformidade do sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título, numa língua oficial da União determinada pelo Estado-Membro em questão.

Alteração 364

Proposta de regulamento

Artigo 23 — parágrafo 1-A (novo)

Texto da Comissão

Alteração

 

Mediante um pedido fundamentado de uma autoridade nacional competente ou, se for caso disso, da Comissão, os fornecedores e, se for caso disso, os responsáveis pela implantação devem igualmente conceder à autoridade nacional competente requerente ou à Comissão, consoante o caso, acesso aos registos gerados automaticamente pelo sistema de IA de risco elevado, desde que esses registos estejam sob o seu controlo.

Alteração 365

Proposta de regulamento

Artigo 23 — parágrafo 1-B (novo)

Texto da Comissão

Alteração

 

Todas as informações obtidas por uma autoridade nacional competente ou pela Comissão nos termos das disposições do presente artigo devem ser consideradas um segredo comercial e devem ser tratadas em conformidade com as obrigações de confidencialidade estabelecidas no artigo 70.o.

Alteração 366

Proposta de regulamento

Artigo 25 — n.o 1

Texto da Comissão

Alteração

1.   Antes de disponibilizarem os seus sistemas no mercado da União, caso não seja possível identificar um importador, os fornecedores estabelecidos fora da União devem, através de mandato escrito, designar um mandatário estabelecido na União.

1.   Antes de disponibilizarem os seus sistemas no mercado da União, os fornecedores estabelecidos fora da União devem, através de mandato escrito, designar um mandatário estabelecido na União.

Alteração 367

Proposta de regulamento

Artigo 25 — n.o 1-A (novo)

Texto da Comissão

Alteração

 

1-A.     O mandatário deve residir ou estar estabelecido num dos Estados-Membros onde decorrem as atividades previstas no artigo 2.o, n.o 1, alínea c-B).

Alteração 368

Proposta de regulamento

Artigo 25 — n.o 1-B (novo)

Texto da Comissão

Alteração

 

1-B.     O fornecedor deve dotar o seu mandatário dos poderes e recursos necessários para cumprir as funções que lhe incumbem por força do presente regulamento.

Alteração 369

Proposta de regulamento

Artigo 25 — n.o 2 — parte introdutória

Texto da Comissão

Alteração

2.   O mandatário deve praticar os atos definidos no mandato conferido pelo fornecedor. O mandato deve habilitar o mandatário a exercer as seguintes funções:

2.   O mandatário deve praticar os atos definidos no mandato conferido pelo fornecedor. A pedido, o mandatário deve fornecer uma cópia do mandato às autoridades de fiscalização do mercado, numa das línguas oficiais da instituição da União determinada pela autoridade nacional competente. Para efeitos do presente regulamento, o mandato deve habilitar o mandatário a exercer as seguintes funções:

Alteração 370

Proposta de regulamento

Artigo 25 — n.o 2 — alínea a)

Texto da Comissão

Alteração

a)

Manter uma cópia da declaração de conformidade UE e da documentação técnica à disposição das autoridades nacionais competentes e das autoridades nacionais a que se refere o artigo 63.o, n.o 7 ;

a)

Garantir que a declaração de conformidade UE e a documentação técnica foram elaboradas e que o fornecedor seguiu um procedimento de avaliação da conformidade adequado ;

Alteração 371

Proposta de regulamento

Artigo 25 — n.o 2 — alínea a-A) (nova)

Texto da Comissão

Alteração

 

a-A)

Manter à disposição das autoridades nacionais competentes e das autoridades nacionais mencionadas no artigo 63.o, n.o 7, uma cópia da declaração de conformidade UE, da documentação técnica e, se for caso disso, do certificado emitido pelo organismo notificado;

Alteração 372

Proposta de regulamento

Artigo 25 — n.o 2 — alínea b)

Texto da Comissão

Alteração

b)

Prestar a uma autoridade nacional competente, mediante pedido fundamentado, todas as informações e documentação necessárias para demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título, incluindo o acesso aos registos gerados automaticamente pelo sistema de IA de risco elevado, desde que esses registos se encontrem sob o controlo do fornecedor por força de uma disposição contratual com o utilizador ou de uma disposição legal ;

b)

Prestar a uma autoridade nacional competente, mediante pedido fundamentado, todas as informações e documentação necessárias para demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título, incluindo o acesso aos registos gerados automaticamente pelo sistema de IA de risco elevado, desde que esses registos se encontrem sob o controlo do fornecedor;

Alteração 373

Proposta de regulamento

Artigo 25 — n.o 2 — alínea c)

Texto da Comissão

Alteração

c)

Cooperar com as autoridades nacionais competentes , mediante pedido fundamentado, em qualquer ação que estas empreendam em relação ao sistema de IA de risco elevado.

c)

Cooperar com as autoridades nacionais de controlo , mediante pedido fundamentado, em qualquer ação que a autoridade empreenda para reduzir e atenuar os riscos colocados pelo sistema de IA de risco elevado abrangido;

Alteração 374

Proposta de regulamento

Artigo 25 — n.o 2 — alínea c-A) (nova)

Texto da Comissão

Alteração

 

c-A)

Se for caso disso, respeitar as obrigações de registo a que se refere o artigo 51.o ou, se o registo for efetuado pelo próprio fornecedor, garantir que as informações a que se refere o anexo VIII, ponto 3, estão corretas.

Alteração 375

Proposta de regulamento

Artigo 25 — n.o 2-A (novo)

Texto da Comissão

Alteração

 

2-A.     O mandatário deve ser mandatado para ser contactado, além do fornecedor ou em vez deste, nomeadamente pela autoridade nacional de controlo ou pelas autoridades nacionais competentes, sobre todas as questões relacionadas com a garantia da conformidade com o presente regulamento.

Alteração 376

Proposta de regulamento

Artigo 25 — n.o 2-B (novo)

Texto da Comissão

Alteração

 

2-B.     O mandatário deve cessar o mandato se considerar ou tiver motivos para crer que o fornecedor atua contrariamente às suas obrigações previstas no presente regulamento. Nesse caso, deve informar imediatamente a autoridade nacional de controlo do Estado-Membro no qual está estabelecido, bem como, se for caso disso, o organismo notificado pertinente, da cessação do mandato e da respetiva justificação.

Alteração 377

Proposta de regulamento

Artigo 26 — n.o 1 — parte introdutória

Texto da Comissão

Alteração

1.   Antes de colocarem um sistema de IA de risco elevado no mercado, os importadores desse sistema devem assegurar-se de que:

1.   Antes de colocarem um sistema de IA de risco elevado no mercado, os importadores desse sistema devem assegurar-se de que esse sistema está em conformidade com o presente regulamento, garantindo que :

Alteração 378

Proposta de regulamento

Artigo 26 — n.o 1 — alínea a)

Texto da Comissão

Alteração

a)

O fornecedor desse sistema de IA realizou o procedimento de avaliação da conformidade adequado ;

a)

O fornecedor desse sistema de IA realizou o procedimento de avaliação da conformidade pertinente mencionado no artigo 43.o ;

Alteração 379

Proposta de regulamento

Artigo 26 — n.o 1 — alínea b)

Texto da Comissão

Alteração

b)

O fornecedor elaborou a documentação técnica em conformidade com o anexo IV;

b)

O fornecedor elaborou a documentação técnica em conformidade com o artigo 11.o e o anexo IV;

Alteração 380

Proposta de regulamento

Artigo 26 — n.o 1 — alínea c-A) (nova)

Texto da Comissão

Alteração

 

c-A)

S for caso disso, o fornecedor designou um mandatário em conformidade com o artigo 25.o, n.o 1.

Alteração 381

Proposta de regulamento

Artigo 26 — n.o 2

Texto da Comissão

Alteração

2.   Se um importador considerar ou tiver motivos para crer que um sistema de IA de risco elevado não está em conformidade com o presente regulamento, não pode colocar esse sistema de IA no mercado enquanto o mesmo não for tornado conforme. Se o sistema de IA de risco elevado apresentar um risco na aceção do artigo 65.o, n.o 1, o importador deve informar desse facto o fornecedor do sistema de IA e as autoridades de fiscalização do mercado.

2.   Se um importador considerar ou tiver motivos para crer que um sistema de IA de risco elevado não está em conformidade com o presente regulamento, ou é falsificado ou acompanhado por documentação falsificada, o importador não pode colocar esse sistema de IA no mercado enquanto o mesmo não for tornado conforme. Se o sistema de IA de risco elevado apresentar um risco na aceção do artigo 65.o, n.o 1, o importador deve informar desse facto o fornecedor do sistema de IA e as autoridades de fiscalização do mercado.

Alteração 382

Proposta de regulamento

Artigo 26 — n.o 3

Texto da Comissão

Alteração

3.   Os importadores devem indicar o seu nome, nome comercial registado ou marca registada e endereço de contacto no sistema de IA de risco elevado, ou, se tal não for possível, na respetiva embalagem ou na documentação que o acompanha, conforme aplicável.

3.   Os importadores devem indicar o seu nome, nome comercial registado ou marca registada e endereço de contacto no sistema de IA de risco elevado e na respetiva embalagem ou na documentação que o acompanha, quando aplicável.

Alteração 383

Proposta de regulamento

Artigo 26 — n.o 5

Texto da Comissão

Alteração

5.   Os importadores devem prestar às autoridades nacionais competentes, mediante pedido fundamentado, todas as informações e documentação necessárias para demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título, numa língua que possa ser facilmente compreendida pela autoridade nacional competente em causa , incluindo o acesso aos registos gerados automaticamente pelo sistema de IA de risco elevado, desde que esses registos se encontrem sob o controlo do fornecedor por força de uma disposição contratual com o utilizador ou de uma disposição legal . Devem igualmente cooperar com essas autoridades nacionais competentes em qualquer ação que estas empreendam em relação a esse sistema.

5.   Os importadores devem prestar às autoridades nacionais competentes, mediante um pedido fundamentado, todas as informações e documentação necessárias para demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título, numa língua que possa ser facilmente compreendida por aquelas , incluindo o acesso aos registos gerados automaticamente pelo sistema de IA de risco elevado, desde que esses registos se encontrem sob o controlo do fornecedor nos termos do artigo 20.o .

Alteração 384

Proposta de regulamento

Artigo 26 — n.o 5-A (novo)

Texto da Comissão

Alteração

 

5-A.     Os importadores devem cooperar com as autoridades nacionais competentes em qualquer ação que estas autoridades empreendam para reduzir e atenuar os riscos colocados pelo sistema de IA de risco elevado.

Alteração 385

Proposta de regulamento

Artigo 27 — n.o 1

Texto da Comissão

Alteração

1.   Antes de disponibilizarem um sistema de IA de risco elevado no mercado, os distribuidores devem verificar se o sistema de IA de risco elevado ostenta a marcação de conformidade CE exigida, se está acompanhado da documentação e das instruções de utilização necessárias e se o fornecedor e o importador do sistema, consoante o caso, cumpriram as obrigações estabelecidas no presente regulamento.

1.   Antes de disponibilizarem um sistema de IA de risco elevado no mercado, os distribuidores devem verificar se o sistema de IA de risco elevado ostenta a marcação de conformidade CE exigida, se está acompanhado da documentação e das instruções de utilização necessárias e se o fornecedor e o importador do sistema, consoante o caso, cumpriram as suas obrigações estabelecidas no presente regulamento , nos artigos 16.o e 26.o respetivamente .

Alteração 386

Proposta de regulamento

Artigo 27 — n.o 2

Texto da Comissão

Alteração

2.   Se um distribuidor considerar ou tiver motivos para crer que um sistema de IA de risco elevado não está em conformidade com os requisitos estabelecidos no capítulo 2 do presente título, não pode disponibilizar esse sistema de IA de risco elevado no mercado enquanto o mesmo não for tornado conforme com os referidos requisitos. Além disso, se o sistema apresentar um risco na aceção do artigo 65.o, n.o 1, o distribuidor deve informar desse facto o fornecedor ou o importador do sistema, conforme o caso.

2.   Se um distribuidor considerar ou tiver motivos para crer , com base nas informações que possui, que um sistema de IA de risco elevado não está em conformidade com os requisitos estabelecidos no capítulo 2 do presente título, não pode disponibilizar esse sistema de IA de risco elevado no mercado enquanto o mesmo não for tornado conforme aos referidos requisitos. Além disso, se o sistema apresentar um risco na aceção do artigo 65.o, n.o 1, o distribuidor deve informar desse facto o fornecedor ou o importador do sistema e a autoridade nacional competente pertinente , conforme o caso.

Alteração 387

Proposta de regulamento

Artigo 27 — n.o 4

Texto da Comissão

Alteração

4.   Um distribuidor que considere ou tenha motivos para crer que um sistema de IA de risco elevado que disponibilizou no mercado não em conformidade com os requisitos estabelecidos no capítulo 2 do presente título deve tomar as medidas corretivas necessárias para repor a conformidade desse sistema com os referidos requisitos, proceder à retirada ou recolha do mesmo ou assegurar que o fornecedor, o importador ou qualquer operador envolvido, consoante o caso, toma essas medidas corretivas. Se um sistema de IA de risco elevado apresentar um risco na aceção do artigo 65.o, n.o 1, o distribuidor deve informar imediatamente desse facto as autoridades nacionais competentes dos Estados-Membros em que disponibilizou o produto, apresentando dados, sobretudo no que se refere à não conformidade e às medidas corretivas tomadas.

4.   Um distribuidor que considere ou tenha motivos para crer , com base nas informações que possui, que um sistema de IA de risco elevado que disponibilizou no mercado não está em conformidade com os requisitos estabelecidos no capítulo 2 do presente título deve tomar as medidas corretivas necessárias para repor a conformidade desse sistema com os referidos requisitos, proceder à retirada ou recolha do mesmo ou assegurar que o fornecedor, o importador ou qualquer operador envolvido, consoante o caso, toma essas medidas corretivas. Se um sistema de IA de risco elevado apresentar um risco na aceção do artigo 65.o, n.o 1, o distribuidor deve informar imediatamente desse facto o fornecedor ou o importador do sistema e as autoridades nacionais competentes dos Estados-Membros em que disponibilizou o produto, apresentando dados, sobretudo no que se refere à não conformidade e às medidas corretivas tomadas.

Alteração 388

Proposta de regulamento

Artigo 27 — n.o 5

Texto da Comissão

Alteração

5.   Mediante pedido fundamentado de uma autoridade nacional competente, os distribuidores de sistemas de IA de risco elevado devem prestar a essa autoridade todas as informações e documentação necessárias para demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título. Os distribuidores devem igualmente cooperar com essa autoridade nacional competente em qualquer ação que esta empreenda.

5.   Mediante pedido fundamentado de uma autoridade nacional competente, os distribuidores de sistemas de IA de risco elevado devem prestar a essa autoridade todas as informações e documentação em sua posse ou à sua disposição, em conformidade com as obrigações dos distribuidores previstas no n.o 1, que sejam necessárias para demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título.

Alteração 389

Proposta de regulamento

Artigo 27 — n.o 5-A (novo)

Texto da Comissão

Alteração

 

5-A.     Os distribuidores devem cooperar com as autoridades nacionais competentes em qualquer ação que estas autoridades empreendam para reduzir ou atenuar os riscos colocados pelo sistema de IA de risco elevado.

Alteração 390

Proposta de regulamento

Artigo 28 — título

Texto da Comissão

Alteração

Obrigações dos distribuidores, importadores, utilizadores e outros terceiros

Responsabilidades ao longo da cadeia de valor da IA dos fornecedores, distribuidores, importadores, responsáveis pela implantação ou outros terceiros

Alteração 391

Proposta de regulamento

Artigo 28 — n.o 1 — parte introdutória

Texto da Comissão

Alteração

1.   Qualquer distribuidor, importador, utilizador ou outro terceiro será considerado um fornecedor para efeitos do presente regulamento e ficará sujeito às obrigações do fornecedor estabelecidas no artigo 16.o em qualquer uma das seguintes circunstâncias:

1.   Qualquer distribuidor, importador, responsável pela implantação ou outro terceiro será considerado um fornecedor de um sistema de IA de risco elevado para efeitos do presente regulamento e ficará sujeito às obrigações do fornecedor estabelecidas no artigo 16.o em qualquer uma das seguintes circunstâncias:

Alteração 392

Proposta de regulamento

Artigo 28 — n.o 1 — alínea a)

Texto da Comissão

Alteração

(a)

Se coloca no mercado ou colocar em serviço um sistema de IA de risco elevado sob o seu nome ou marca ;

(a)

Se colocar o seu nome ou a sua marca num sistema de IA de risco elevado já colocado no mercado ou colocado em serviço ;

Alteração 393

Proposta de regulamento

Artigo 28 — n.o 1 — alínea b)

Texto da Comissão

Alteração

b)

Se modificar a finalidade prevista de um sistema de IA de risco elevado já colocado no mercado ou colocado em serviço;

b)

Se introduzir uma alteração substancial num sistema de IA de risco elevado que tenha sido colocado no mercado ou que já tenha sido colocado em serviço e de uma forma que continua a ser um sistema de IA de risco elevado, em conformidade com o artigo 6.o ;

Alteração 394

Proposta de regulamento

Artigo 28.o — n.o 1 — alínea b-A) (nova)

Texto da Comissão

Alteração

 

b-A)

Se introduzir uma alteração substancial num sistema de IA, incluindo um sistema de IA de finalidade geral, que não foi classificado como de risco elevado e que já foi colocado no mercado ou colocado em serviço, de tal modo que o sistema de IA se torna um sistema de IA de risco elevado, em conformidade com o artigo 6.o;

Alteração 395

Proposta de regulamento

Artigo 28 — n.o 2

Texto da Comissão

Alteração

2.   Sempre que se verificarem as circunstâncias a que se refere o n.o 1, alíneas b) ou c) ,o fornecedor, o importador ou o utilizador que inicialmente colocou no mercado ou colocou em serviço o sistema de IA de risco elevado deixará de ser considerado um fornecedor para efeitos do presente regulamento.

2.   Sempre que se verificarem as circunstâncias a que se refere o n.o 1, alíneas a) a b-A) , o fornecedor, o importador ou o utilizador que inicialmente colocou no mercado ou colocou em serviço o sistema de IA de risco elevado deixará de ser considerado um fornecedor desse sistema específico de IA para efeitos do presente regulamento. Este anterior fornecedor deve fornecer ao novo fornecedor a documentação técnica e todas as outras capacidades de informação pertinentes e razoavelmente esperadas do sistema de IA, acesso técnico ou outra assistência com base no estado da técnica geralmente reconhecido, que sejam necessários para o cumprimento das obrigações estabelecidas no presente regulamento.

 

O presente número é igualmente aplicável aos fornecedores de modelos de base, tal como definidos no artigo 3.o, quando o modelo de base estiver diretamente integrado num sistema de IA de risco elevado.

Alteração 396

Proposta de regulamento

Artigo 28 — n.o 2-A (novo)

Texto da Comissão

Alteração

 

2-A.     O fornecedor de um sistema de IA de risco elevado e o terceiro que fornece ferramentas, serviços, componentes ou processos que são utilizados ou integrados no sistema de IA de risco elevado devem, mediante acordo escrito, especificar as informações, as capacidades, o acesso técnico e/ou outra assistência, com base no estado da técnica geralmente reconhecido, que o terceiro é obrigado a fornecer, a fim de permitir que o fornecedor do sistema de IA de risco elevado cumpra plenamente as obrigações decorrentes do presente regulamento.

 

A Comissão deve desenvolver e recomendar modelos de cláusulas contratuais não vinculativas entre fornecedores de sistemas de IA de risco elevado e terceiros que forneçam ferramentas, serviços, componentes ou processos que são utilizados ou integrados em sistemas de IA de risco elevado, a fim de ajudar ambas as partes a elaborar e negociar contratos com direitos e obrigações contratuais equilibrados e coerentes com o nível de controlo de cada parte. Ao elaborar modelos de cláusulas contratuais não vinculativas, a Comissão deve ter em conta eventuais requisitos contratuais aplicáveis em setores ou casos comerciais específicos. As cláusulas contratuais não vinculativas devem ser publicadas e disponibilizadas gratuitamente num formato eletrónico facilmente utilizável no sítio Web do Serviço IA.

Alteração 397

Proposta de regulamento

Artigo 28 — n.o 2-B (novo)

Texto da Comissão

Alteração

 

2-B.     Para efeitos do presente artigo, os segredos comerciais devem ser preservados e só podem ser divulgados se forem tomadas antecipadamente todas as medidas específicas necessárias nos termos da Diretiva (UE) 2016/943 para preservar a sua confidencialidade, em especial no que diz respeito a terceiros. Sempre que necessário, podem ser acordadas disposições técnicas e organizativas adequadas para proteger os direitos de propriedade intelectual ou os segredos comerciais.

Alteração 398

Proposta de regulamento

Artigo 28-A (novo)

Texto da Comissão

Alteração

 

Artigo 28.o-A

 

Cláusulas contratuais abusivas impostas unilateralmente a uma PME ou a uma empresa em fase de arranque

 

1.     Uma cláusula contratual relativa ao fornecimento de ferramentas, serviços, componentes ou processos que são utilizados ou integrados num sistema de IA de risco elevado ou as medidas corretivas para o incumprimento ou a cessação de obrigações conexas impostas unilateralmente por uma empresa a uma PME ou a uma empresa em fase de arranque não é vinculativa para esta última se for abusiva.

 

2.     Uma cláusula contratual não deve ser considerada abusiva quando decorre da legislação da União aplicável.

 

3.     Uma cláusula contratual é abusiva se for de natureza tal que prejudique objetivamente a capacidade da parte a quem a cláusula foi imposta unilateralmente de proteger o seu interesse comercial legítimo na informação em causa ou a sua utilização se desvie manifestamente das boas práticas comerciais no fornecimento de ferramentas, serviços, componentes ou processos que são utilizados ou integrados num sistema de IA de risco elevado, contrariamente à boa-fé e à negociação justa, ou crie um desequilíbrio significativo entre os direitos e as obrigações das partes no contrato. Uma cláusula contratual é igualmente abusiva se tiver por efeito transferir as sanções a que se refere o artigo 71.o ou os custos de contencioso associados entre as partes no contrato, tal como referido no artigo 71.o, n.o 8.

 

4.     Para efeitos do presente artigo, uma cláusula contratual é considerada abusiva se tiver por objeto ou efeito:

 

a)

Excluir ou limitar a responsabilidade da parte que impôs unilateralmente a cláusula por atos intencionais ou negligência grosseira;

 

b)

Excluir as vias de recurso à disposição da parte à qual a cláusula foi imposta unilateralmente em caso de incumprimento de obrigações contratuais ou a responsabilidade da parte que impôs unilateralmente a cláusula em caso de uma violação dessas obrigações;

 

c)

Conferir à parte que impôs unilateralmente a cláusula o direito exclusivo de determinar se a documentação técnica e a informação facultadas estão em conformidade com o contrato ou de interpretar qualquer cláusula do contrato.

 

5.     Considera-se que uma cláusula contratual é imposta unilateralmente, na aceção do presente artigo, se tiver sido apresentada por uma parte contratante e a outra parte contratante não tiver podido influenciar o seu teor, apesar de ter tentado negociá-la. Recai sobre a parte contratante que apresentou uma cláusula contratual o ónus da prova de que essa cláusula não foi imposta unilateralmente.

 

6.     Caso a cláusula contratual abusiva seja dissociável das restantes cláusulas, estas últimas continuam a ser vinculativas. A parte que apresentou a cláusula contestada não pode alegar que esta é abusiva.

 

7.     O presente artigo é aplicável a todos os novos contratos que tenham entrado em vigor após… [data de entrada em vigor do presente regulamento]. As empresas devem rever as obrigações contratuais existentes que estejam sujeitas ao presente regulamento até… [três anos após a data de entrada em vigor do presente regulamento].

 

8.     Tendo em conta a rapidez com que surgem inovações nos mercados, a Comissão deve rever com regularidade a lista de cláusulas contratuais abusivas nos termos do artigo 28.o-A e atualizá-la à luz das novas práticas comerciais, se for caso disso.

Alteração 399

Proposta de regulamento

Artigo 28-B (novo)

Texto da Comissão

Alteração

 

Artigo 28.o-B

 

Obrigações do fornecedor de um modelo de base

 

1.     Antes de o disponibilizar no mercado ou de o colocar em serviço, um fornecedor de um modelo de base deve assegurar a sua conformidade com os requisitos estabelecidos no presente artigo, independentemente de ser fornecido como modelo autónomo ou incorporado num sistema de IA ou num produto, ou fornecido ao abrigo de licenças de fonte aberta e gratuita, como um serviço, bem como de outros canais de distribuição.

 

2.     Para efeitos do n.o 1, o fornecedor de um modelo de base deve:

 

a)

Demonstrar, através de uma conceção, um ensaio e uma análise adequados, a identificação, a redução e a atenuação dos riscos razoavelmente previsíveis para a saúde, a segurança, os direitos fundamentais, o ambiente, a democracia e o Estado de direito, antes e durante o desenvolvimento, através de métodos adequados, como a participação de peritos independentes, bem como a documentação dos riscos não atenuáveis remanescentes após o desenvolvimento;

 

b)

Tratar e incorporar apenas conjuntos de dados sujeitos a medidas adequadas de governação de dados para modelos de base, em especial medidas para examinar a adequação das fontes de dados e eventuais enviesamentos e atenuação adequada;

 

c)

Conceber e desenvolver o modelo de base para alcançar, ao longo do seu ciclo de vida, níveis adequados de desempenho, previsibilidade, interpretabilidade, corrigibilidade, segurança e cibersegurança, avaliados através de métodos adequados, como a avaliação do modelo, com a participação de peritos independentes, análises documentadas e testes exaustivos durante a conceptualização, a conceção e o desenvolvimento;

 

d)

Conceber e desenvolver o modelo de base, utilizando as normas aplicáveis para reduzir a utilização de energia, a utilização de recursos e os resíduos, bem como para aumentar a eficiência energética e a eficiência global do sistema, sem prejuízo da legislação da União e nacional aplicável. Esta obrigação não é aplicável antes da publicação das normas referidas no artigo 40.o. Os modelos de base devem ser concebidos com capacidades que permitam a medição e o registo do consumo de energia e recursos, bem como, se tecnicamente viável, de outros impactos ambientais que a implantação e a utilização dos sistemas possam ter ao longo de todo o seu ciclo de vida.

 

e)

Elaborar documentação técnica exaustiva e instruções de utilização inteligíveis, a fim de permitir que os fornecedores a jusante cumpram as obrigações que lhes incumbem por força dos artigos 16.o e 28.o , n.o 1;

 

f)

Criar um sistema de gestão da qualidade para garantir e documentar o cumprimento do presente artigo, com a possibilidade de efetuar experiências para cumprimento deste requisito;

 

g)

Registar esse modelo de base na base de dados da UE referida no artigo 60.o, em conformidade com as instruções descritas no anexo VIII, ponto C.

 

Ao cumprir estes requisitos, deve ser tido em conta o estado da técnica geralmente reconhecido, nomeadamente conforme refletido em normas harmonizadas ou especificações comuns pertinentes, bem como os mais recentes métodos de avaliação e medição, refletidos, em especial, nas orientações e capacidades de avaliação comparativa referidas no artigo 58.o-A;

 

3.     Os fornecedores de modelos de base devem manter a documentação técnica referida no n.o 2, alínea e), à disposição das autoridades nacionais competentes, durante os dez anos subsequentes à data de colocação no mercado ou de colocação em serviço dos seus modelos de base;

 

4.     Os fornecedores de modelos de base utilizados em sistemas de IA especificamente concebidos para gerar, com diferentes níveis de autonomia, conteúdos como texto complexo, imagens, áudio ou vídeo («IA generativa») e os fornecedores que se especializam em transformar um modelo de base num sistema de IA generativa devem, além disso:

 

a)

Cumprir as obrigações de transparência previstas no artigo 52.o, n.o 1;

 

b)

Treinar e, se for caso disso, conceber e desenvolver o modelo de base de forma a assegurar salvaguardas adequadas contra a geração de conteúdos em violação da legislação da União, em consonância com o estado da técnica geralmente reconhecido e sem prejuízo dos direitos fundamentais, incluindo a liberdade de expressão;

 

c)

Sem prejuízo da legislação da União ou nacional em matéria de direitos de autor, documentar e disponibilizar ao público um resumo suficientemente pormenorizado da utilização dos dados de treino protegidos pela legislação em matéria de direitos de autor.

Alteração 400

Proposta de regulamento

Artigo 29 — n.o 1

Texto da Comissão

Alteração

1.   Os utilizadores de sistemas de IA de risco elevado devem utilizá-los de acordo com as instruções de utilização que acompanham os sistemas, nos termos dos n.os 2 e 5.

1.   Os responsáveis pela implantação de sistemas de IA de risco elevado devem tomar medidas técnicas e organizativas adequadas para garantir que utilizam estes sistemas de acordo com as instruções de utilização que acompanham os sistemas, nos termos dos n.os 2 e 5 do presente artigo .

Alteração 401

Proposta de regulamento

Artigo 29 — n.o 1-A (novo)

Texto da Comissão

Alteração

 

1-A.     Na medida em que os responsáveis pela implantação exercem controlo sobre o sistema de IA de risco elevado, devem:

 

i)

Implementar a supervisão humana de acordo com os requisitos estabelecidos no presente regulamento;

 

ii)

Garantir que as pessoas singulares a quem é confiada a supervisão humana dos sistemas de IA de risco elevado sejam competentes, devidamente qualificadas e formadas, e disponham dos recursos necessários para assegurar a supervisão eficaz do sistema de IA, em conformidade com o artigo 14.o;

 

iii)

Garantir que as medidas de solidez e cibersegurança pertinentes e adequadas são regularmente monitorizadas quanto à sua eficácia e que são regularmente ajustadas ou atualizadas.

Alteração 402

Proposta de regulamento

Artigo 29 — n.o 2

Texto da Comissão

Alteração

2.   As obrigações previstas no n.o 1 não excluem outras obrigações do utilizador previstas na legislação da União ou nacional nem prejudicam o poder discricionário do utilizador para organizar os seus próprios recursos e atividades para efeitos de aplicação das medidas de supervisão humana indicadas pelo fornecedor.

2.   As obrigações previstas nos n.os 1 e 1-A não excluem outras obrigações do responsável pela implantação previstas na legislação da União ou nacional nem prejudicam o poder discricionário do responsável pela implantação para organizar os seus próprios recursos e atividades para efeitos de aplicação das medidas de supervisão humana indicadas pelo fornecedor.

Alteração 403

Proposta de regulamento

Artigo 29 — n.o 3

Texto da Comissão

Alteração

3.   Sem prejuízo do disposto no n.o 1 , desde que o utilizador exerça controlo sobre os dados de entrada, esse utilizador deve assegurar que os dados de entrada sejam adequados à finalidade prevista do sistema de IA de risco elevado.

3.   Sem prejuízo do disposto nos n.os 1e 1-A , desde que o  responsável pela implantação exerça controlo sobre os dados de entrada, esse responsável pela implantação deve assegurar que os dados de entrada sejam suficientemente representativos e adequados à finalidade prevista do sistema de IA de risco elevado.

Alteração 404

Proposta de regulamento

Artigo 29 — n.o 4 — parte introdutória

Texto da Comissão

Alteração

4.   Os utilizadores devem controlar o funcionamento do sistema de IA de risco elevado com base nas instruções de utilização. Se tiverem motivos para considerar que a utilização de acordo com as instruções de utilização pode fazer com que o sistema de IA apresente um risco na aceção do artigo 65.o, n.o 1, devem informar o fornecedor ou distribuidor e suspender a utilização do sistema. Devem também informar o fornecedor ou distribuidor e interromper a utilização do sistema de IA caso identifiquem qualquer incidente grave ou anomalia na aceção do artigo 62.o. Se o  utilizador não conseguir entrar em contacto com o fornecedor, aplica-se, por analogia, o artigo 62.o.

4.   Os responsáveis pela implantação devem controlar o funcionamento do sistema de IA de risco elevado com base nas instruções de utilização e, se for caso disso, informar os fornecedores em conformidade com o artigo 61.o . Se tiverem motivos para considerar que a utilização de acordo com as instruções de utilização pode fazer com que o sistema de IA apresente um risco na aceção do artigo 65.o, n.o 1, devem informar o fornecedor ou distribuidor e as autoridades nacionais de controlo pertinentes e suspender a utilização do sistema. Devem também informar , imediatamente, primeiro o fornecedor e depois o importador ou distribuidor e as autoridades nacionais de controlo pertinentes e interromper a utilização do sistema de IA caso identifiquem qualquer incidente grave ou anomalia na aceção do artigo 62.o. Se o  responsável pela implantação não conseguir entrar em contacto com o fornecedor, aplica-se, por analogia, o artigo 62.o.

Alteração 405

Proposta de regulamento

Artigo 29 — n.o 4 — parágrafo 1

Texto da Comissão

Alteração

Em relação aos utilizadores que sejam instituições de crédito regulamentadas pela Diretiva 2013/36/UE, considera-se que a obrigação de controlo estabelecida no primeiro parágrafo é satisfeita mediante o cumprimento das regras relativas a sistemas, processos e mecanismos de governação interna previstas no artigo 74.o da referida diretiva.

Em relação aos responsáveis pela implantação que sejam instituições de crédito regulamentadas pela Diretiva 2013/36/UE, considera-se que a obrigação de controlo estabelecida no primeiro parágrafo é satisfeita mediante o cumprimento das regras relativas a sistemas, processos e mecanismos de governação interna previstas no artigo 74.o da referida diretiva.

Alteração 406

Proposta de regulamento

Artigo 29 — n.o 5 — parte introdutória

Texto da Comissão

Alteração

5.   Os utilizadores de sistemas de IA de risco elevado devem manter os registos gerados automaticamente por esse sistema de IA de risco elevado, desde que esses registos estejam sob o seu controlo. Os registos devem ser mantidos por um período adequado em função da finalidade prevista do sistema de IA de risco elevado e das obrigações legais aplicáveis nos termos da legislação da União ou nacional .

5.   Os responsáveis pela implantação de sistemas de IA de risco elevado devem manter os registos gerados automaticamente por esse sistema de IA de risco elevado, desde que esses registos estejam sob o seu controlo e sejam necessários para garantir e demonstrar a conformidade com o presente regulamento, para as auditorias ex post de quaisquer anomalias, incidentes ou utilizações indevidas do sistema razoavelmente previsíveis, ou para garantir e monitorizar o bom funcionamento do sistema ao longo do seu ciclo de vida . Sem prejuízo da legislação da União ou nacional aplicável, os registos devem ser mantidos por um período mínimo de 6 meses. O período de conservação deve estar em conformidade com as normas do setor e ser adequado à finalidade prevista do sistema de IA de risco elevado.

Alteração 407

Proposta de regulamento

Artigo 29 — n.o 5 — parágrafo 1

Texto da Comissão

Alteração

Os utilizadores que sejam instituições de crédito regulamentadas pela Diretiva 2013/36/UE devem manter os registos como parte da documentação relativa a sistemas, processos e mecanismos de governação interna prevista no artigo 74.o da referida diretiva.

Os responsáveis pela implantação que sejam instituições de crédito regulamentadas pela Diretiva 2013/36/UE devem manter os registos como parte da documentação relativa a sistemas, processos e mecanismos de governação interna prevista no artigo 74.o da referida diretiva.

Alteração 408

Proposta de regulamento

Artigo 29 — n.o 5-A (novo)

Texto da Comissão

Alteração

 

5-A.     Antes da entrada em serviço ou da utilização de um sistema de IA de risco elevado no local de trabalho, os responsáveis pela implantação devem consultar os representantes dos trabalhadores, com vista a alcançar um acordo em conformidade com a Diretiva 2002/14/CE e informar os trabalhadores afetados de que estarão sujeitos ao sistema.

Alteração 409

Proposta de regulamento

Artigo 29 — n.o 5-B (novo)

Texto da Comissão

Alteração

 

5-B.     Os responsáveis pela implantação de sistemas de IA de risco elevado que sejam autoridades públicas ou instituições, órgãos e organismos da União, referidos no artigo 51.o, n.o 1-A, alínea b), devem cumprir as obrigações de registo referidas no artigo 51.o.

Alteração 410

Proposta de regulamento

Artigo 29 — n.o 6

Texto da Comissão

Alteração

6.   Os utilizadores de sistemas de IA de risco elevado devem usar as informações recebidas nos termos do artigo 13.o para cumprirem a sua obrigação de realizar uma avaliação de impacto sobre a proteção de dados nos termos do artigo 35.o do Regulamento (UE) 2016/679 ou do artigo 27.o da Diretiva (UE) 2016/680, conforme aplicável .

6.    Se for caso disso, os responsáveis pela implantação de sistemas de IA de risco elevado devem usar as informações recebidas nos termos do artigo 13.o para cumprirem a sua obrigação de realizar uma avaliação de impacto sobre a proteção de dados nos termos do artigo 35.o do Regulamento (UE) 2016/679 ou do artigo 27.o da Diretiva (UE) 2016/680 , sendo publicado um resumo daquela, tendo em conta a utilização específica e o contexto específico em que o sistema de IA se destina a funcionar . Os responsáveis pela implantação podem voltar, em parte, a essas avaliações de impacto sobre a proteção de dados para cumprir algumas das obrigações estabelecidas no presente artigo, na medida em que a avaliação de impacto sobre a proteção de dados cumpra essas obrigações.

Alteração 411

Proposta de regulamento

Artigo 29 — n.o 6-A (novo)

Texto da Comissão

Alteração

 

6-A.     Sem prejuízo do artigo 52.o, os responsáveis pela implantação de sistemas de IA de risco elevado referidos no anexo III, que tomam decisões, ou ajudam a tomar decisões, relacionadas com pessoas singulares, devem informar as pessoas singulares de que estão sujeitas à utilização do sistema de IA de risco elevado. Esta informação deve incluir a finalidade prevista e o tipo de decisões que toma. O responsável pela implantação deve também informar a pessoa singular do seu direito à explicação a que se refere o artigo 68.o-C.

Alteração 412

Proposta de regulamento

Artigo 29 — n.o 6-B (novo)

Texto da Comissão

Alteração

 

6-B.     Os responsáveis pela implantação devem cooperar com as autoridades nacionais competentes em qualquer ação que estas autoridades tomem em relação a um sistema de IA de risco elevado, a fim de aplicar o presente regulamento.

Alteração 413

Proposta de regulamento

Artigo 29-A (novo)

Texto da Comissão

Alteração

 

Artigo 29.o-A

 

Avaliação de impacto dos sistemas de IA de risco elevado sobre os direitos fundamentais

 

Antes de utilizar um sistema de IA de risco elevado, na aceção do artigo 6.o, n.o 2, com exceção dos sistemas de IA concebidos para serem usados no domínio 2 do anexo III, os responsáveis pela implantação devem realizar uma avaliação de impacto dos sistemas no contexto específico da sua utilização. Esta avaliação deve incluir, pelo menos, os seguintes elementos:

 

a)

Uma indicação clara da finalidade a que se destina a utilização do sistema;

 

b)

Uma indicação clara do âmbito geográfico e temporal previsto para a utilização do sistema;

 

c)

As categorias de pessoas singulares e grupos suscetíveis de serem afetados pela utilização do sistema;

 

d)

A verificação de que a utilização do sistema está conforme a legislação da União e nacional pertinente em matéria de direitos fundamentais;

 

e)

O impacto razoavelmente previsível sobre os direitos fundamentais, resultante da utilização do sistema de IA de risco elevado;

 

f)

Os riscos específicos de danos suscetíveis de afetarem as pessoas marginalizadas ou os grupos vulneráveis;

 

g)

O impacto adverso razoavelmente previsível da utilização do sistema sobre o ambiente;

 

h)

Um plano pormenorizado sobre a forma como serão atenuados os danos ou o impacto negativo nos direitos fundamentais identificados.

 

j)

O sistema de governação que o responsável pela implantação instituirá, incluindo supervisão humana, tratamento de reclamações e vias de recurso.

 

2.     Se um plano pormenorizado para atenuar os riscos descritos no decurso da avaliação descrita no n.o 1 não for identificado, o responsável pela implantação deve abster-se de utilizar o sistema de IA de risco elevado e informar, sem demora injustificada, o fornecedor e a autoridade nacional de controlo. As autoridades nacionais de controlo, em conformidade com os artigos 65.o e 67.o, devem ter em conta esta informação quando da investigação de sistemas que apresentem um risco a nível nacional.

 

3.     A obrigação prevista no n.o 1 aplica-se à primeira utilização do sistema de IA de risco elevado. O responsável pela implantação pode, em casos semelhantes, recorrer à avaliação de impacto sobre os direitos fundamentais efetuada anteriormente ou à avaliação existente realizada pelos fornecedores. Se, durante a utilização do sistema de IA de risco elevado, o responsável pela implantação considerar que os critérios enumerados no n.o 1 deixaram de ser cumpridos, deve realizar uma nova avaliação de impacto sobre os direitos fundamentais.

 

4.     No decurso da avaliação de impacto, o responsável pela implantação, com exceção das PME, deve notificar as autoridades nacionais de controlo e as partes interessadas pertinentes, bem como envolver, tanto quanto possível, os representantes das pessoas ou grupos de pessoas previsivelmente afetadas pelo sistema de IA de risco elevado, tal como identificado no n.o 1, incluindo entre outros: organismos de promoção da igualdade, organismos de defesa do consumidor, parceiros sociais e organismos de proteção de dados, com vista a receber contributos para a avaliação de impacto. O responsável pela implantação deve conceder um período de seis semanas para os organismos responderem. As PME podem aplicar voluntariamente as disposições estabelecidas no presente número.

 

No caso referido no artigo 47.o, n.o 1, as autoridades públicas podem ser dispensadas destas obrigações.

 

5.     O responsável pela implantação que seja uma autoridade pública ou uma empresa, referidas no artigo 51.o, n.o 1-A, alínea b), deve publicar os resultados da avaliação de impacto como parte do registo de utilização, em conformidade com a sua obrigação prevista no artigo 51.o, n.o 2.

 

6.     Sempre que o responsável pela implantação já seja obrigado a proceder a uma avaliação de impacto sobre a proteção de dados nos termos do artigo 35.o do Regulamento (UE) 2016/679 ou do artigo 27.o da Diretiva (UE) 2016/680, a avaliação de impacto sobre os direitos fundamentais descrita no n.o 1 deve ser realizada em conjunto com a avaliação de impacto sobre a proteção de dados. A avaliação de impacto sobre a proteção de dados deve ser publicada como uma adenda.

Alteração 414

Proposta de regulamento

Artigo 30 — n.o 1

Texto da Comissão

Alteração

1.   Cada Estado-Membro deve designar ou criar uma autoridade notificadora responsável por estabelecer e executar os procedimentos necessários para a avaliação, a designação e a notificação de organismos de avaliação da conformidade e pela fiscalização destes.

1.   Cada Estado-Membro deve designar ou criar uma autoridade notificadora responsável por estabelecer e executar os procedimentos necessários para a avaliação, a designação e a notificação de organismos de avaliação da conformidade e pela fiscalização destes. Esses procedimentos devem ser desenvolvidos através da cooperação entre as autoridades notificadoras de todos os Estados-Membros.

Alteração 415

Proposta de regulamento

Artigo 30 — n.o 7

Texto da Comissão

Alteração

7.   As autoridades notificadoras devem dispor de recursos humanos com competência técnica em número suficiente para o correto exercício das suas funções.

7.   As autoridades notificadoras devem dispor de recursos humanos com competência técnica em número suficiente para o correto exercício das suas funções. Se for caso disso, o pessoal competente deve possuir os conhecimentos especializados necessários, nomeadamente um diploma num domínio jurídico adequado, sobre a supervisão dos direitos fundamentais consagrados na Carta dos Direitos Fundamentais da União Europeia.

Alteração 416

Proposta de regulamento

Artigo 30 — n.o 8

Texto da Comissão

Alteração

8.   As autoridades notificadoras devem certificar-se de que as avaliações da conformidade são realizadas de modo proporcionado, evitando encargos desnecessários para os fornecedores, e de que os organismos notificados executam as suas atividades tendo devidamente em conta a dimensão da empresa, o setor no qual opera, a sua estrutura e o grau de complexidade do sistema de IA em apreço.

8.   As autoridades notificadoras devem certificar-se de que as avaliações da conformidade são realizadas de modo proporcionado e atempado , evitando encargos desnecessários para os fornecedores, e de que os organismos notificados executam as suas atividades tendo devidamente em conta a dimensão da empresa, o setor no qual opera, a sua estrutura e o grau de complexidade do sistema de IA em apreço. Deve ser prestada especial atenção à redução dos encargos administrativos e dos custos de conformidade para as micro e pequenas empresas, na aceção do anexo da Recomendação 2003/361/CE da Comissão.

Alteração 417

Proposta de regulamento

Artigo 32 — n.o 1

Texto da Comissão

Alteração

1.   As autoridades notificadoras só podem notificar organismos de avaliação da conformidade que cumpram os requisitos previstos no artigo 33.o.

1.   As autoridades notificadoras só devem notificar organismos de avaliação da conformidade que cumpram os requisitos previstos no artigo 33.o.

Alteração 418

Proposta de regulamento

Artigo 32 — n.o 2

Texto da Comissão

Alteração

2.   As autoridades notificadoras devem notificar a Comissão e os restantes Estados-Membros utilizando um instrumento de notificação eletrónica criado e gerido pela Comissão.

2.   As autoridades notificadoras devem notificar a Comissão e os restantes Estados-Membros utilizando um instrumento de notificação eletrónica criado e gerido pela Comissão sobre cada organismo de avaliação da conformidade a que se refere o n.o 1 .

Alteração 419

Proposta de regulamento

Artigo 32 — n.o 3

Texto da Comissão

Alteração

3.   A notificação deve incluir dados completos das atividades de avaliação da conformidade, do módulo ou módulos de avaliação da conformidade e das tecnologias de inteligência artificial em questão.

3.   A notificação a que se refere o n.o 2 deve incluir dados completos das atividades de avaliação da conformidade, do módulo ou módulos de avaliação da conformidade e das tecnologias de inteligência artificial em questão , bem como a certificação de competência pertinente .

Alteração 420

Proposta de regulamento

Artigo 32 — n.o 4

Texto da Comissão

Alteração

4.   O organismo de avaliação da conformidade em causa apenas pode exercer as atividades de organismo notificado se nem a Comissão nem os restantes Estados-Membros tiverem levantado objeções no mês seguinte à notificação.

4.   O organismo de avaliação da conformidade em causa apenas pode exercer as atividades de organismo notificado se nem a Comissão nem os restantes Estados-Membros tiverem levantado objeções nas duas semanas seguintes à validação da notificação, se esta incluir o certificado de acreditação a que se refere o artigo 31.o, n.o 2, ou nos dois meses seguintes à notificação , se esta incluir as provas documentais a que se refere o artigo 31.o, n.o 3 .

Alteração 421

Proposta de regulamento

Artigo 32 — n.o 4-A (novo)

Texto da Comissão

Alteração

 

4-A.     Caso sejam levantadas objeções, a Comissão deve proceder, sem demora, a consultas com os Estados-Membros pertinentes e o organismo de avaliação da conformidade. Tendo em conta estas consultas, a Comissão decide se a autorização se justifica ou não. A Comissão deve comunicar a sua decisão ao Estado-Membro em causa e ao organismo de avaliação da conformidade pertinente.

Alteração 422

Proposta de regulamento

Artigo 32 — n.o 4-B (novo)

Texto da Comissão

Alteração

 

4-B.     Os Estados-Membros devem notificar a Comissão e os outros Estados-Membros dos organismos de avaliação da conformidade.

Alteração 423

Proposta de regulamento

Artigo 33 — n.o 2

Texto da Comissão

Alteração

2.   Os organismos notificados devem satisfazer os requisitos em termos de organização, gestão da qualidade, recursos e processos que sejam necessários para o exercício das suas tarefas.

2.   Os organismos notificados devem satisfazer os requisitos em termos de organização, gestão da qualidade, recursos e processos que sejam necessários para o exercício das suas tarefas , bem como os requisitos mínimos de cibersegurança estabelecidos para as entidades da administração pública identificadas como operadores de serviços essenciais nos termos da Diretiva (UE) 2022/2555 .

Alteração 424

Proposta de regulamento

Artigo 33 — n.o 4

Texto da Comissão

Alteração

4.   Os organismos notificados devem ser independentes do fornecedor de um sistema de IA de risco elevado relativamente ao qual realizam atividades de avaliação da conformidade. Os organismos notificados devem também ser independentes de qualquer outro operador que tenha um interesse económico no sistema de IA de risco elevado que é avaliado, bem como de quaisquer concorrentes do fornecedor.

4.   Os organismos notificados devem ser independentes do fornecedor de um sistema de IA de risco elevado relativamente ao qual realizam atividades de avaliação da conformidade. Os organismos notificados devem também ser independentes de qualquer outro operador que tenha um interesse económico no sistema de IA de risco elevado que é avaliado, bem como de quaisquer concorrentes do fornecedor. Esta exigência não impede a utilização de sistemas de IA avaliados que sejam necessários ao desempenho das atividades do organismo de avaliação da conformidade, nem a sua utilização para fins pessoais.

Alteração 425

Proposta de regulamento

Artigo 33 — n.o 4-A (novo)

Texto da Comissão

Alteração

 

4-A.     Uma avaliação da conformidade nos termos do n.o 1 deve ser realizada por funcionários de organismos notificados que não tenham prestado qualquer outro serviço relacionado com a questão avaliada, para além da avaliação da conformidade, ao fornecedor dum sistema de IA de risco elevado ou a qualquer pessoa coletiva ligada a esse fornecedor no período de 12 meses anterior à avaliação, e que se tenham comprometido a não lhes prestar tais serviços no período de 12 meses após a conclusão da avaliação.

Alteração 426

Proposta de regulamento

Artigo 33 — n.o 6

Texto da Comissão

Alteração

6.   Os organismos notificados devem dispor de procedimentos documentados que garantam que o seu pessoal, comités, filiais, subcontratantes e qualquer outro organismo associado ou pessoal de organismos externos respeitam a confidencialidade das informações de que tenham conhecimento durante a realização das atividades de avaliação da conformidade, salvo se a divulgação daquelas for exigida por lei. O pessoal dos organismos notificados deve estar sujeito ao sigilo profissional no que se refere a todas as informações que obtiver no exercício das suas funções no âmbito do presente regulamento, exceto em relação às autoridades notificadoras do Estado-Membro em que exerce as suas atividades.

6.   Os organismos notificados devem dispor de procedimentos documentados que garantam que o seu pessoal, comités, filiais, subcontratantes e qualquer outro organismo associado ou pessoal de organismos externos respeitam a confidencialidade das informações de que tenham conhecimento durante a realização das atividades de avaliação da conformidade, salvo se a divulgação daquelas for exigida por lei. O pessoal dos organismos notificados deve estar sujeito ao sigilo profissional no que se refere a todas as informações que obtiver no exercício das suas funções no âmbito do presente regulamento, exceto em relação às autoridades notificadoras do Estado-Membro em que exerce as suas atividades. Todas as informações e documentação que os organismos notificados obtenham nos termos das disposições do presente artigo devem ser tratadas em conformidade com as obrigações de confidencialidade estabelecidas no artigo 70.o.

Alteração 427

Proposta de regulamento

Artigo 34 — n.o 3

Texto da Comissão

Alteração

3.   As atividades só podem ser exercidas por um subcontratante ou por uma filial mediante acordo do fornecedor.

3.   As atividades só podem ser exercidas por um subcontratante ou por uma filial mediante acordo do fornecedor. Os organismos notificados devem disponibilizar ao público uma lista das suas filiais.

Alteração 428

Proposta de regulamento

Artigo 34 — n.o 4

Texto da Comissão

Alteração

4.   Os organismos notificados devem manter à disposição da autoridade notificadora os documentos necessários respeitantes à  avaliação das qualificações do subcontratante ou da filial e ao trabalho efetuado por estes nos termos do presente regulamento.

4.   Os organismos notificados devem manter à disposição da autoridade notificadora os documentos necessários respeitantes à  verificação das qualificações do subcontratante ou da filial e ao trabalho efetuado por estes nos termos do presente regulamento.

Alteração 429

Proposta de regulamento

Artigo 35 — título

Texto da Comissão

Alteração

Números de identificação e listas de organismos notificados designados nos termos do presente regulamento

Números de identificação e listas de organismos notificados

Alteração 430

Proposta de regulamento

Artigo 36 — n.o 1

Texto da Comissão

Alteração

1.   Caso uma autoridade notificadora suspeite ou seja informada de que um organismo notificado deixou de cumprir os requisitos estabelecidos no artigo 33.o, ou de que não cumpre as suas obrigações, deve imediatamente investigar a matéria com a máxima diligência. Neste contexto, deve informar o organismo notificado em causa sobre as objeções levantadas e dar-lhe a possibilidade de expressar as suas observações. Caso a autoridade notificadora conclua que o organismo notificado deixou de cumprir os requisitos estabelecidos no artigo 33.o, ou que não cumpre as suas obrigações, deve restringir, suspender ou retirar a notificação, consoante o caso, em função da gravidade do incumprimento. Deve ainda informar imediatamente a Comissão e os restantes Estados-Membros deste facto.

(Não se aplica à versão portuguesa.)

Alteração 431

Proposta de regulamento

Artigo 36 — n.o 2

Texto da Comissão

Alteração

2.   Em caso de restrição, suspensão ou retirada da notificação, ou caso o organismo notificado tenha cessado atividade, a autoridade notificadora deve tomar as medidas necessárias para assegurar que os processos desse organismo notificado são assumidos por outro organismo notificado ou mantidos à disposição das autoridades notificadoras competentes, se estas o solicitarem.

2.   Em caso de restrição, suspensão ou retirada da notificação, ou caso o organismo notificado tenha cessado atividade, a autoridade notificadora deve tomar as medidas necessárias para assegurar que os processos desse organismo notificado são assumidos por outro organismo notificado ou mantidos à disposição das autoridades notificadoras competentes e autoridades de fiscalização do mercado , se estas o solicitarem.

Alteração 432

Proposta de regulamento

Artigo 37 — n.o 1

Texto da Comissão

Alteração

1.   A Comissão investiga, sempre que necessário, todos os casos em que haja motivos para duvidar do cumprimento dos requisitos estabelecidos no artigo 33.o por parte de um organismo notificado.

1.   A Comissão investiga, sempre que necessário, todos os casos em que haja motivos para duvidar da competência de um organismo notificado ou do cumprimento continuado dos requisitos e responsabilidades aplicáveis por parte de um organismo notificado.

Alteração 433

Proposta de regulamento

Artigo 37 — n.o 2

Texto da Comissão

Alteração

2.   A autoridade notificadora deve facultar à Comissão, mediante pedido, todas as informações importantes relacionadas com a notificação do organismo notificado em causa.

2.   A autoridade notificadora deve facultar à Comissão, mediante pedido, todas as informações importantes relacionadas com a notificação ou a manutenção da competência do organismo notificado em causa.

Alteração 434

Proposta de regulamento

Artigo 37 — n.o 3

Texto da Comissão

Alteração

3.   A Comissão garante que todas as informações confidenciais obtidas no decurso das suas investigações nos termos do presente artigo são tratadas de forma confidencial.

3.   A Comissão garante que todas as informações sensíveis obtidas no decurso das suas investigações nos termos do presente artigo são tratadas de forma confidencial.

Alteração 435

Proposta de regulamento

Artigo 37 — n.o 4

Texto da Comissão

Alteração

4.   Caso verifique que um organismo notificado não cumpre ou deixou de cumprir os requisitos estabelecidos no artigo 33.o , a Comissão adota uma decisão fundamentada solicitando ao Estado-Membro notificador que tome as medidas corretivas necessárias, incluindo, se for caso disso, a retirada da notificação. O referido ato de execução é adotado de acordo com o procedimento de exame a que se refere o artigo 74.o, n.o 2.

4.   Caso verifique que um organismo notificado não cumpre ou deixou de cumprir os requisitos aplicáveis à sua notificação , a Comissão informa o Estado-Membro notificador do facto e solicita-lhe que tome as medidas corretivas necessárias, incluindo, se for caso disso, a  suspensão ou retirada da notificação. Se o Estado-Membro não tomar as medidas corretivas necessárias, a Comissão pode, por meio dum ato de execução, suspender, restringir ou retirar a designação. O referido ato de execução é adotado de acordo com o procedimento de exame a que se refere o artigo 74.o, n.o 2.

Alteração 436

Proposta de regulamento

Artigo 38 — n.o 2-A (novo)

Texto da Comissão

Alteração

 

2-A.     A Comissão deve proporcionar o intercâmbio de conhecimentos especializados e de boas práticas entre as autoridades nacionais dos Estados-Membros responsáveis pela política de notificação.

Alteração 437

Proposta de regulamento

Artigo 40 — n.o 1

Texto da Comissão

Alteração

Presume-se que os sistemas de IA de risco elevado que estão em conformidade com normas harmonizadas, ou com partes destas, cujas referências tenham sido publicadas no Jornal Oficial da União Europeia, são conformes com os requisitos estabelecidos no capítulo 2 do presente título, desde que tais normas abranjam esses requisitos.

Presume-se que os sistemas de IA de risco elevado e os modelos de base que estão em conformidade com normas harmonizadas, ou com partes destas, cujas referências tenham sido publicadas no Jornal Oficial da União Europeia , em conformidade com o Regulamento (UE) n.o 1025/2012 , são conformes com os requisitos estabelecidos no capítulo 2 do presente título ou no artigo 28.o-B , desde que tais normas abranjam esses requisitos.

Alteração 438

Proposta de regulamento

Artigo 40 — parágrafo 1-A (novo)

Texto da Comissão

Alteração

 

A Comissão deve emitir pedidos de normalização que abranjam todos os requisitos do presente regulamento, em conformidade com o artigo 10.o do Regulamento (UE) n.o 1025/2012, até… [dois meses após a entrada em vigor do presente regulamento]. Ao preparar o pedido de normalização, a Comissão deve consultar o Serviço IA e o fórum consultivo;

Alteração 439

Proposta de regulamento

Artigo 40 — parágrafo 1-B (novo)

Texto da Comissão

Alteração

 

Ao apresentar um pedido de normalização às organizações europeias de normalização, a Comissão especifica que as normas têm de ser coerentes, inclusivamente com o direito setorial enumerado no anexo II, e destinadas a assegurar que os sistemas de IA ou os modelos de base colocados no mercado ou colocados em serviço na União cumprem os requisitos pertinentes estabelecidos no presente regulamento;

Alteração 440

Proposta de regulamento

Artigo 40 — parágrafo 1-C (novo)

Texto da Comissão

Alteração

 

Os intervenientes no processo de normalização devem ter em conta os princípios gerais para uma IA fiável previstos no artigo 4.o, alínea a), procurar promover o investimento e a inovação na IA e também a competitividade e o crescimento do mercado da União, contribuir para reforçar a cooperação mundial em matéria de normalização — tendo em conta as normas internacionais existentes no domínio da IA que sejam coerentes com os valores, os direitos fundamentais e os interesses da União — e ainda assegurar uma representação equilibrada dos interesses e a participação efetiva de todas as partes interessadas pertinentes, em conformidade com os artigos 5.o, 6.o e 7.o do Regulamento (UE) n.o 1025/2012.

Alteração 441

Proposta de regulamento

Artigo 41 — parágrafo 1

Texto da Comissão

Alteração

1.     Na ausência das normas harmonizadas a que se refere o artigo 40.o ou caso a Comissão considere que as normas harmonizadas existentes são insuficientes ou que é necessário abordar preocupações específicas em termos de segurança ou direitos fundamentais, a Comissão pode, por meio de atos de execução, adotar especificações comuns relativas aos requisitos estabelecidos no capítulo 2 do presente título. Os referidos atos de execução são adotados de acordo com o procedimento de exame a que se refere o artigo 74.o, n.o 2.

Suprimido

Alteração 442

Proposta de regulamento

Artigo 41 — n.o 1-A (novo)

Texto da Comissão

Alteração

 

1-A.     A Comissão pode — por meio dum ato de execução adotado em conformidade com o procedimento de exame a que se refere o artigo 74.o, n.o 2, e após consulta do Serviço IA e do Fórum Consultivo para a Inteligência Artificial — adotar especificações comuns no que diz respeito aos requisitos estabelecidos no capítulo 2 do presente título ou no artigo 28.o-B, caso estejam preenchidas todas as condições seguintes:

 

a)

Não existe qualquer referência a normas harmonizadas já publicadas no Jornal Oficial da União Europeia e relacionadas com o(s) requisito(s) essencial(ais), a menos que a norma harmonizada em causa seja uma norma existente que tem de ser revista;

 

b)

A Comissão solicitou a uma ou mais organizações de normalização europeias a elaboração duma norma harmonizada relativa ao(s) requisito(s) essencial(ais) estabelecido(s) no capítulo 2;

 

c)

O pedido referido na alínea b) não foi aceite por nenhuma das organizações de normalização europeias ou há atrasos indevidos na elaboração duma norma harmonizada adequada ou a norma fornecida não satisfaz os requisitos da legislação aplicável da União ou não cumpre o pedido da Comissão.

Alteração 443

Proposta de regulamento

Artigo 41 — n.o 1-B (novo)

Texto da Comissão

Alteração

 

1-B.     Se a Comissão considerar que é necessário dar resposta a preocupações específicas em matéria de direitos fundamentais, as especificações comuns adotadas pela Comissão nos termos do n.o 1-A devem também abordar essas mesmas preocupações específicas.

Alteração 444

Proposta de regulamento

Artigo 41 — n.o 1-C (novo)

Texto da Comissão

Alteração

 

1-C.     A Comissão deve elaborar especificações comuns relativas à metodologia para cumprir o requisito de prestação de informações e de documentação sobre o consumo de energia e de recursos durante o desenvolvimento, a formação e a implantação do sistema de IA de risco elevado.

Alteração 445

Proposta de regulamento

Artigo 41 — parágrafo 2

Texto da Comissão

Alteração

2.   Ao preparar as especificações comuns a que se refere o n.o 1 , a Comissão recolhe as opiniões dos organismos ou grupos de peritos pertinentes criados nos termos do direito setorial da União aplicável.

2.   Ao longo de todo o processo de elaboração das especificações comuns a que se referem os n.os 1-A e 1-B , a Comissão consulta regularmente o Serviço IA e o fórum consultivo, as organizações de normalização europeias e os organismos ou grupos de peritos criados nos termos do direito setorial da União aplicável , bem como outras partes interessadas pertinentes. A Comissão deve cumprir os objetivos referidos no artigo 40.o, n.o 1-C, e justificar devidamente as razões pelas quais decidiu recorrer a especificações comuns.

 

Caso a Comissão tencione adotar especificações comuns nos termos do n.o 1-A do presente artigo, deve também identificar claramente a preocupação específica em matéria de direitos fundamentais a abordar.

 

Ao adotar especificações comuns nos termos dos n.os 1-A e 1-B do presente artigo, a Comissão tem em conta o parecer emitido pelo Serviço IA a que se refere o artigo 56.o-E, alínea b), do presente regulamento. Se a Comissão decidir não seguir o parecer do Serviço IA, deve apresentar a este uma explicação fundamentada.

Alteração 446

Proposta de regulamento

Artigo 41 — n.o 3

Texto da Comissão

Alteração

3.   Presume-se que os sistemas de IA de risco elevado que estão em conformidade com as especificações comuns a que se refere o n.o 1 são conformes com os requisitos estabelecidos no capítulo 2 do presente título, desde que tais especificações comuns abranjam esses requisitos.

3.   Presume-se que os sistemas de IA de risco elevado que estão em conformidade com as especificações comuns a que se referem os n.os 1-A e 1-B são conformes com os requisitos estabelecidos no capítulo 2 do presente título, desde que tais especificações comuns abranjam esses requisitos.

Alteração 447

Proposta de regulamento

Artigo 41 — n.o 3-A (novo)

Texto da Comissão

Alteração

 

3-A.     Sempre que uma norma harmonizada seja adotada por uma organização de normalização europeia e a publicação da sua referência no Jornal Oficial da União Europeia seja proposta à Comissão, esta última deve avaliar a norma harmonizada nos termos do Regulamento (UE) n.o 1025/2012. Quando a referência a uma norma harmonizada é publicada no Jornal Oficial da União Europeia, a Comissão revoga os atos referidos nos n.os 1 e 1-B, ou partes dos mesmos que abranjam os mesmos requisitos estabelecidos no capítulo 2 do presente título.

Alteração 448

Proposta de regulamento

Artigo 41 — n.o 4

Texto da Comissão

Alteração

4.   Os fornecedores que não cumprirem as especificações comuns a que se refere o n.o 1 devem justificar devidamente que adotaram soluções técnicas, no mínimo, equivalentes .

4.   Os fornecedores de sistemas de IA de risco elevado que não cumprirem as especificações comuns a que se refere o n.o 1 devem justificar devidamente que adotaram soluções técnicas que cumprem os requisitos referidos no capítulo 2 a um nível , no mínimo, equivalente .

Alteração 449

Proposta de regulamento

Artigo 42 — parágrafo 1

Texto da Comissão

Alteração

1.   Tendo em conta a sua finalidade prevista, presume-se que os sistemas de IA de risco elevado que foram treinados e testados com recurso a dados relativos ao enquadramento geográfico, comportamental e funcional específico no qual se destinam a ser utilizados são conformes com o requisito estabelecido no artigo 10.o, n.o 4.

1.   Tendo em conta a sua finalidade prevista, presume-se que os sistemas de IA de risco elevado que foram treinados e testados com recurso a dados relativos ao enquadramento geográfico, comportamental , contextual e funcional específico no qual se destinam a ser utilizados são conformes com os requisitos respetivos estabelecidos no artigo 10.o, n.o 4.

Alteração 450

Proposta de regulamento

Artigo 43 — n.o 1 — parte introdutória

Texto da Comissão

Alteração

1.   No respeitante aos sistemas de IA de risco elevado enumerados no anexo III, ponto 1, quando, ao demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título, o fornecedor tiver aplicado normas harmonizadas a que se refere o artigo 40.o, ou, se for caso disso, especificações comuns a que se refere o artigo 41.o, o fornecedor deve seguir um dos seguintes procedimentos:

1.   No respeitante aos sistemas de IA de risco elevado enumerados no anexo III, ponto 1, quando, ao demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título, o fornecedor tiver aplicado normas harmonizadas a que se refere o artigo 40.o, ou, se for caso disso, especificações comuns a que se refere o artigo 41.o, o fornecedor deve optar por um dos seguintes procedimentos:

Alteração 451

Proposta de regulamento

Artigo 43 — n.o 1 — alínea a)

Texto da Comissão

Alteração

a)

O procedimento de avaliação da conformidade baseado no controlo interno a que se refere o anexo VI;

a)

O procedimento de avaliação da conformidade baseado no controlo interno a que se refere o anexo VI; ou

Alteração 452

Proposta de regulamento

Artigo 43 — parágrafo 1 — alínea b)

Texto da Comissão

Alteração

b)

O procedimento de avaliação da conformidade baseado na avaliação do sistema de gestão da qualidade e na avaliação da documentação técnica, com a participação de um organismo notificado, a que se refere o anexo VII.

b)

O procedimento de avaliação da conformidade baseado na avaliação do sistema de gestão da qualidade da documentação técnica, com a participação de um organismo notificado, a que se refere o anexo VII.

Alteração 453

Proposta de regulamento

Artigo 43 — n.o 1 — parágrafo 1

Texto da Comissão

Alteração

Quando, ao demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título, o fornecedor não tiver aplicado ou tiver aplicado apenas parcialmente normas harmonizadas a que se refere o artigo 40.o , ou se tais normas harmonizadas não existirem e as especificações comuns a que se refere o artigo 41.o não estiverem disponíveis, o fornecedor deve seguir o procedimento de avaliação da conformidade preconizado no anexo VII .

Ao demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título, o fornecedor deve seguir o procedimento de avaliação da conformidade preconizado no anexo VII nos seguintes casos:

 

a)

Quando não existirem as normas harmonizadas a que se refere o artigo 40.o – cujos números de referência tenham sido publicados no Jornal Oficial da União Europeia — que prevejam todos os requisitos de segurança aplicáveis ao sistema de IA e as especificações comuns a que se refere o artigo 41.o não estiverem disponíveis;

 

b)

Quando as especificações técnicas referidas na alínea a) existirem, mas o fornecedor não as tiver aplicado ou tiver aplicado apenas parcialmente;

 

c)

Quando uma ou mais das especificações técnicas referidas na alínea a) tiverem sido publicadas com restrições e apenas na parte da norma que foi objeto da restrição;

 

d)

Quando o fornecedor considerar que a natureza, o projeto, a construção ou a finalidade do sistema de IA necessitam de verificação por terceiros, independentemente do seu nível de risco .

Alteração 454

Proposta de regulamento

Artigo 43 — n.o 1 — parágrafo 2

Texto da Comissão

Alteração

Para efeitos do procedimento de avaliação da conformidade a que se refere o anexo VII, o fornecedor pode escolher qualquer um dos organismos notificados. Contudo, se o sistema se destinar a ser colocado em serviço por autoridades competentes em matéria de manutenção da ordem pública, imigração ou asilo, bem como por instituições, órgãos e organismos da UE, a autoridade de fiscalização do mercado a que se refere o artigo 63.o, n.os 5 ou 6, consoante o caso, deve atuar como um organismo notificado.

Para efeitos da realização do procedimento de avaliação da conformidade a que se refere o anexo VII, o fornecedor pode escolher qualquer um dos organismos notificados. Contudo, se o sistema se destinar a ser colocado em serviço por autoridades competentes em matéria de manutenção da ordem pública, imigração ou asilo, bem como por instituições, órgãos e organismos da UE, a autoridade de fiscalização do mercado a que se refere o artigo 63.o, n.os 5 ou 6, consoante o caso, deve atuar como um organismo notificado.

Alteração 455

Proposta de regulamento

Artigo 43 — n.o 4 — parte introdutória

Texto da Comissão

Alteração

4.   Os sistemas de IA de risco elevado devem ser sujeitos a um novo procedimento de avaliação da conformidade sempre que forem substancialmente modificados, independentemente de o sistema modificado se destinar a distribuição ulterior ou continuar a ser usado pelo utilizador atual.

4.   Os sistemas de IA de risco elevado que já tenham sido sujeitos a um procedimento de avaliação da conformidade devem ser sujeitos a um novo procedimento de avaliação da conformidade sempre que forem substancialmente modificados, independentemente de o sistema modificado se destinar a distribuição ulterior ou continuar a ser usado pelo responsável pela implantação atual.

Alteração 456

Proposta de regulamento

Artigo 43 — n.o 4-A (novo)

Texto da Comissão

Alteração

 

4-A.     Os interesses e as necessidades específicas das PME devem ser tidas em conta aquando da fixação das taxas a pagar pela avaliação da conformidade de terceiros nos termos do presente artigo, reduzindo essas taxas proporcionalmente à sua dimensão e à quota de mercado.

Alteração 457

Proposta de regulamento

Artigo 43 — n.o 5

Texto da Comissão

Alteração

5.   A Comissão fica habilitada a adotar atos delegados nos termos do artigo 73.o para atualizar os anexos VI e VII, a fim de introduzir elementos dos procedimentos de avaliação da conformidade que se tornem necessários à luz da evolução técnica.

5.   A Comissão fica habilitada a adotar atos delegados nos termos do artigo 73.o para atualizar os anexos VI e VII, a fim de introduzir elementos dos procedimentos de avaliação da conformidade que se tornem necessários à luz da evolução técnica. Ao preparar esses atos delegados, a Comissão deve consultar o Serviço IA e as partes interessadas afetadas.

Alteração 458

Proposta de regulamento

Artigo 43 — n.o 6

Texto da Comissão

Alteração

6.   A Comissão fica habilitada a adotar atos delegados para alterar os n.os 1 e 2, a fim de sujeitar os sistemas de IA de risco elevado referidos no anexo III, pontos 2 a 8, ao procedimento de avaliação da conformidade referido no anexo VII ou a partes daquele. A Comissão adota esses atos delegados tendo em conta a eficácia do procedimento de avaliação da conformidade baseado no controlo interno a que se refere o anexo VI na prevenção ou minimização dos riscos para a saúde e a segurança e a proteção dos direitos fundamentais representados por esses sistemas, bem como a disponibilidade de capacidades e recursos adequados entre os organismos notificados.

6.   A Comissão fica habilitada a adotar atos delegados para alterar os n.os 1 e 2, a fim de sujeitar os sistemas de IA de risco elevado referidos no anexo III, pontos 2 a 8, ao procedimento de avaliação da conformidade referido no anexo VII ou a partes daquele. A Comissão adota esses atos delegados tendo em conta a eficácia do procedimento de avaliação da conformidade baseado no controlo interno a que se refere o anexo VI na prevenção ou minimização dos riscos para a saúde e a segurança e a proteção dos direitos fundamentais representados por esses sistemas, bem como a disponibilidade de capacidades e recursos adequados entre os organismos notificados. Ao preparar esses atos delegados, a Comissão deve consultar o Serviço IA e as partes interessadas afetadas.

Alteração 459

Proposta de regulamento

Artigo 44 — n.o 1

Texto da Comissão

Alteração

1.   Os certificados emitidos por organismos notificados nos termos do anexo VII devem ser redigidos numa língua oficial da União determinada pelo Estado-Membro em que estiver estabelecido o organismo notificado ou numa outra língua oficial da União aceite pelo organismo notificado.

1.   Os certificados emitidos por organismos notificados nos termos do anexo VII devem ser redigidos numa ou várias línguas oficiais da União determinadas pelo Estado-Membro em que estiver estabelecido o organismo notificado ou numa ou várias línguas oficiais da União aceites pelo organismo notificado.

Alteração 460

Proposta de regulamento

Artigo 44 — n.o 2

Texto da Comissão

Alteração

2.   Os certificados são válidos pelo período neles indicado, que não pode exceder cinco anos. A pedido do fornecedor, a validade de um certificado pode ser prorrogada por novos períodos não superiores a  cinco anos, com base numa reavaliação segundo os procedimentos de avaliação da conformidade aplicáveis.

2.   Os certificados são válidos pelo período neles indicado, que não pode exceder quatro anos. A pedido do fornecedor, a validade de um certificado pode ser prorrogada por novos períodos não superiores a  quatro anos, com base numa reavaliação segundo os procedimentos de avaliação da conformidade aplicáveis.

Alteração 461

Proposta de regulamento

Artigo 44 — n.o 3

Texto da Comissão

Alteração

3.   Se verificar que um sistema de IA deixou de cumprir os requisitos estabelecidos no capítulo 2 do presente título, o organismo notificado deve suspender, retirar ou restringir o certificado emitido, tendo em conta o princípio da proporcionalidade, a não ser que o fornecedor do sistema garanta o cumprimento desses requisitos tomando as medidas corretivas necessárias num prazo adequado estabelecido pelo organismo notificado. O organismo notificado deve fundamentar a sua decisão.

3.   Se verificar que um sistema de IA deixou de cumprir os requisitos estabelecidos no capítulo 2 do presente título, o organismo notificado deve suspender, retirar ou restringir o certificado emitido, a não ser que o fornecedor do sistema garanta o cumprimento desses requisitos tomando as medidas corretivas necessárias num prazo adequado estabelecido pelo organismo notificado. O organismo notificado deve fundamentar a sua decisão.

Alteração 462

Proposta de regulamento

Artigo 45 — n.o 1

Texto da Comissão

Alteração

Os Estados-Membros devem assegurar a disponibilidade de um procedimento de recurso das decisões às partes com um interesse legítimo nessa decisão.

Os Estados-Membros devem assegurar a disponibilidade de um procedimento de recurso das decisões , nomeadamente as respeitantes a certificados de conformidade, às partes com um interesse legítimo nessa decisão.

Alteração 463

Proposta de regulamento

Artigo 46 — n.o 3

Texto da Comissão

Alteração

3.   Cada organismo notificado deve disponibilizar aos outros organismos notificados que realizam atividades de avaliação da conformidade semelhantes , abrangendo as mesmas tecnologias de inteligência artificial, informações importantes sobre questões relativas aos resultados negativos e, se lhe for pedido, aos resultados positivos de procedimentos de avaliação da conformidade.

3.   Cada organismo notificado deve disponibilizar aos outros organismos notificados que realizam atividades de avaliação da conformidade semelhantes informações importantes sobre questões relativas aos resultados negativos e, se lhe for pedido, aos resultados positivos de procedimentos de avaliação da conformidade.

Alteração 464

Proposta de regulamento

Artigo 47 — n.o 1

Texto da Comissão

Alteração

1.   Em derrogação do artigo 43.o, qualquer autoridade de fiscalização do mercado pode autorizar a colocação no mercado ou a colocação em serviço de determinados sistemas de IA de risco elevado no território do Estado-Membro em causa, por motivos excecionais de segurança pública ou de proteção da vida e da saúde das pessoas, de proteção do ambiente e de proteção de ativos industriais e infraestruturas essenciais . Essa autorização deve ser concedida por um período limitado, enquanto os procedimentos de avaliação da conformidade necessários estiverem a ser executados, e cessa assim que esses procedimentos tiverem sido concluídos. A conclusão desses procedimentos deve ser realizada sem demora injustificada.

1.   Em derrogação do artigo 43.o, qualquer autoridade nacional de controlo pode pedir a uma autoridade judicial para autorizar a colocação no mercado ou a colocação em serviço de determinados sistemas de IA de risco elevado no território do Estado-Membro em causa, por motivos excecionais de proteção da vida e da saúde das pessoas, de proteção do ambiente e de proteção de infraestruturas críticas . Essa autorização deve ser concedida por um período limitado, enquanto os procedimentos de avaliação da conformidade necessários estiverem a ser executados, e cessa assim que esses procedimentos tiverem sido concluídos. A conclusão desses procedimentos deve ser realizada sem demora injustificada.

Alteração 465

Proposta de regulamento

Artigo 47 — n.o 2

Texto da Comissão

Alteração

2.   A autorização a que se refere o n.o 1 apenas deve ser concedida se a autoridade de fiscalização do mercado concluir que o sistema de IA de risco elevado cumpre os requisitos do capítulo 2 do presente título. A autoridade de fiscalização do mercado deve informar a Comissão e os outros Estados-Membros sobre qualquer autorização concedida nos termos do n.o 1.

2.   A autorização a que se refere o n.o 1 apenas deve ser concedida se a autoridade nacional de controlo e a autoridade judicial concluírem que o sistema de IA de risco elevado cumpre os requisitos do capítulo 2 do presente título. A autoridade nacional de controlo deve informar a Comissão , o Serviço IA e os outros Estados-Membros sobre qualquer pedido apresentado e qualquer autorização concedida nos termos do n.o 1.

Alteração 466

Proposta de regulamento

Artigo 47 — n.o 3

Texto da Comissão

Alteração

3.   Se, no prazo de 15 dias a contar da receção da informação a que se refere o n.o 2, nem os Estados-Membros nem a Comissão tiverem levantado objeções a uma autorização concedida por uma autoridade de fiscalização do mercado de um Estado-Membro em conformidade com o n.o 1, considera-se que a mesma é justificada.

3.   Se, no prazo de 15 dias a contar da receção da informação a que se refere o n.o 2, nem os Estados-Membros nem a Comissão tiverem levantado objeções a  um pedido da autoridade nacional de controlo de uma autorização concedida por uma autoridade nacional de controlo de um Estado-Membro em conformidade com o n.o 1, considera-se que a mesma é justificada.

Alteração 467

Proposta de regulamento

Artigo 47 — n.o 4

Texto da Comissão

Alteração

4.   Se, nos 15 dias subsequentes à receção da notificação a que se refere o n.o 2, um Estado-Membro levantar objeções a  uma autorização concedida por uma autoridade de fiscalização do mercado de outro Estado-Membro, ou se a Comissão considerar que a autorização é contrária ao direito da União ou que a conclusão dos Estados-Membros relativa à conformidade do sistema a que se refere o n.o 2 é infundada, a Comissão procede sem demora a consultas com o Estado-Membro em causa. Os operadores em questão devem ser consultados e ter a possibilidade de apresentar as suas observações. Tendo em conta essas observações, a Comissão decide se a autorização se justifica ou não. A Comissão designa o Estado-Membro e o operador ou operadores em causa como destinatários da decisão.

4.   Se, nos 15 dias subsequentes à receção da notificação a que se refere o n.o 2, um Estado-Membro levantar objeções a  um pedido duma autoridade nacional de controlo de outro Estado-Membro, ou se a Comissão considerar que a autorização é contrária ao direito da União ou que a conclusão dos Estados-Membros relativa à conformidade do sistema a que se refere o n.o 2 é infundada, a Comissão procede sem demora a consultas com o Estado-Membro em causa e o Serviço IA . Os operadores em questão devem ser consultados e ter a possibilidade de apresentar as suas observações. Tendo em conta essas observações, a Comissão decide se a autorização se justifica ou não. A Comissão designa o Estado-Membro e o operador ou operadores em causa como destinatários da decisão.

Alteração 468

Proposta de regulamento

Artigo 47 — n.o 5

Texto da Comissão

Alteração

5.   Se a autorização for considerada injustificada, a autoridade de fiscalização do mercado do Estado-Membro em causa deve retirá-la.

5.   Se a autorização for considerada injustificada, a autoridade nacional de controlo do Estado-Membro em causa deve retirá-la.

Alteração 469

Proposta de regulamento

Artigo 48 — n.o 1

Texto da Comissão

Alteração

1.   O fornecedor deve elaborar uma declaração de conformidade UE escrita para cada sistema de IA e mantê-la à disposição das autoridades nacionais competentes por um período de dez anos a contar da data de colocação no mercado ou colocação em serviço do sistema de IA. A declaração de conformidade UE deve especificar o sistema de IA para o qual foi elaborada. Deve ser fornecida uma cópia da declaração de conformidade UE às autoridades nacionais competentes , mediante pedido.

1.   O fornecedor deve elaborar uma declaração de conformidade UE escrita , legível por máquina, física ou eletrónica, para cada sistema de IA de risco elevado e mantê-la à disposição da autoridade nacional de controlo e das autoridades nacionais competentes por um período de dez anos a contar da data de colocação no mercado ou colocação em serviço do sistema de IA de risco elevado . Deve ser apresentada uma cópia da declaração de conformidade UE à autoridade nacional de controlo , mediante pedido.

Alteração 470

Proposta de regulamento

Artigo 48 — n.o 2

Texto da Comissão

Alteração

2.   A declaração de conformidade UE deve mencionar que o sistema de IA de risco elevado em questão cumpre os requisitos estabelecidos no capítulo 2 do presente título. A declaração de conformidade UE deve conter as informações indicadas no anexo V e ser traduzida para uma ou várias línguas oficiais da União exigidas pelos Estados-Membros em que o sistema de IA de risco elevado é disponibilizado.

2.   A declaração de conformidade UE deve mencionar que o sistema de IA de risco elevado em questão cumpre os requisitos estabelecidos no capítulo 2 do presente título. A declaração de conformidade UE deve conter as informações indicadas no anexo V e ser traduzida para uma ou várias línguas oficiais da União exigidas pelos Estados-Membros em que o sistema de IA de risco elevado é  colocado no mercado ou disponibilizado.

Alteração 471

Proposta de regulamento

Artigo 48 — n.o 3

Texto da Comissão

Alteração

3.   Se os sistemas de IA de risco elevado estiverem sujeitos a outra legislação de harmonização da União que também exija uma declaração de conformidade UE, deve ser elaborada uma única declaração de conformidade UE respeitante a todos os atos jurídicos da UE aplicáveis ao sistema de IA de risco elevado. A declaração deve incluir todas as informações necessárias para identificar a legislação de harmonização da União a que diz respeito.

3.   Se os sistemas de IA de risco elevado estiverem sujeitos a outra legislação de harmonização da União que também exija uma declaração de conformidade UE, pode ser elaborada uma única declaração de conformidade UE respeitante a todos os atos jurídicos da UE aplicáveis ao sistema de IA de risco elevado. A declaração deve incluir todas as informações necessárias para identificar a legislação de harmonização da União a que diz respeito.

Alteração 472

Proposta de regulamento

Artigo 48 — n.o 5

Texto da Comissão

Alteração

5.   A Comissão fica habilitada a adotar atos delegados nos termos do artigo 73.o para atualizar o conteúdo da declaração de conformidade UE preconizado no anexo V, a fim de introduzir elementos que se tornem necessários à luz da evolução técnica.

5.    Após consultar o Serviço IA, a Comissão fica habilitada a adotar atos delegados nos termos do artigo 73.o para atualizar o conteúdo da declaração de conformidade UE preconizado no anexo V, a fim de introduzir elementos que se tornem necessários à luz da evolução técnica.

Alteração 473

Proposta de regulamento

Artigo 49 — parágrafo 1

Texto da Comissão

Alteração

1.   A marcação CE deve ser aposta de modo visível, legível e indelével em sistemas de IA de risco elevado. Caso a natureza do sistema de IA de risco elevado não permita ou não garanta essas características da marcação, esta deve ser aposta na embalagem ou na documentação que acompanha o sistema, conforme mais adequado.

1.   A marcação CE física deve ser aposta de modo visível, legível e indelével em sistemas de IA de risco elevado antes de este sistema ser colocado no mercado . Caso a natureza do sistema de IA de risco elevado não permita ou não garanta essas características da marcação, esta deve ser aposta na embalagem ou na documentação que acompanha o sistema, conforme mais adequado. Pode ser seguida de um pictograma ou de qualquer outra marcação indicando um risco de utilização especial.

Alteração 474

Proposta de regulamento

Artigo 49 — n.o 1-A (novo)

Texto da Comissão

Alteração

 

1-A.     No caso dos sistemas unicamente digitais de IA de risco elevado, deve ser utilizada uma marcação CE digital apenas se for possível aceder-lhe facilmente através da interface a partir da qual se acede ao sistema de IA ou através dum código legível por máquina facilmente acessível ou por outros meios eletrónicos.

Alteração 475

Proposta de regulamento

Artigo 49 — n.o 3

Texto da Comissão

Alteração

3.   Quando aplicável, a marcação CE deve ser seguida pelo número de identificação do organismo notificado responsável pelos procedimentos de avaliação da conformidade estabelecidos no artigo 43.o. O número de identificação deve ser igualmente indicado em qualquer material promocional que mencione que o sistema de IA de risco elevado cumpre os requisitos aplicáveis à marcação CE.

3.   Quando aplicável, a marcação CE deve ser seguida pelo número de identificação do organismo notificado responsável pelos procedimentos de avaliação da conformidade estabelecidos no artigo 43.o. O número de identificação do organismo notificado deve ser aposto pelo próprio organismo ou, segundo as suas instruções, pelo mandatário do fornecedor. O número de identificação deve ser igualmente indicado em qualquer material promocional que mencione que o sistema de IA de risco elevado cumpre os requisitos aplicáveis à marcação CE.

Alteração 476

Proposta de regulamento

Artigo 49 — n.o 3-A (novo)

Texto da Comissão

Alteração

 

3-A.     Caso os sistemas de IA de risco elevado sejam objeto de outra legislação da União que também preveja a aposição da marcação CE, essa marcação indica que os sistemas de IA de risco elevado cumprem igualmente os requisitos dessa outra legislação.

Alteração 477

Proposta de regulamento

Artigo 50 — parágrafo 1 — parte introdutória

Texto da Comissão

Alteração

O fornecedor deve manter à disposição das autoridades nacionais competentes, durante os dez anos subsequentes à data de colocação no mercado ou de colocação em serviço do sistema de IA:

O fornecedor deve manter à disposição da autoridade nacional de controlo e das autoridades nacionais competentes, durante os dez anos subsequentes à data de colocação no mercado ou de colocação em serviço do sistema de IA:

Alteração 478

Proposta de regulamento

Artigo 51 — parágrafo 1

Texto da Comissão

Alteração

Antes da colocação no mercado ou da colocação em serviço de um sistema de IA de risco elevado referido no artigo 6.o, n.o 2, o fornecedor ou, se for caso disso, o mandatário deve registar esse sistema na base de dados da UE a que se refere o artigo 60.o.

Antes da colocação no mercado ou da colocação em serviço de um sistema de IA de risco elevado referido no artigo 6.o, n.o 2, o fornecedor ou, se for caso disso, o mandatário deve registar esse sistema na base de dados da UE a que se refere o artigo 60.o , em conformidade com o artigo 60.o, n.o 2 .

Alteração 479

Proposta de regulamento

Artigo 51 — n.o 1-A (novo)

Texto da Comissão

Alteração

 

Antes da colocação em serviço ou da utilização dum sistema de IA de risco elevado, em conformidade com o artigo 6.o, n.o 2, os responsáveis pela implantação das seguintes categorias devem registar a utilização desse sistema de IA na base de dados da UE a que se refere o artigo 60.o:

 

a)

Os responsáveis pela implantação que sejam autoridades públicas ou instituições, órgãos, organismos ou agências da União ou os responsáveis pela implantação que atuem em seu nome;

 

b)

Os responsáveis pela implantação que sejam empresas designadas como controladores de acesso ao abrigo do Regulamento (UE) 2022/1925.

Alteração 480

Proposta de regulamento

Artigo 51 — parágrafo 1-B (novo)

Texto da Comissão

Alteração

 

Os responsáveis pela implantação que não sejam abrangidos pelo n.o 1-A têm o direito de registar voluntariamente a utilização dum sistema de IA de risco elevado a que se refere o artigo 6.o, n.o 2, na base de dados da UE a que se refere o artigo 60.o.

Alteração 481

Proposta de regulamento

Artigo 51 — n.o 1-C (novo)

Texto da Comissão

Alteração

 

É imperativo preencher uma entrada de registo atualizada imediatamente após cada alteração substancial.

Alteração 482

Proposta de regulamento

Título IV

Texto da Comissão

Alteração

OBRIGAÇÕES DE TRANSPARÊNCIA APLICÁVEIS A DETERMINADOS SISTEMAS DE INTELIGÊNCIA ARTIFICIAL

OBRIGAÇÕES DE TRANSPARÊNCIA

Alteração 483

Proposta de regulamento

Artigo 52 — título

Texto da Comissão

Alteração

Obrigações de transparência aplicáveis a determinados sistemas de inteligência artificial

Obrigações de transparência

Alteração 484

Proposta de regulamento

Artigo 52 — n.o 1

Texto da Comissão

Alteração

1.   Os fornecedores devem assegurar que os sistemas de IA destinados a interagir com pessoas singulares sejam concebidos e desenvolvidos de maneira que as pessoas singulares sejam informadas de que estão a interagir com um sistema de IA, salvo se tal se revelar óbvio dadas as circunstâncias e o contexto de utilização. Esta obrigação não se aplica a sistemas de IA legalmente autorizados para detetar, prevenir, investigar e reprimir infrações penais, salvo se esses sistemas estiverem disponíveis ao público para denunciar uma infração penal.

1.   Os fornecedores devem assegurar que os sistemas de IA destinados a interagir com pessoas singulares sejam concebidos e desenvolvidos de maneira que o sistema de IA, o próprio fornecedor ou o utilizador informem — duma forma atempada, clara e compreensível — a pessoa singular exposta a um sistema de IA de que está a interagir com um sistema de IA, salvo se tal se revelar óbvio dadas as circunstâncias e o contexto de utilização.

 

Se adequado e pertinente, estas informações devem também incluir dados sobre as funções que são ativadas pela IA, a eventual supervisão humana e a responsabilidade pelo processo de tomada de decisão, bem como os direitos e processos existentes que, de acordo com o direito da União e o direito nacional, permitem que as pessoas singulares ou os seus representantes se oponham à aplicação de tais sistemas e procurem obter reparação judicial contra as decisões tomadas ou os danos causados por sistemas de IA, incluindo o seu direito de solicitar uma explicação. Esta obrigação não se aplica a sistemas de IA legalmente autorizados para detetar, prevenir, investigar e reprimir infrações penais, salvo se esses sistemas estiverem disponíveis ao público para denunciar uma infração penal.

Alteração 485

Proposta de regulamento

Artigo 52 — n.o 2

Texto da Comissão

Alteração

2.   Os utilizadores de um sistema de reconhecimento de emoções ou de um sistema de categorização biométrica devem informar sobre o funcionamento do sistema as pessoas a ele expostas. Esta obrigação não se aplica a sistemas de IA usados para categorização biométrica que sejam legalmente autorizados para detetar, prevenir e investigar infrações penais.

2.   Os utilizadores de um sistema de reconhecimento de emoções ou de um sistema de categorização biométrica que não seja proibido nos termos do artigo 5.o devem apresentar — de forma atempada, clara e compreensível — informações sobre o funcionamento do sistema às pessoas a ele expostas e devem obter o seu consentimento prévio para o tratamento dos respetivos dados biométricos ou outros dados pessoais, em conformidade com o Regulamento (UE) 2016/679, o Regulamento (UE) 2016/1725 e a Diretiva (UE) 2016/280, consoante aplicável . Esta obrigação não se aplica a sistemas de IA usados para categorização biométrica que sejam legalmente autorizados para detetar, prevenir e investigar infrações penais.

Alteração 486

Proposta de regulamento

Artigo 52 — n.o 3 — parágrafo 1

Texto da Comissão

Alteração

3.   Os utilizadores de um sistema de IA que gera ou manipula conteúdos de imagem , áudio ou vídeo que sejam consideravelmente semelhantes a pessoas, objetos, locais ou outras entidades ou acontecimentos reais e que, falsamente, pareçam ser autênticos e verdadeiros a uma pessoa («falsificação profunda») devem divulgar que o conteúdo foi gerado ou manipulado artificialmente.

3.   Os utilizadores de um sistema de IA que gera ou manipula conteúdos de texto , áudio ou visual que, falsamente, pareçam ser autênticos e verdadeiros e que apresentam representações de pessoas que parecem dizer ou fazem coisas que não disseram ou fizeram , sem o seu consentimento («falsificação profunda») devem divulgar – de forma adequada, atempada, clara e visível – que o conteúdo foi gerado ou manipulado artificialmente e, sempre que possível, o nome da pessoa singular ou coletiva que o gerou ou manipulou . Por divulgação, entende-se a rotulagem do conteúdo, de uma forma claramente visível para o seu destinatário, informando que este não é autêntico. Para rotular o conteúdo, os utilizadores devem ter em conta o estado da técnica geralmente reconhecido e as normas harmonizadas e especificações pertinentes.

Alteração 487

Proposta de regulamento

Artigo 52 — n.o 3 — parágrafo 2

Texto da Comissão

Alteração

Contudo, primeiro parágrafo não se aplica se a utilização for legalmente autorizada para detetar, prevenir, investigar e reprimir infrações penais ou for necessária para exercer o direito à liberdade de expressão e o direito à liberdade das artes e das ciências consagrados na Carta dos Direitos Fundamentais da UE, desde que salvaguarde adequadamente os direitos e as liberdades de terceiros.

3-A.    O no 3 não se aplica se a utilização de um sistema de IA que gera ou manipula texto, conteúdos áudio ou visuais for legalmente autorizada ou for necessária para exercer o direito à liberdade de expressão e o direito à liberdade das artes e das ciências consagrados na Carta dos Direitos Fundamentais da UE, desde que salvaguarde adequadamente os direitos e as liberdades de terceiros. Se o conteúdo fizer parte de uma obra ou de um programa aparentemente criativo, satírico, artístico ou fictício, de visuais de jogos de vídeo e obras ou programas análogos, as obrigações de transparência estabelecidas no n.o 3 limitam-se à divulgação da existência desses conteúdos gerados ou manipulados de forma adequada, clara e visível, que não prejudique a exibição da obra e a divulgação dos direitos de autor aplicáveis, se for caso disso. Também não deve impedir as autoridades policiais de utilizarem sistemas de IA concebidos para detetar falsificações profundas e prevenir, investigar e reprimir infrações penais relacionadas com a sua utilização.

Alteração 488

Proposta de regulamento

Artigo 52 — n.o 3-B (novo)

Texto da Comissão

Alteração

 

3-B.     As informações mencionadas nos n.os 1 a 3 são facultadas às pessoas singulares, o mais tardar no momento da primeira interação ou exposição. Devem ser acessíveis a pessoas vulneráveis, tais como pessoas com deficiência ou crianças, completas, se for caso disso e adequado, com procedimentos de intervenção ou sinalização para a pessoa singular exposta, tendo em conta o estado da técnica geralmente reconhecido e as normas harmonizadas e especificações comuns pertinentes.

Alteração 489

Proposta de regulamento

Artigo 53 — n.o 1

Texto da Comissão

Alteração

1.    Os ambientes de testagem da regulamentação da IA estabelecidos pelas autoridades competentes de um ou vários Estados-Membros ou pela Autoridade Europeia para a Proteção de Dados devem proporcionar um ambiente controlado que facilite o desenvolvimento, a testagem e a validação de sistemas de IA inovadores por um período limitado antes da sua colocação no mercado ou colocação em serviço de acordo com um plano específico. Tal deve ocorrer sob a supervisão e orientação diretas das autoridades competentes com vista a garantir a conformidade com os requisitos do presente regulamento e, quando pertinente, de outra legislação da União e dos Estados-Membros supervisionada no ambiente de testagem .

1.    Os Estados-Membros devem criar, pelo menos, um ambiente de testagem da regulamentação da IA a nível nacional, que deve estar operacional, o mais tardar, no dia da entrada em vigor do presente regulamento. Este ambiente de testagem também pode ser criado em conjunto com um ou vários outros Estados-Membros.

Alteração 490

Proposta de regulamento

Artigo 53 — n.o 1-A (novo)

Texto da Comissão

Alteração

 

1-A.     Podem também ser criados ambientes de testagem da regulamentação da IA a nível regional ou local ou em conjunto com outros Estados-Membros.

Alteração 491

Proposta de regulamento

Artigo 53 — n.o 1-B (novo)

Texto da Comissão

Alteração

 

1-B.     A Comissão e a Autoridade Europeia para a Proteção de Dados — por si só, em conjunto ou em colaboração com um ou mais Estados-Membros — podem também criar ambientes de testagem da regulamentação da IA a nível da União.

Alteração 492

Proposta de regulamento

Artigo 53 — n.o 1-C (novo)

Texto da Comissão

Alteração

 

1-C.     As autoridades responsáveis pela criação devem afetar recursos suficientes para dar cumprimento ao presente artigo de forma eficaz e atempada.

Alteração 493

Proposta de regulamento

Artigo 53 — n.o 1-D (novo)

Texto da Comissão

Alteração

 

1-D.     Os ambientes de testagem da regulamentação da IA — em conformidade com os critérios definidos no artigo 53.o-A — fornecem um ambiente controlado que promove a inovação e facilita o desenvolvimento, teste e validação de sistemas inovadores de IA por um tempo limitado, antes da sua colocação no mercado ou colocação em serviço de acordo com um plano específico acordado entre os potenciais fornecedores e a autoridade responsável pela criação.

Alteração 494

Proposta de regulamento

Artigo 53 — n.o 1-E (novo)

Texto da Comissão

Alteração

 

1-E.     O estabelecimento de ambientes de testagem da regulamentação da IA visa contribuir para os seguintes objetivos:

 

a)

Para que as autoridades competentes forneçam orientações aos potenciais fornecedores de sistemas de IA para alcançar a conformidade regulamentar com o presente regulamento ou, se for caso disso, com outra legislação aplicável da União e dos Estados-Membros;

 

b)

Para que os potenciais fornecedores permitam e facilitem a testagem e o desenvolvimento de soluções inovadoras relacionadas com sistemas de IA;

 

c)

A aprendizagem regulamentar num ambiente controlado.

Alteração 495

Proposta de regulamento

Artigo 53 — n.o 1-F (novo)

Texto da Comissão

Alteração

 

1-F.     As autoridades responsáveis pela criação devem fornecer orientações e supervisão no ambiente de testagem com vista a identificar os riscos — especialmente para os direitos fundamentais, a democracia e o Estado de direito, a saúde e a segurança e o ambiente –, testar e demonstrar medidas de atenuação dos riscos identificados e a sua eficácia e ainda assegurar o cumprimento dos requisitos do presente regulamento e, se for caso disso, de outra legislação da União e dos Estados-Membros;

Alteração 496

Proposta de regulamento

Artigo 53 — n.o 1-F (novo)

Texto da Comissão

Alteração

 

1-G.     As autoridades responsáveis pela criação devem fornecer orientações e supervisão aos potenciais fornecedores de ambientes de testagem que desenvolvam sistemas de IA de risco elevado sobre a forma de cumprir os requisitos estabelecidos no presente regulamento, de modo a que os sistemas de IA possam sair do ambiente de testagem em presunção de conformidade com os requisitos específicos do presente regulamento que foram avaliados no ambiente de testagem. Na medida em que o sistema de IA cumpre os requisitos ao sair do ambiente de testagem, presume-se que está em conformidade com o presente regulamento. A este respeito, as autoridades de fiscalização do mercado ou os organismos notificados, conforme aplicável, devem ter em conta os relatórios de saída criados pela autoridade responsável pela criação no contexto dos procedimentos de avaliação da conformidade ou dos controlos de fiscalização do mercado;

Alteração 497

Proposta de regulamento

Artigo 53 — n.o 2

Texto da Comissão

Alteração

2.    Os Estados-Membros devem assegurar que, no caso de os sistemas de IA inovadores envolverem o tratamento de dados pessoais ou de outro modo se enquadrarem na competência de supervisão de outras autoridades nacionais ou autoridades competentes que disponibilizam ou apoiam o acesso a dados, as autoridades nacionais de proteção de dados e essas outras autoridades nacionais são associadas ao funcionamento do ambiente de testagem da regulamentação da IA.

2.    As autoridades responsáveis pela criação devem assegurar que no caso de os sistemas de IA inovadores envolverem o tratamento de dados pessoais ou de outro modo se enquadrarem na competência de supervisão de outras autoridades nacionais ou autoridades competentes que disponibilizam ou apoiam o acesso a dados pessoais , as autoridades nacionais de proteção de dados ou — nos casos a que se refere o n.o 1-B — a AEPD e essas outras autoridades nacionais são associadas ao funcionamento do ambiente de testagem da regulamentação da IA e são envolvidas no controlo desses aspetos do ambiente de testagem que supervisionam no âmbito dos respetivos poderes .

Alteração 498

Proposta de regulamento

Artigo 53 — n.o 3

Texto da Comissão

Alteração

3.   Os ambientes de testagem da regulamentação da IA não afetam os poderes de supervisão e de correção das autoridades competentes. A identificação de quaisquer riscos significativos para a saúde e a segurança e os direitos fundamentais durante o desenvolvimento e a testagem desses sistemas deve conduzir à adoção imediata de medidas de atenuação e, na sua falta, à suspensão do processo de desenvolvimento e testagem até que se verifique essa atenuação.

3.   Os ambientes de testagem da regulamentação da IA não afetam os poderes de supervisão e de correção das autoridades competentes , nomeadamente a nível local ou regional . A identificação de quaisquer riscos significativos para os direitos fundamentais, a democracia, o Estado de direito, a saúde e a segurança ou o ambiente durante o desenvolvimento e a testagem desses sistemas de IA deve conduzir à adoção imediata de medidas adequadas de atenuação . As autoridades competentes devem ter poderes para suspender temporária ou permanentemente o processo de testagem ou a participação no ambiente de testagem, se não for possível uma atenuação eficaz, e informar o gabinete de IA dessa decisão .

Alteração 499

Proposta de regulamento

Artigo 53 — n.o 4

Texto da Comissão

Alteração

4.   Os participantes no ambiente de testagem da regulamentação da IA continuam a ser responsáveis, nos termos da legislação aplicável da União e dos Estados-Membros em matéria de responsabilidade, por quaisquer danos infligidos a terceiros em resultado da experimentação que ocorre no ambiente de testagem.

4.   Os potenciais fornecedores no ambiente de testagem da regulamentação da IA continuam a ser responsáveis, nos termos da legislação aplicável da União e dos Estados-Membros em matéria de responsabilidade, por quaisquer danos infligidos a terceiros em resultado da experimentação que ocorre no ambiente de testagem. No entanto, desde que o(s) potencial(ais) fornecedor(es) respeite(m) o plano específico referido no n.o 1-C e os termos e condições da sua participação e siga(m) de boa-fé as orientações dadas pelas autoridades responsáveis pela criação, as autoridades não devem aplicar multas por infrações ao presente regulamento.

Alteração 500

Proposta de regulamento

Artigo 53 — n.o 5

Texto da Comissão

Alteração

5.   As autoridades competentes dos Estados-Membros que criaram ambientes de testagem da regulamentação da IA devem coordenar as suas atividades e cooperar no quadro do Comité Europeu para a Inteligência Artificial . Essas autoridades devem apresentar relatórios anuais ao Comité e à Comissão sobre os resultados da aplicação desse sistema, incluindo boas práticas, ensinamentos retirados e recomendações sobre a sua configuração e, se for caso disso, sobre a aplicação do presente regulamento e de outra legislação da União supervisionada no ambiente de testagem.

5.   As autoridades responsáveis pela criação devem coordenar as suas atividades e cooperar no quadro do Serviço IA .

Alteração 501

Proposta de regulamento

Artigo 53 — n.o 5-A (novo)

Texto da Comissão

Alteração

 

5-A.     As autoridades responsáveis pela criação devem informar o Serviço IA acerca da criação dum ambiente de testagem e podem solicitar apoio e orientação. O Serviço IA deve disponibilizar ao público e manter atualizada uma lista dos ambientes de testagem previstos e existentes, a fim de incentivar uma maior interação nos ambientes de testagem da regulamentação e na cooperação transnacional.

Alteração 502

Proposta de regulamento

Artigo 53 — n.o 5-B (novo)

Texto da Comissão

Alteração

 

5-B.     As autoridades responsáveis pela criação devem apresentar relatórios anuais ao Serviço IA e à Comissão — a menos que esta seja a única autoridade responsável pela criação — com início um ano após a criação do ambiente de testagem e, em seguida, todos os anos até à sua cessação, bem como um relatório final. Esses relatórios devem prestar informações sobre o progresso e os resultados da aplicação desses ambientes de testagem — incluindo boas práticas, incidentes, ensinamentos retirados e recomendações sobre a sua configuração — e, se for caso disso, sobre a aplicação do presente regulamento e de outra legislação da União supervisionada no ambiente de testagem. Esses relatórios anuais ou resumos devem ser postos à disposição do público, na Internet.

Alteração 503

Proposta de regulamento

Artigo 53 — n.o 6

Texto da Comissão

Alteração

6.    As modalidades e condições de funcionamento dos ambientes de testagem da regulamentação da IA , incluindo os critérios de elegibilidade e o procedimento de candidatura, seleção, participação e saída do ambiente de testagem, bem como os direitos e as obrigações dos participantes, devem ser estabelecidas em atos de execução . Os referidos atos de execução são adotados de acordo com o procedimento de exame a que se refere o artigo 74.o, n.o 2.

6.    A Comissão deve desenvolver uma interface única e específica que contenha todas as informações pertinentes relacionadas com os ambientes de testagem, juntamente com um ponto de contacto único a nível da União, para interagir com os ambientes de testagem da regulamentação e permitir que as partes interessadas peçam informações às autoridades competentes, bem como para procurar orientações não vinculativas sobre a conformidade de produtos, serviços e modelos empresariais inovadores que integrem tecnologias de IA .

 

A Comissão deve coordenar-se, proativamente, com as autoridades nacionais, regionais e também locais, se for caso disso.

Alteração 504

Proposta de regulamento

Artigo 53 — n.o6-A (novo)

Texto da Comissão

Alteração

 

6-A.     Para efeitos dos n.os 1 e 1-A, a Comissão deve desempenhar um papel complementar, permitindo que os Estados-Membros tirem partido dos seus conhecimentos especializados e, por outro lado, ajudem e forneçam conhecimentos e recursos técnicos aos Estados-Membros que procuram orientações sobre a criação e o funcionamento desses ambientes de testagem da regulamentação.

Alteração 505

Proposta de regulamento

Artigo 53-A (novo)

Texto da Comissão

Alteração

 

Artigo 53.o-A

 

Modalidades e funcionamento dos ambientes de testagem da regulamentação da IA

 

1.     A fim de evitar a fragmentação em toda a União, a Comissão, em consulta com o Serviço IA, adota um ato delegado que especifique as modalidades de criação, desenvolvimento, execução, funcionamento e supervisão dos ambientes de testagem da regulamentação da IA, incluindo os critérios de elegibilidade e o procedimento de aplicação, seleção, participação e saída do ambiente de testagem, bem como os direitos e obrigações dos participantes com base no disposto no presente artigo;

 

2.     A Comissão fica habilitada a adotar atos delegados de acordo com o procedimento a que se refere o artigo 73.o, o mais tardar, 12 meses após a entrada em vigor do presente regulamento, e asseguram nomeadamente que:

 

a)

Os ambientes de testagem da regulamentação estão abertos a qualquer potencial fornecedor dum sistema de IA que o solicite e que preencha os critérios de elegibilidade e seleção. Os critérios de acesso ao ambiente de testagem da regulamentação são transparentes e equitativos e as autoridades responsáveis pela criação informam os requerentes da sua decisão no prazo de 3 meses a contar da apresentação do pedido;

 

b)

Os ambientes de testagem da regulamentação permitem um acesso amplo e equitativo e acompanham a procura de participação;

 

c)

O acesso aos ambientes de testagem da regulamentação da IA é gratuito para as PME e as empresas em fase de arranque, sem prejuízo dos custos excecionais que as autoridades responsáveis pela criação possam recuperar de forma justa e proporcionada;

 

d)

Os ambientes de testagem da regulamentação facilitam a participação de outros intervenientes relevantes no ecossistema de IA — como os organismos notificados e as organizações de normalização (PME, empresas em fase de arranque, empresas, inovadores, instalações de testagem e experimentação, laboratórios de investigação e experimentação e polos de inovação digital, centros de excelência, investigadores individuais) — a fim de permitir e facilitar a cooperação com os setores público e privado;

 

e)

Permitem que os potenciais fornecedores cumpram, num ambiente orientado, as obrigações de avaliação da conformidade previstas no presente regulamento ou a aplicação voluntária dos códigos de conduta a que se refere o artigo 69.o;

 

f)

Os procedimentos, processos e requisitos administrativos para a aplicação, seleção, participação e saída do ambiente de testagem são simples, facilmente compreensíveis e comunicados claramente — a fim de facilitar a participação das PME e das empresas em fase de arranque com capacidades jurídicas e administrativas limitadas — e são simplificados em toda a União para evitar a fragmentação; a participação num ambiente de testagem da regulamentação criado por um Estado-Membro, pela Comissão ou pela AEPD é mutuamente reconhecida e tem os mesmos efeitos jurídicos em toda a União;

 

g)

A participação no ambiente de testagem da regulamentação da IA é limitada a um período adequado à complexidade e dimensão do projeto;

 

h)

Os ambientes de testagem facilitam o desenvolvimento de ferramentas e de infraestruturas para testar, comparar, avaliar e explicar as dimensões dos sistemas de IA relevantes para os ambientes de testagem — como a exatidão, a robustez e a cibersegurança, bem como a atenuação dos riscos para os direitos fundamentais, o ambiente e a sociedade em geral.

 

3.     Os potenciais fornecedores nos ambientes de testagem, especialmente as PME e as empresas em fase de arranque, devem ter acesso facilitado a serviços de pré-implantação — como orientações sobre a aplicação do presente regulamento –, a outros serviços de valor acrescentado — como a ajuda em matéria de documentos de normalização, certificação e consulta — e a outras iniciativas do mercado único digital — como as instalações de testagem e experimentação, os polos digitais, os centros de excelência e as capacidades de avaliação comparativa da UE;

Alteração 506

Proposta de regulamento

Artigo 54 — título

Texto da Comissão

Alteração

Tratamento adicional de dados pessoais para efeitos de desenvolvimento de certos sistemas de inteligência artificial de interesse público no ambiente de testagem da regulamentação da inteligência artificial

Tratamento adicional de dados para efeitos de desenvolvimento de certos sistemas de inteligência artificial de interesse público no ambiente de testagem da regulamentação da inteligência artificial

Alteração 507

Proposta de regulamento

Artigo 54 — n.o 1 — parte introdutória

Texto da Comissão

Alteração

1.   No ambiente de testagem da regulamentação da IA, os dados pessoais legalmente recolhidos para outras finalidades podem ser tratados com vista a desenvolver e testar certos sistemas de IA inovadores no ambiente de testagem nas seguintes condições:

1.   No ambiente de testagem da regulamentação da IA, os dados pessoais legalmente recolhidos para outras finalidades podem ser tratados apenas com vista a desenvolver e testar certos sistemas de IA no ambiente de testagem e quando forem preenchidas todas as seguintes condições:

Alteração 508

Proposta de regulamento

Artigo 54 — n.o 1 — alínea a) — parte introdutória

Texto da Comissão

Alteração

a)

Os sistemas de IA inovadores devem ser desenvolvidos para salvaguarda de um interesse público substancial num ou mais dos seguintes domínios:

a)

Os sistemas de IA devem ser desenvolvidos para salvaguarda de um interesse público substancial num ou mais dos seguintes domínios:

 

 

ii)

Segurança pública e saúde pública, nomeadamente a deteção, o diagnóstico, a prevenção, o controlo e o tratamento de doenças;

 

 

iii)

Elevado nível de proteção e melhoria da qualidade do ambiente, a proteção da biodiversidade, a poluição e ainda a atenuação das alterações climáticas e a adaptação às mesmas;

 

 

iii-A)

Segurança e resiliência dos sistemas, infraestruturas críticas e redes de transportes.

Alteração 509

Proposta de regulamento

Artigo 54 — n.o 1 — alínea a) — subalínea i)

Texto da Comissão

Alteração

i)

prevenção, investigação, deteção ou repressão de infrações penais, ou execução de sanções penais, incluindo a proteção contra ameaças à segurança pública e a prevenção das mesmas, sob o controlo e a responsabilidade das autoridades competentes. O tratamento obedece ao disposto na legislação do Estado-Membro ou da União,

Suprimido

Alteração 510

Proposta de regulamento

Artigo 54 — n.o 1 — alínea c)

Texto da Comissão

Alteração

c)

Existem mecanismos de controlo eficazes para identificar quaisquer riscos elevados para os direitos fundamentais dos titulares dos dados que possam surgir durante a experimentação no ambiente de testagem, bem como um mecanismo de resposta para atenuar prontamente esses riscos e, se necessário, interromper o tratamento;

c)

Existem mecanismos de controlo eficazes para identificar quaisquer riscos elevados para os direitos e as liberdades dos titulares dos dados – tal como referido no artigo 35.o do Regulamento (UE) 2016/679 e no artigo 35.o do Regulamento (UE) 2018/1725 – que possam surgir durante a experimentação no ambiente de testagem, bem como um mecanismo de resposta para atenuar prontamente esses riscos e, se necessário, interromper o tratamento;

Alteração 511

Proposta de regulamento

Artigo 54 — n.o 1 — alínea d)

Texto da Comissão

Alteração

d)

Todos os dados pessoais a tratar no contexto do ambiente de testagem se encontram num ambiente de tratamento de dados funcionalmente separado, isolado e protegido sob o controlo dos participantes , sendo apenas acessíveis a pessoas autorizadas;

d)

Todos os dados pessoais a tratar no contexto do ambiente de testagem se encontram num ambiente de tratamento de dados funcionalmente separado, isolado e protegido sob o controlo dos potenciais fornecedores , sendo apenas acessíveis a pessoas autorizadas;

Alteração 512

Proposta de regulamento

Artigo 54 — n.o 1 — alínea f)

Texto da Comissão

Alteração

f)

Nenhum tratamento de dados pessoais no contexto do ambiente de testagem dá origem a medidas ou decisões que afetem os titulares dos dados;

f)

Nenhum tratamento de dados pessoais no contexto do ambiente de testagem dá origem a medidas ou decisões que afetem os titulares dos dados , nem afeta a aplicação dos seus direitos previstos no direito da União em matéria de proteção de dados pessoais ;

Alteração 513

Proposta de regulamento

Artigo 54 — n.o 1 — alínea g)

Texto da Comissão

Alteração

g)

Todos os dados pessoais tratados no contexto do ambiente de testagem são apagados assim que a participação no ambiente de testagem terminar ou que os dados pessoais atingirem o fim do respetivo período de conservação;

g)

Todos os dados pessoais tratados no contexto do ambiente de testagem são protegidos por meio de medidas técnicas e organizativas adequadas e apagados assim que a participação no ambiente de testagem terminar ou que os dados pessoais atingirem o fim do respetivo período de conservação;

Alteração 514

Proposta de regulamento

Artigo 54 — n.o 1 — alínea h)

Texto da Comissão

Alteração

h)

Os registos do tratamento de dados pessoais no contexto do ambiente de testagem são mantidos durante a participação no ambiente de testagem e pelo período de um ano após o respetivo termo, apenas enquanto forem necessários para efeitos exclusivos de cumprimento de obrigações em matéria de responsabilidade e documentação previstas no presente artigo ou em outra legislação da União ou dos Estados-Membros aplicável ;

h)

Os registos do tratamento de dados pessoais no contexto do ambiente de testagem são mantidos durante a participação no ambiente de testagem;

Alteração 515

Proposta de regulamento

Artigo 54 — n.o 1 — alínea j)

Texto da Comissão

Alteração

j)

Uma breve síntese do projeto de IA desenvolvido no ambiente de testagem, incluindo os seus objetivos e resultados esperados, é publicada no sítio Web das autoridades competentes.

j)

Uma breve síntese do sistema de IA desenvolvido no ambiente de testagem, incluindo os seus objetivos , hipóteses e resultados esperados, é publicada no sítio Web das autoridades competentes.

Alteração 516

Proposta de regulamento

Artigo 54-A (novo)

Texto da Comissão

Alteração

 

Artigo 54.o-A

 

Promoção da investigação e do desenvolvimento em matéria de IA como contributo para resultados benéficos para a sociedade e o ambiente

 

1.     Os Estados-Membros devem promover a investigação e o desenvolvimento de soluções de IA que contribuam para resultados benéficos para a sociedade e o ambiente, nomeadamente o desenvolvimento de soluções baseadas em IA com vista a aumentar a acessibilidade para pessoas com deficiências, combater as desigualdades socioeconómicas e cumprir as metas em matéria de sustentabilidade e ambiente, das seguintes formas:

 

a)

Proporcionando aos projetos pertinentes acesso prioritário aos ambientes de testagem da regulamentação da IA, desde que cumpram as condições de elegibilidade;

 

b)

Afetando financiamento público, nomeadamente de fundos da UE pertinentes, à investigação e ao desenvolvimento em matéria de IA como contributo para resultados benéficos para a sociedade e o ambiente;

 

c)

Organizando atividades de sensibilização específicas sobre a aplicação do presente regulamento, a disponibilidade de financiamento específico e os procedimentos de candidatura a esse financiamento, adaptadas às necessidades dos projetos em causa;

 

d)

Se for caso disso, criando canais específicos acessíveis, nomeadamente nos ambientes de testagem, para comunicação com os projetos com o intuito de fornecer orientações e responder a consultas sobre a aplicação do presente regulamento.

 

Os Estados-Membros devem apoiar a sociedade civil e as partes interessadas sociais na liderança ou participação nesses projetos.

Alteração 517

Proposta de regulamento

Artigo 55 — título

Texto da Comissão

Alteração

Medidas para fornecedores e utilizadores de pequena dimensão

Medidas para PME, empresas em fase de arranque e utilizadores

Alteração 518

Proposta de regulamento

Artigo 55 — n.o 1 — alínea a)

Texto da Comissão

Alteração

a)

Proporcionar aos fornecedores de pequena dimensão e às empresas em fase de arranque acesso prioritário aos ambientes de testagem da regulamentação da IA, desde que cumpram as condições de elegibilidade;

a)

Proporcionar às PME e às empresas em fase de arranque estabelecidas na União acesso prioritário aos ambientes de testagem da regulamentação da IA, desde que cumpram as condições de elegibilidade;

Alteração 519

Proposta de regulamento

Artigo 55 — n.o 1 — alínea b)

Texto da Comissão

Alteração

b)

Organizar atividades de sensibilização específicas sobre a aplicação do presente regulamento adaptadas às necessidades dos fornecedores e utilizadores de pequena dimensão ;

b)

Organizar atividades de sensibilização específicas e de desenvolvimento de capacidades digitais aprofundadas sobre a aplicação do presente regulamento adaptadas às necessidades das PME, empresas em fase de arranque e utilizadores;

Alteração 520

Proposta de regulamento

Artigo 55 — n.o 1 — alínea c)

Texto da Comissão

Alteração

c)

Se for caso disso, criar um canal específico para comunicação com fornecedores e utilizadores de pequena dimensão e outros inovadores, com o intuito de fornecer orientações e responder a consultas sobre a aplicação do presente regulamento.

c)

Utilizar os canais específicos existentes e, se for caso disso, criar novos canais específicos para comunicação com as PME, as empresas em fase de arranque, os utilizadores e outros inovadores, com o intuito de fornecer orientações e responder a consultas sobre a aplicação do presente regulamento.

Alteração 521

Proposta de regulamento

Artigo 55 — n.o 1 — alínea c-A) (nova)

Texto da Comissão

Alteração

 

c-A)

Promover a participação das PME e de outras partes interessadas relevantes no processo de desenvolvimento da normalização;

Alteração 522

Proposta de regulamento

Artigo 55 — n.o 2

Texto da Comissão

Alteração

2.   Os interesses e as necessidades específicas dos fornecedores de pequena dimensão devem ser tidas em conta aquando da fixação das taxas a pagar pela avaliação da conformidade nos termos do artigo 43.o, reduzindo essas taxas proporcionalmente à sua dimensão e à dimensão do mercado.

2.   Os interesses e as necessidades específicas das PME, das empresas em fase de arranque e dos utilizadores devem ser tidas em conta aquando da fixação das taxas a pagar pela avaliação da conformidade nos termos do artigo 43.o, reduzindo essas taxas proporcionalmente à sua fase de desenvolvimento, à sua dimensão , à dimensão do mercado e à procura do mercado. A Comissão deve avaliar regularmente os custos de certificação e de conformidade para as PME e as empresas em fase de arranque, nomeadamente através de consultas transparentes com PME, empresas em fase de arranque e utilizadores e trabalhar com os Estados-Membros para baixar esses custos, onde possível. A Comissão deve apresentar informações sobre essas conclusões ao Parlamento Europeu e ao Conselho no âmbito do relatório sobre a avaliação e revisão do presente regulamento prevista no artigo 84.o, n.o 2.

Alteração 523

Proposta de regulamento

Artigo 56 — Secção 1 — título

Texto da Comissão

Alteração

 

Título

 

SECÇÃO 1: Disposições gerais relativas ao Serviço Europeu para a Inteligência Artificial

Alteração 524

Proposta de regulamento

Artigo 56 — título

Texto da Comissão

Alteração

Criação do Comité Europeu para a Inteligência Artificial

Criação do Serviço Europeu para a Inteligência Artificial

Alteração 525

Proposta de regulamento

Artigo 56 — n.o 1

Texto da Comissão

Alteração

1.   É criado um Comité Europeu para a Inteligência Artificial (adiante designado por « Comité »).

1.   É criado o Serviço Europeu para a Inteligência Artificial (adiante designado por « Serviço IA »). O Serviço IA é um organismo independente da União, dotado de personalidade jurídica.

Alteração 526

Proposta de regulamento

Artigo 56 — n.o 2 — parte introdutória

Texto da Comissão

Alteração

2.   O Comité presta aconselhamento e assistência à Comissão com vista a:

2.   O Serviço IA deve ter um secretariado e dispor de financiamento e pessoal adequados para o desempenho das suas funções nos termos do presente regulamento .

Alteração 527

Proposta de regulamento

Artigo 56 — n.o 2-A (novo)

Texto da Comissão

Alteração

 

2-A.     O Serviço IA terá sede em Bruxelas.

Alteração 528

Proposta de regulamento

Artigo 56-A (novo)

Texto da Comissão

Alteração

 

Artigo 56.o-A

Estrutura

A estrutura administrativa e de gestão do Serviço IA é constituída por:

a)

Um conselho de administração, incluindo um presidente;

b)

Um secretariado gerido por um diretor executivo;

c)

Um fórum consultivo.

Alteração 529

Proposta de regulamento

Artigo 56-B (novo)

Texto da Comissão

Alteração

 

Artigo 56.o-B

 

Funções do Serviço IA

 

O Serviço IA exerce as seguintes funções:

 

a)

Apoiar, aconselhar e cooperar com os Estados-Membros, as autoridades nacionais de controlo, a Comissão e outras instituições, órgãos, organismos e agências da União no que diz respeito à aplicação do presente regulamento;

 

b)

Acompanhar e assegurar a aplicação eficaz e coerente do presente regulamento sem prejuízo das funções das autoridades nacionais de controlo;

 

c)

Contribuir para a coordenação entre as autoridades nacionais de controlo responsáveis pela aplicação do presente regulamento;

 

d)

Servir de mediador nos debates sobre desacordos graves que possam surgir entre as autoridades competentes no que diz respeito à aplicação do regulamento;

 

e)

Coordenar investigações conjuntas nos termos do artigo 66.o-A;

 

f)

Contribuir para uma cooperação eficaz com as autoridades competentes de países terceiros e com organizações internacionais;

 

g)

Recolher e partilhar os conhecimentos especializados e as boas práticas dos Estados-Membros e assistir as autoridades nacionais de controlo dos Estados-Membros e a Comissão no desenvolvimento dos conhecimentos especializados organizacionais e técnicos necessários para a aplicação do presente regulamento, nomeadamente facilitando a criação e manutenção dum grupo de peritos da União;

 

h)

Examinar — por sua própria iniciativa ou a pedido do seu conselho de administração ou da Comissão — questões relacionadas com a aplicação do presente regulamento e emitir pareceres, recomendações ou contributos escritos, nomeadamente no que diz respeito:

 

 

i)

às especificações técnicas ou normas existentes,

 

 

ii)

às orientações da Comissão,

 

 

iii)

aos códigos de conduta e respetiva aplicação, em estreita cooperação com a indústria e outras partes interessadas pertinentes,

 

 

(iv)

à eventual revisão do regulamento, à preparação dos atos delegados e a eventuais alinhamentos do presente regulamento com os atos jurídicos enumerados no anexo II,

 

 

v)

às tendências, nomeadamente a competitividade global europeia no domínio da inteligência artificial, a adoção da inteligência artificial na União, o desenvolvimento de competências digitais e as ameaças sistémicas emergentes relacionadas com a inteligência artificial,

 

 

(vi)

às orientações sobre a forma como o presente regulamento se aplica à tipologia em constante evolução das cadeias de valor da IA, designadamente sobre as implicações decorrentes em termos de responsabilização de todas as entidades envolvidas;

 

i)

Elaborar:

 

 

i)

um relatório anual que inclua uma avaliação da aplicação do presente regulamento, uma análise das comunicações de incidentes graves a que se refere o artigo 62.o e o funcionamento da base de dados referida no artigo 60.o, e

 

 

ii)

recomendações à Comissão sobre a categorização das práticas proibidas, os sistemas de IA de risco elevado referidos no anexo III, os códigos de conduta referidos no artigo 69.o e a aplicação dos princípios gerais enunciados no artigo 4.o-A;

 

j)

Assistir as autoridades na criação e desenvolvimento de ambientes de testagem da regulamentação e para facilitar a cooperação entre ambientes de testagem da regulamentação;

 

k)

Organizar reuniões com as agências e os organismos de governação da União cujas funções estejam relacionadas com a inteligência artificial e a aplicação do presente regulamento;

 

l)

Organizar consultas trimestrais com o fórum consultivo e, se for caso disso, consultas públicas com outras partes interessadas e tornar públicos os resultados dessas consultas no seu sítio Web;

 

m)

Promover a sensibilização e a compreensão do público relativamente aos benefícios, aos riscos, às garantias e aos direitos e obrigações associados à utilização de sistemas de IA;

 

n)

Facilitar o desenvolvimento de critérios comuns e um entendimento comum entre os operadores do mercado e as autoridades competentes dos conceitos relevantes previstos no presente regulamento;

 

o)

Assegurar o acompanhamento dos modelos de base e organizar um diálogo regular com os criadores de modelos de base no que respeita à sua conformidade, bem como aos sistemas de IA que utilizam esses modelos de IA;

 

p)

Fornecer orientações interpretativas sobre a forma como o Regulamento Inteligência Artificial se aplica à tipologia em constante evolução das cadeias de valor da IA e quais serão as implicações daí resultantes em termos de responsabilização de todas as entidades envolvidas ao abrigo dos diferentes cenários baseados no estado da técnica geralmente reconhecido, nomeadamente conforme refletido nas normas harmonizadas pertinentes;

 

q)

Proporcionar um controlo e acompanhamento específicos e institucionalizar o diálogo regular com os fornecedores de modelos de base sobre a conformidade destes últimos e dos sistemas de IA que utilizam esses modelos de IA com o artigo 28.o-B do presente regulamento, bem como sobre as boas práticas da indústria em matéria de autogovernação. Qualquer reunião desta natureza está aberta à participação e aos contributos das autoridades nacionais de controlo, dos organismos notificados e das autoridades de fiscalização do mercado;

 

r)

Elaborar e atualizar periodicamente orientações sobre os limiares que qualificam o treino dum modelo de base como uma grande sessão de treino, registar e acompanhar os casos conhecidos de grandes sessões de treino e publicar um relatório anual sobre o ponto da situação do desenvolvimento, da proliferação e da utilização de modelos de base, juntamente com opções políticas para enfrentar os riscos e oportunidades específicos dos modelos de base;

 

s)

Promover a literacia em matéria de IA, em conformidade com o artigo 4.o-B.

Alteração 530

Proposta de regulamento

Artigo 56-C (novo)

Texto da Comissão

Alteração

 

Artigo 56.o-C

 

Responsabilização, independência e transparência

 

1.     O Serviço IA:

 

a)

Responde perante o Parlamento Europeu e o Conselho, nos termos do presente regulamento;

 

b)

Atua de forma independente no desempenho das suas funções ou no exercício dos seus poderes;

 

c)

Assegura um elevado nível de transparência das suas atividades e desenvolve boas práticas administrativas a este respeito.

 

O Regulamento (CE) n.o 1049/2001 é aplicável aos documentos detidos pelo Serviço IA.

Alteração 531

Proposta de regulamento

Artigo -57-A (novo) — SECÇÃO 2 — título

Texto da Comissão

Alteração

 

Título

 

SECÇÃO 2: Conselho de administração

Alteração 532

Proposta de regulamento

Artigo -57-A (novo)

Texto da Comissão

Alteração

 

Artigo -57.o-A

 

Composição do conselho de administração

 

1.     O conselho de administração é composto pelos seguintes membros:

 

a)

Um representante da autoridade nacional de controlo de cada Estado-Membro;

 

b)

Um representante da Comissão;

 

c)

Um representante da Autoridade Europeia para a Proteção de Dados (AEPD);

 

d)

Um representante da Agência da União Europeia para a Cibersegurança (ENISA);

 

e)

Um representante da Agência dos Direitos Fundamentais da União Europeia (FRA).

 

Cada representante duma autoridade nacional de controlo dispõe de um voto. Os representantes da Comissão, da AEPD, da ENISA e da FRA não têm direito de voto. Cada membro tem um suplente. A nomeação dos membros efetivos e suplentes do conselho de administração deve ter em conta a necessidade do equilíbrio de género. Os membros do conselho de administração e os respetivos suplentes são tornados públicos.

 

2.     Os membros efetivos e suplentes do conselho de administração não devem ter posições incompatíveis ou interesses comerciais em relação a qualquer assunto relacionado com a aplicação do presente regulamento.

 

3.     As regras aplicáveis às reuniões e votações do conselho de administração, bem como à nomeação e destituição do diretor executivo, são estabelecidas no regulamento interno a que se refere o artigo -57.o-B, alínea a).

Alteração 533

Proposta de regulamento

Artigo -57-B (novo)

Texto da Comissão

Alteração

 

Artigo -57.o-B

 

Funções do conselho de administração

 

1.     O conselho de administração tem as seguintes funções:

 

a)

Tomar decisões estratégicas sobre as atividades do Serviço IA e adotar o seu regulamento interno por maioria de dois terços dos seus membros;

 

b)

Aplicar o seu regulamento interno;

 

c)

Adotar o documento único de programação do Serviço IA e o seu relatório público anual e transmitir ambos ao Parlamento Europeu, ao Conselho, à Comissão e ao Tribunal de Contas;

 

d)

Aprovar o orçamento do Serviço IA;

 

e)

Nomear o diretor executivo e, se for caso disso, alargar ou encurtar o seu mandato ou exonerá-lo;

 

f)

Decidir sobre a criação das estruturas internas do Serviço IA e, se necessário, sobre a alteração dessas estruturas internas necessárias para o desempenho das funções do Serviço IA.

Alteração 534

Proposta de regulamento

Artigo -57-C (novo)

Texto da Comissão

Alteração

 

Artigo -57.o-C

Presidência do conselho de administração

1.     O conselho de administração elege um presidente e dois vice-presidentes de entre os seus membros com direito de voto, por maioria simples.

2.     O mandato do presidente e dos vice-presidentes é de quatro anos. Os mandatos do presidente e dos vice-presidentes pode ser renovado uma vez.

Alteração 535

Proposta de regulamento

Artigo 57 — SECÇÃO 3 — título

Texto da Comissão

Alteração

Estrutura do Comité

Secretariado

Alteração 536

Proposta de regulamento

Artigo 57 — n.o 1

Texto da Comissão

Alteração

1.    O Comité é composto pelas autoridades nacionais de controlo, que são representadas pelo seu presidente ou funcionário de alto nível equivalente, e pela Autoridade Europeia para a Proteção de Dados. Podem ser convidadas para as reuniões outras autoridades nacionais, sempre que as questões debatidas sejam pertinentes para as mesmas.

1.    As atividades do secretariado são geridas por um diretor executivo. Este responde perante o conselho de administração. Sem prejuízo dos poderes respetivos do conselho de administração e das instituições da União, o diretor executivo não solicita nem aceita instruções de quaisquer governos ou outros organismos.

Alteração 537

Proposta de regulamento

Artigo 57 — parágrafo 2

Texto da Comissão

Alteração

2.    O Comité adota o seu regulamento interno por maioria simples dos membros que o compõem, após a autorização da Comissão. regulamento interno deve conter igualmente os aspetos operacionais relacionados com o exercício das funções do Comité elencadas no artigo 58.o . O Comité pode constituir subgrupos consoante adequado para efeitos da análise de questões específicas.

2.   O diretor-executivo participa em audições sobre qualquer questão relacionada com as atividades do Serviço IA e presta informações sobre o exercício das funções do diretor-executivo quando convidado a fazê-lo pelo Parlamento Europeu ou pelo Conselho .

Alteração 538

Proposta de regulamento

Artigo 57 — n.o 3

Texto da Comissão

Alteração

3.   O Comité é presidido pela Comissão . A Comissão convoca as reuniões e prepara a ordem de trabalhos de acordo com as funções do Comité nos termos do presente regulamento e com o seu regulamento interno. A Comissão presta apoio administrativo e analítico às atividades do Comité nos termos com o presente regulamento.

3.   O diretor-executivo representa o Serviço IA, nomeadamente nas instâncias internacionais de cooperação no domínio da inteligência artificial .

Alteração 539

Proposta de regulamento

Artigo 57 — n.o 4

Texto da Comissão

Alteração

4.    O Comité pode convidar peritos e observadores externos para participarem nas suas reuniões e pode realizar intercâmbios com terceiros interessados, a fim de fundamentar as suas atividades , na medida adequada. Para o efeito, a Comissão pode facilitar intercâmbios entre o Comité e outras instituições, órgãos, organismos e grupos consultivos da União.

4.    O secretariado presta ao conselho de administração e ao fórum consultivo o apoio analítico, administrativo e logístico necessário para o desempenho das funções do Serviço IA, nomeadamente:

 

a)

Executar as decisões, os programas e as atividades aprovados pelo conselho de administração;

 

b)

Preparar anualmente o projeto de documento único de programação, o projeto de orçamento, o relatório anual de atividades, os projetos de parecer e os projetos de posições do Serviço IA e apresentá-los ao conselho de administração;

 

c)

Proceder à coordenação com fóruns internacionais para a cooperação em matéria de inteligência artificial.

Alteração 540

Proposta de regulamento

Capítulo 58 — SECÇÃO 4 — título

Texto da Comissão

Alteração

Funções do Comité

Fórum consultivo

Alteração 541

Proposta de regulamento

Artigo 58 — parágrafo 1

Texto da Comissão

Alteração

Ao prestar aconselhamento e assistência à Comissão nos termos do artigo 56.o, n.o 2, o Comité deve em particular:

O fórum consultivo deve fornecer ao Serviço IA contributos das partes interessadas em questões relacionadas com o presente regulamento, em particular , no que diz respeito às funções previstas no artigo 56.o-B, alínea l).

Alteração 542

Proposta de regulamento

Artigo 58 — parágrafo 2 (novo)

Texto da Comissão

Alteração

 

A composição do fórum consultivo deve representar uma seleção equilibrada de partes interessadas, incluindo a indústria, as empresas em fase de arranque, as PME, a sociedade civil, os parceiros sociais e o meio académico. A composição do fórum consultivo deve ser equilibrada no que diz respeito aos interesses comerciais e não comerciais e — dentro da categoria dos interesses comerciais — no que diz respeito às PME e a outras empresas.

Alteração 543

Proposta de regulamento

Artigo 58 — parágrafo 3 (novo)

Texto da Comissão

Alteração

 

O conselho de administração nomeia os membros do fórum consultivo em conformidade com o procedimento de seleção previsto no regulamento interno do Serviço IA, tendo em conta a necessidade de transparência e em conformidade com os critérios definidos no n.o 2.

Alteração 544

Proposta de regulamento

Artigo 58 — parágrafo 4 (novo)

Texto da Comissão

Alteração

 

O mandato dos membros do fórum consultivo é de dois anos, podendo ser prorrogado por um período não superior a quatro anos.

Alteração 545

Proposta de regulamento

Artigo 58 — parágrafo 5 (novo)

Texto da Comissão

Alteração

 

O Comité Europeu de Normalização (CEN), o Comité Europeu de Normalização Eletrotécnica (CENELEC) e o Instituto Europeu de Normalização das Telecomunicações (ETSI) devem ser membros permanentes do fórum consultivo. O Centro Comum de Investigação deve ser membro permanente, sem direito de voto.

Alteração 546

Proposta de regulamento

Artigo 58 — parágrafo 6 (novo)

Texto da Comissão

Alteração

 

O fórum consultivo aprova o seu regulamento interno. O fórum consultivo elege dois copresidentes de entre os seus membros, de acordo com os critérios estabelecidos no n.o 2. O mandato dos copresidentes é de dois anos, renovável uma vez.

Alteração 547

Proposta de regulamento

Artigo 58 — parágrafo 7 (novo)

Texto da Comissão

Alteração

 

O fórum consultivo deve realizar reuniões, pelo menos, quatro vezes por ano. Ele pode convidar peritos e outras partes interessadas para as suas reuniões. O diretor executivo pode participar a título oficioso nas reuniões do fórum consultivo.

Alteração 548

Proposta de regulamento

Artigo 58 — parágrafo 8 (novo)

Texto da Comissão

Alteração

 

No cumprimento das suas funções previstas no n.o 1, o fórum consultivo pode elaborar pareceres, recomendações e contribuições escritas.

Alteração 549

Proposta de regulamento

Artigo 58 — parágrafo 9 (novo)

Texto da Comissão

Alteração

 

O fórum consultivo pode criar subgrupos permanentes ou temporários, conforme adequado para o exame de questões específicas relacionadas com os objetivos do presente regulamento.

Alteração 550

Proposta de regulamento

Artigo 58 — parágrafo 10 (novo)

Texto da Comissão

Alteração

 

O fórum consultivo deve elaborar um relatório anual sobre as suas atividades. Esses relatórios são disponibilizados ao público.

Alteração 551

Proposta de regulamento

Artigo 58-A — SECÇÃO 5 — título

Texto da Comissão

Alteração

 

Autoridades europeias em matéria de avaliação comparativa

Alteração 552

Proposta de regulamento

Artigo 58-A (novo)

Texto da Comissão

Alteração

 

Artigo 58.o-A

Avaliação comparativa

As autoridades europeias em matéria de avaliação comparativa referidas no artigo 15.o, n.o 1-A, e o Serviço IA devem, em estreita cooperação com os parceiros internacionais, desenvolver conjuntamente orientações e capacidades eficazes em termos de custos para medir e aferir os aspetos dos sistemas e componentes de IA e, em especial, dos modelos de base pertinentes para a conformidade e execução do presente regulamento, com base no estado da técnica geralmente reconhecido, nomeadamente conforme refletido nas normas harmonizadas pertinentes.

Alteração 553

Proposta de regulamento

Artigo 59 — título

Texto da Comissão

Alteração

Designação das autoridades nacionais competentes

Designação das autoridades nacionais de controlo

Alteração 554

Proposta de regulamento

Artigo 59 — n.o 1

Texto da Comissão

Alteração

1.   Cada Estado-Membro deve criar ou designar autoridades nacionais competentes a fim de assegurar a aplicação e execução do presente regulamento . As autoridades nacionais competentes devem estar organizadas de modo que garanta a objetividade e a imparcialidade das suas atividades e funções.

1.   Cada Estado-Membro deve designar até … [três meses após a entrada em vigor do presente regulamento ] uma autoridade nacional de controlo, que deve estar organizada de modo que garanta a objetividade e a imparcialidade das suas atividades e funções.

Alteração 555

Proposta de regulamento

Artigo 59 — n.o 2

Texto da Comissão

Alteração

2.    Cada Estado-Membro deve designar uma autoridade nacional de controlo entre as autoridades nacionais competentes. A autoridade nacional de controlo deve atuar enquanto autoridade notificadora e autoridade de fiscalização do mercado , salvo se, por razões organizacionais e administrativas, o Estado-Membro tiver de designar mais do que uma autoridade .

2.    A autoridade nacional de controlo deve assegurar a aplicação e execução do presente regulamento. No que diz respeito aos sistemas de IA de risco elevado relacionados com produtos aos quais se apliquem atos jurídicos enunciados no anexo II, secção A, as autoridades competentes designadas ao abrigo desses atos jurídicos devem continuar a liderar os procedimentos administrativos . No entanto, na medida em que um caso envolva aspetos abrangidos exclusivamente pelo presente regulamento, essas autoridades competentes devem ser vinculadas pelas medidas relacionadas com esses aspetos emitidas pela autoridade nacional de controlo designada nos termos do presente regulamento.  A autoridade nacional de controlo deve atuar enquanto autoridade de fiscalização do mercado.

Alteração 556

Proposta de regulamento

Artigo 59 — n.o 3

Texto da Comissão

Alteração

3.   Os Estados-Membros devem informar a Comissão da designação ou designações e, se for caso disso, dos motivos que os levaram a designar mais do que uma autoridade.

3.   Os Estados-Membros devem disponibilizar ao público e comunicar ao Serviço IA e à Comissão , até [três meses após a entrada em vigor do presente regulamento], a designação da autoridade nacional de controlo e as informações sobre a forma de a contactar . A autoridade nacional de controlo atua como ponto de contacto único para o presente regulamento e deve poder ser contactada por meios de comunicação eletrónica.

Alteração 557

Proposta de regulamento

Artigo 59 — n.o 4

Texto da Comissão

Alteração

4.   Os Estados-Membros devem assegurar que as autoridades nacionais competentes disponham dos recursos financeiros e humanos adequados para exercerem as funções que lhes incumbem nos termos do presente regulamento. Em especial, as autoridades nacionais competentes devem dispor permanentemente de suficiente pessoal cujas competências e conhecimentos especializados incluam uma compreensão profunda das tecnologias de inteligência artificial, dos dados e da computação de dados, dos direitos fundamentais e dos riscos para a saúde e a segurança, bem como conhecimento das normas e dos requisitos legais em vigor.

4.   Os Estados-Membros devem assegurar que a autoridade nacional de controlo dispõe dos recursos técnicos, financeiros e humanos adequados e das infraestruturas para exercer eficazmente as funções que lhe incumbem nos termos do presente regulamento. Em especial, a autoridade nacional de controlo deve dispor permanentemente de suficiente pessoal cujas competências e conhecimentos especializados incluam uma compreensão profunda das tecnologias de inteligência artificial, dos dados e da computação de dados, da proteção de dados pessoais, da cibersegurança, do direito da concorrência, dos direitos fundamentais e dos riscos para a saúde e a segurança, bem como conhecimento das normas e dos requisitos legais em vigor. Os Estados-Membros devem avaliar e, se necessário, atualizar anualmente os requisitos em matéria de competências e de recursos a que se refere o presente número.

Alteração 558

Proposta de regulamento

Artigo 59 — n.o 4-A (novo)

Texto da Comissão

Alteração

 

4-A.     Cada autoridade nacional de controlo exerce os seus poderes e desempenha as suas funções de forma independente, imparcial e objetiva. Os membros das autoridades nacionais de controlo — no desempenho das suas funções e no exercício dos poderes que lhe são atribuídos nos termos do presente regulamento — não solicitam nem recebem instruções de qualquer outro organismo e abstêm-se de qualquer ato incompatível com as suas funções.

Alteração 559

Proposta de regulamento

Artigo 59 — n.o 4-B (novo)

Texto da Comissão

Alteração

 

4-B.     As autoridades nacionais de controlo devem satisfazer os requisitos mínimos de cibersegurança estabelecidos para as entidades da administração pública identificadas como operadores de serviços essenciais nos termos da Diretiva (UE) 2022/2555.

Alteração 560

Proposta de regulamento

Artigo 59 — n.o 4-C (novo)

Texto da Comissão

Alteração

 

4-C.     No exercício das suas funções, a autoridade nacional de controlo atua em conformidade com as obrigações de confidencialidade estabelecidas no artigo 70.o.

Alteração 561

Proposta de regulamento

Artigo 59 — n.o 5

Texto da Comissão

Alteração

5.   Os Estados-Membros devem apresentar anualmente relatórios à Comissão sobre a situação dos recursos financeiros e humanos ao dispor das autoridades nacionais competentes , incluindo uma avaliação da sua adequação. A Comissão transmite essas informações ao Comité para apreciação e eventuais recomendações.

5.   Os Estados-Membros devem apresentar anualmente relatórios à Comissão sobre a situação dos recursos financeiros e humanos ao dispor da autoridade nacional de controlo , incluindo uma avaliação da sua adequação. A Comissão transmite essas informações ao Serviço IA para apreciação e eventuais recomendações.

Alteração 562

Proposta de regulamento

Artigo 59 — n.o 6

Texto da Comissão

Alteração

6.     A Comissão facilita o intercâmbio de experiências entre as autoridades nacionais competentes.

Suprimido

Alteração 563

Proposta de regulamento

Artigo 59 — n.o 7

Texto da Comissão

Alteração

7.   As autoridades nacionais competentes podem fornecer orientações e prestar aconselhamento sobre a execução do presente regulamento, nomeadamente aos fornecedores de pequena dimensão . Sempre que as autoridades nacionais competentes pretendam fornecer orientações e prestar aconselhamento em relação a um sistema de IA em domínios abrangidos por outra legislação da União, as autoridades nacionais competentes ao abrigo dessa legislação da União devem ser consultadas , conforme adequado. Os Estados-Membros também podem criar um ponto de contacto central para a comunicação com os operadores.

7.   As autoridades nacionais de controlo podem fornecer orientações e prestar aconselhamento sobre a execução do presente regulamento, nomeadamente às PME e empresas em fase de arranque, tendo em conta as orientações e o aconselhamento do Serviço IA ou da Comissão . Sempre que as autoridades nacionais de controlo pretendam fornecer orientações e prestar aconselhamento em relação a um sistema de IA em domínios abrangidos por outra legislação da União, as orientações devem ser elaboradas em consulta com as autoridades nacionais competentes ao abrigo dessa legislação da União, conforme adequado.

Alteração 564

Proposta de regulamento

Artigo 59 — n.o 8

Texto da Comissão

Alteração

8.   Sempre que as instituições, órgãos e organismos da União se insiram no âmbito do presente regulamento, a Autoridade Europeia para a Proteção de Dados deve atuar como a autoridade competente para o controlo dos mesmos.

8.   Sempre que as instituições, órgãos e organismos da União se insiram no âmbito do presente regulamento, a Autoridade Europeia para a Proteção de Dados deve atuar como a autoridade competente para o controlo e a coordenação dos mesmos.

Alteração 565

Proposta de regulamento

Artigo 59-A (novo)

Texto da Comissão

Alteração

 

Artigo 59.o-A

 

Mecanismo de cooperação entre as autoridades nacionais de controlo em casos que envolvam dois ou mais Estados-Membros

 

1.     Cada autoridade nacional de controlo desempenha as suas funções e exerce os poderes que lhe são conferidos pelo presente regulamento no território do seu próprio Estado-Membro.

 

2.     Se um caso envolver duas ou mais autoridades nacionais de controlo, considera-se que a autoridade de controlo principal é a autoridade nacional de controlo do Estado-Membro onde ocorreu a infração.

 

3.     Nos casos a que se refere o n.o 2, as autoridades de controlo pertinentes cooperam e trocam todas as informações relevantes em tempo útil. As autoridades nacionais de controlo devem cooperar para chegar a um consenso.

Alteração 566

Proposta de regulamento

Título VII

Texto da Comissão

Alteração

VII BASE DE DADOS DA UE RELATIVA A SISTEMAS DE INTELIGÊNCIA ARTIFICIAL DE RISCO ELEVADO AUTÓNOMOS

BASE DE DADOS DA UE RELATIVA A SISTEMAS DE INTELIGÊNCIA ARTIFICIAL DE RISCO ELEVADO

Alteração 567

Proposta de regulamento

Artigo 60 — título

Texto da Comissão

Alteração

Base de dados da UE relativa a sistemas de inteligência artificial de risco elevado autónomos

Base de dados da UE relativa a sistemas de inteligência artificial de risco elevado

Alteração 568

Proposta de regulamento

Artigo 60 — n.o 1

Texto da Comissão

Alteração

1.   A Comissão, em colaboração com os Estados-Membros, cria e mantém uma base de dados da UE que contenha as informações referidas no n.o  2 relativas aos sistemas de IA de risco elevado a que se refere o artigo 6.o, n.o 2, que sejam registados em conformidade com o artigo 51.o.

1.   A Comissão, em colaboração com os Estados-Membros, cria e mantém uma base de dados pública da UE que contenha as informações referidas nos n.os  2 e 2-A relativas aos sistemas de IA de risco elevado a que se refere o artigo 6.o, n.o 2, que sejam registados em conformidade com o artigo 51.o.

Alteração 569

Proposta de regulamento

Artigo 60 — n.o 2

Texto da Comissão

Alteração

2.   Cabe aos fornecedores introduzir os dados enumerados no anexo VIII na base de dados da UE. A Comissão faculta-lhes apoio técnico e administrativo.

2.   Cabe aos fornecedores introduzir os dados enumerados no anexo VIII , Secção A, na base de dados da UE.

Alteração 570

Proposta de regulamento

Artigo 60 — n.o 2-A (novo)

Texto da Comissão

Alteração

 

2-A.     A tarefa de introduzir os dados enumerados no anexo VIII, Secção B, na base de dados da UE cabe aos responsáveis pela implantação que sejam autoridades públicas ou instituições, órgãos, organismos ou agências da União, ou que atuem em seu nome, e aos responsáveis pela implantação que sejam empresas referidas no artigo 51.o, n.os 1-A e 1-B.

Alteração 571

Proposta de regulamento

Artigo 60 — n.o 3

Texto da Comissão

Alteração

3.   As informações que constam da base de dados da UE devem estar acessíveis ao público.

3.   As informações que constam da base de dados da UE devem estar disponíveis gratuitamente ao público , ser conviviais, acessíveis, de fácil navegação e legíveis por máquina, contendo dados digitais estruturados com base num protocolo normalizado .

Alteração 572

Proposta de regulamento

Artigo 60 — n.o 4

Texto da Comissão

Alteração

4.   A base de dados da UE só pode conter dados pessoais se estes forem necessários para recolher e tratar informações em conformidade com o presente regulamento. Essas informações incluem os nomes e os contactos das pessoas singulares responsáveis pelos registos no sistema e com autoridade jurídica para representar o fornecedor.

4.   A base de dados da UE só pode conter dados pessoais se estes forem necessários para recolher e tratar informações em conformidade com o presente regulamento. Essas informações incluem os nomes e os contactos das pessoas singulares responsáveis pelos registos no sistema e com autoridade jurídica para representar o fornecedor ou o responsável pela implantação que seja uma autoridade pública ou uma instituição, órgão, organismo ou agência da União, ou que atue em seu nome, ou um responsável pela implantação que seja uma empresa referida no artigo 51.o, n.o 1-A, alínea b), e n.o 1-B .

Alteração 573

Proposta de regulamento

Artigo 60 — n.o 5

Texto da Comissão

Alteração

5.   A Comissão é considerada responsável pelo tratamento de dados da base de dados da UE. Além disso, assegura aos fornecedores o apoio técnico e administrativo adequado.

5.   A Comissão é considerada responsável pelo tratamento de dados da base de dados da UE. Além disso, assegura aos fornecedores e responsáveis pela implantação o apoio técnico e administrativo adequado.

 

A base de dados deve cumprir os requisitos de acessibilidade previstos no anexo I da Diretiva (UE) 2019/882.

Alteração 574

Proposta de regulamento

Artigo 61 — n.o 2

Texto da Comissão

Alteração

2.   O sistema de acompanhamento pós-comercialização deve recolher, documentar e analisar de forma ativa e sistemática dados pertinentes fornecidos pelos utilizadores ou recolhidos por meio de outras fontes sobre o desempenho dos sistemas de IA de risco elevado ao longo da sua vida útil, bem como permitir ao fornecedor avaliar a contínua conformidade dos sistemas de IA com os requisitos estabelecidos no título III, capítulo 2.

2.   O sistema de acompanhamento pós-comercialização deve recolher, documentar e analisar de forma ativa e sistemática dados pertinentes fornecidos pelos responsáveis pela implantação ou recolhidos por meio de outras fontes sobre o desempenho dos sistemas de IA de risco elevado ao longo da sua vida útil, bem como permitir ao fornecedor avaliar a contínua conformidade dos sistemas de IA com os requisitos estabelecidos no título III, capítulo 2. Se for caso disso, a fiscalização pós-comercialização deve incluir uma análise da interação com outros sistemas de IA, incluindo outros dispositivos e software, tendo em conta as regras aplicáveis em domínios como a proteção de dados, os direitos de propriedade intelectual e o direito da concorrência.

Alteração 575

Proposta de regulamento

Artigo 61 — n.o 3

Texto da Comissão

Alteração

3.   O sistema de monitorização pós-comercialização deve basear-se num plano de acompanhamento pós-comercialização. O plano de acompanhamento pós-comercialização deve fazer parte da documentação técnica referida no anexo IV. A Comissão adota um ato de execução com disposições pormenorizadas que estabeleçam um modelo para o plano de acompanhamento pós-comercialização e a lista de elementos a incluir no plano.

3.   O sistema de monitorização pós-comercialização deve basear-se num plano de acompanhamento pós-comercialização. O plano de acompanhamento pós-comercialização deve fazer parte da documentação técnica referida no anexo IV. A Comissão adota um ato de execução com disposições pormenorizadas que estabeleçam um modelo para o plano de acompanhamento pós-comercialização e a lista de elementos a incluir no plano até … [12 meses após a data de entrada em vigor do presente regulamento] .

Alteração 576

Proposta de regulamento

Artigo 62 — título

Texto da Comissão

Alteração

Comunicação de incidentes graves e anomalias

Comunicação de incidentes graves

Alteração 577

Proposta de regulamento

Artigo 62 — n.o 1 — parágrafo 1

Texto da Comissão

Alteração

1.   Os fornecedores de sistemas de IA de risco elevado colocados no mercado da União devem comunicar quaisquer incidentes graves ou anomalias desses sistemas que constituam um incumprimento de obrigações impostas pela legislação da União destinada a proteger os direitos fundamentais às autoridades de fiscalização do mercado dos Estados-Membros onde esse incidente ou incumprimento ocorrer.

1.   Os fornecedores e — se os responsáveis pela implantação tiverem identificado um incidente grave — os responsáveis pela implantação de sistemas de IA de risco elevado colocados no mercado da União devem comunicar quaisquer incidentes graves desses sistemas que constituam um incumprimento de obrigações impostas pela legislação da União destinada a proteger os direitos fundamentais às autoridades nacionais de controlo dos Estados-Membros onde esse incidente ou incumprimento ocorrer.

Alteração 578

Proposta de regulamento

Artigo 62 — n.o 1 — parágrafo 2

Texto da Comissão

Alteração

Essa notificação deve ser efetuada imediatamente após o fornecedor ter determinado uma relação causal entre o sistema de IA e o incidente ou anomalia ou a probabilidade razoável dessa relação e, em qualquer caso, o mais tardar 15 dias após o fornecedor ter conhecimento do incidente grave ou da anomalia .

Essa notificação deve ser efetuada sem demora indevida após o fornecedor ou o responsável pela implantação, conforme aplicável, ter determinado uma relação causal entre o sistema de IA e o incidente ou a probabilidade razoável dessa relação e, em qualquer caso, o mais tardar 72 horas após o fornecedor ou o responsável pela implantação, conforme aplicável, ter conhecimento do incidente grave.

Alteração 579

Proposta de regulamento

Artigo 62 — n.o 1-A (novo)

Texto da Comissão

Alteração

 

1-A.     Depois de determinarem uma relação causal entre o sistema de IA e o incidente grave ou a probabilidade razoável dessa relação, os fornecedores devem adotar as medidas corretivas adequadas nos termos do artigo 21.o.

Alteração 580

Proposta de regulamento

Artigo 62 — n.o 2

Texto da Comissão

Alteração

2.   Após receção de uma notificação relacionada com um incumprimento de obrigações impostas por legislação da União destinada a proteger os direitos fundamentais, a autoridade de fiscalização do mercado deve informar as autoridades ou os organismos públicos nacionais referidos no artigo 64.o, n.o 3. A Comissão elabora orientações específicas para facilitar o cumprimento das obrigações previstas no n.o 1. As referidas orientações devem ser publicadas , o mais tardar, 12 meses após a entrada em vigor do presente regulamento .

2.   Após receção de uma notificação relacionada com um incumprimento de obrigações impostas por legislação da União destinada a proteger os direitos fundamentais, a autoridade nacional de controlo deve informar as autoridades ou os organismos públicos nacionais referidos no artigo 64.o, n.o 3. A Comissão elabora orientações específicas para facilitar o cumprimento das obrigações previstas no n.o 1. As referidas orientações devem ser publicadas até… [entrada em vigor do presente regulamento] e ser regularmente avaliadas .

Alteração 581

Proposta de regulamento

Artigo 62 — n.o 2-A (novo)

Texto da Comissão

Alteração

 

2-A.     As autoridades nacionais de controlo devem tomar medidas adequadas no prazo de sete dias a contar da data em que recebem a notificação a que se refere o n.o 1. Caso a violação ocorra ou seja suscetível de ocorrer noutros Estados-Membros, a autoridade nacional de controlo deve notificar o Serviço IA e autoridades nacionais de controlo competentes desses Estados-Membros.

Alteração 582

Proposta de regulamento

Artigo 62 — n.o 3

Texto da Comissão

Alteração

3.   Relativamente aos sistemas de IA de risco elevado referidos no anexo III , ponto 5, alínea b), colocados no mercado ou colocados em serviço por fornecedores que sejam instituições de crédito regulamentadas pela Diretiva 2013/36/UE e relativamente aos sistemas de IA de risco elevado que sejam componentes de segurança de dispositivos ou sejam, eles próprios, dispositivos abrangidos pelos Regulamentos (UE) 2017/745 e (UE) 2017/746 , a notificação de incidentes graves ou anomalias limita-se aos casos que constituam um incumprimento de obrigações impostas por legislação da União destinada a proteger os direitos fundamentais.

3.   Relativamente aos sistemas de IA de risco elevado referidos no anexo III colocados no mercado ou colocados em serviço por fornecedores que estejam sujeitos a instrumentos legislativos da União que definem obrigações de comunicação de informações equivalentes às descritas no presente regulamento , a notificação de incidentes graves que constituam um incumprimento dos direitos fundamentais nos termos da legislação da União é transferida para a autoridade nacional de controlo .

Alteração 583

Proposta de regulamento

Artigo 62 — n.o 3-A (novo)

Texto da Comissão

Alteração

 

3-A.     As autoridades nacionais de controlo notificam anualmente o Serviço IA sobre os incidentes graves que lhes tenham sido comunicados, em conformidade com o presente artigo.

Alteração 584

Proposta de regulamento

Artigo 63 — n.o 1 — parte introdutória

Texto da Comissão

Alteração

1.   O Regulamento (UE) 2019/1020 é aplicável aos sistemas de IA abrangidos pelo presente regulamento. Contudo, para efeitos da execução efetiva do presente regulamento:

1.   O Regulamento (UE) 2019/1020 é aplicável aos sistemas de IA e modelos de base abrangidos pelo presente regulamento. Contudo, para efeitos da execução efetiva do presente regulamento:

Alteração 585

Proposta de regulamento

Artigo 63 — n.o 1 — alínea b-A) (nova)

Texto da Comissão

Alteração

 

b-A)

As autoridades nacionais de controlo atuam como autoridades de fiscalização do mercado, ao abrigo do presente regulamento, e têm os mesmos poderes e obrigações que as autoridades de fiscalização do mercado, ao abrigo do Regulamento (UE) 2019/1020.

Alteração 586

Proposta de regulamento

Artigo 63 — n.o 2

Texto da Comissão

Alteração

2.   A autoridade nacional de controlo deve comunicar regularmente à Comissão os resultados das atividades de fiscalização do mercado pertinentes. A autoridade nacional de controlo deve comunicar, sem demora, à Comissão e às autoridades nacionais da concorrência adequadas quaisquer informações reveladas no decurso de atividades de fiscalização do mercado que possam ter interesse para efeitos de aplicação do direito da União relativo às regras de concorrência.

2.   A autoridade nacional de controlo deve comunicar anualmente à Comissão e ao Serviço IA os resultados das atividades de fiscalização do mercado pertinentes. A autoridade nacional de controlo deve comunicar, sem demora, à Comissão e às autoridades nacionais da concorrência adequadas quaisquer informações reveladas no decurso de atividades de fiscalização do mercado que possam ter interesse para efeitos de aplicação do direito da União relativo às regras de concorrência.

Alteração 587

Proposta de regulamento

Artigo 63 — n.o 3-A (novo)

Texto da Comissão

Alteração

 

3-A.     A fim de assegurar a aplicação eficaz do presente regulamento, as autoridades nacionais de controlo podem:

 

a)

Efetuar inspeções no local e inspeções à distância, sem aviso prévio, dos sistemas de IA de risco elevado;

 

b)

Obter amostras relacionadas com sistemas de IA de risco elevado, nomeadamente através de inspeções à distância, da engenharia reversa dos sistemas de IA e da obtenção de provas para identificar a não conformidade.

Alteração 588

Proposta de regulamento

Artigo 63 — n.o 5

Texto da Comissão

Alteração

5.   No respeitante aos sistemas de IA enumerados no anexo III, ponto 1, alínea a), contanto que sejam utilizados para efeitos de manutenção da ordem pública, e pontos 6 e 7, os Estados-Membros devem designar como autoridades de fiscalização do mercado para efeitos do presente regulamento as autoridades de controlo no domínio da proteção de dados, designadas nos termos da Diretiva (UE) 2016/680 ou do Regulamento (UE) 2016/679, ou as autoridades nacionais competentes que fiscalizam as atividades das autoridades competentes em matéria de manutenção da ordem pública, imigração ou asilo que colocam em serviço ou utilizam esses sistemas .

5.   No respeitante aos sistemas de IA que são utilizados para efeitos de manutenção da ordem pública, os Estados-Membros devem designar como autoridades de fiscalização do mercado para efeitos do presente regulamento as autoridades de controlo no domínio da proteção de dados, designadas nos termos da Diretiva (UE) 2016/680.

Alteração 589

Proposta de regulamento

Artigo 63 — n.o 7

Texto da Comissão

Alteração

7.    Os Estados-Membros devem facilitar a coordenação entre as autoridades de fiscalização do mercado designadas nos termos do presente regulamento e outras autoridades ou organismos nacionais competentes que supervisionam a aplicação da legislação de harmonização da União enunciada no anexo III ou de outra legislação da União que possa ser aplicável aos sistemas de IA de risco elevado referidos no anexo III.

7.    As autoridades nacionais de controlo designadas nos termos do presente regulamento devem articular-se com as outras autoridades ou organismos nacionais competentes que supervisionam a aplicação da legislação de harmonização da União enunciada no anexo III ou de outra legislação da União que possa ser aplicável aos sistemas de IA de risco elevado referidos no anexo III.

Alteração 590

Proposta de regulamento

Artigo 64 — n.o 1

Texto da Comissão

Alteração

1.   No que toca ao acesso a dados e a documentação no contexto das suas atividades, as autoridades de fiscalização do mercado devem dispor de total acesso aos conjuntos de dados de treino, validação e teste utilizados pelo fornecedor, incluindo através de interfaces de programação de aplicações ou outros meios e ferramentas técnicas adequadas que possibilitem o acesso remoto .

1.   No contexto das suas atividades , e mediante pedido fundamentado, a autoridade nacional de controlo deve dispor de total acesso aos conjuntos de dados de treino, validação e teste utilizados pelo prestador ou, se for caso disso, pelo responsável pela implantação, que sejam pertinentes e estritamente necessários para efeitos do seu pedido, através de ferramentas técnicas adequadas.

Alteração 591

Proposta de regulamento

Artigo 64 — n.o 2

Texto da Comissão

Alteração

2.   Sempre que necessário para avaliar a conformidade do sistema de IA de risco elevado com os requisitos estabelecidos no título III, capítulo 2, e mediante pedido fundamentado, deve ser concedido às autoridades de fiscalização do mercado o acesso ao código-fonte do sistema de IA.

2.   Sempre que necessário para avaliar a conformidade do sistema de IA de risco elevado com os requisitos estabelecidos no título III, capítulo 2 , depois de todas as outras formas razoáveis de verificação da conformidade terem sido esgotadas ou se revelarem insuficientes, e mediante pedido fundamentado, deve ser concedido à autoridade nacional de controlo o acesso aos modelos de treino e treinados do sistema de IA , incluindo os respetivos parâmetros do modelo pertinentes . Todas as informações obtidas em conformidade com o artigo 70.o são tratadas como informações confidenciais, estão sujeitas ao direito da União em vigor em matéria de proteção da propriedade intelectual e dos segredos comerciais e são suprimidas após a conclusão do inquérito para o qual as informações foram solicitadas.

Alteração 592

Proposta de regulamento

Artigo 64 — n.o 2-A (novo)

Texto da Comissão

Alteração

 

2-A.     Os números 1 e 2 aplicam-se sem prejuízo dos direitos processuais do operador em causa previstos no artigo 18.o do Regulamento (UE) 2019/1020.

Alteração 593

Proposta de regulamento

Artigo 64 — n.o 3

Texto da Comissão

Alteração

3.   As autoridades ou organismos públicos nacionais que supervisionam ou asseguram, no atinente à utilização de sistemas de IA de risco elevado referidos no anexo III, o respeito das obrigações previstas na legislação da União que protege os direitos fundamentais devem ter poderes para solicitar e aceder a toda a documentação elaborada ou mantida nos termos do presente regulamento, nos casos em que o acesso a essa documentação for necessário para o exercício das competências incluídas nos seus mandatos e dentro dos limites das respetivas jurisdições. A autoridade ou o organismo público competente deve informar a autoridade de fiscalização do mercado do Estado-Membro em causa de qualquer pedido dessa natureza.

3.   As autoridades ou organismos públicos nacionais que supervisionam ou asseguram, no atinente à utilização de sistemas de IA de risco elevado referidos no anexo III, o respeito das obrigações previstas na legislação da União que protege os direitos fundamentais devem ter poderes para solicitar e aceder a toda a documentação elaborada ou mantida nos termos do presente regulamento, nos casos em que o acesso a essa documentação for necessário para o exercício das competências incluídas nos seus mandatos e dentro dos limites das respetivas jurisdições. A autoridade ou o organismo público competente deve informar a autoridade nacional de controlo do Estado-Membro em causa de qualquer pedido dessa natureza.

Alteração 594

Proposta de regulamento

Artigo 64 — n.o 4

Texto da Comissão

Alteração

4.   No prazo de três meses a contar da entrada em vigor do presente regulamento, cada Estado-Membro deve identificar as autoridades ou os organismos públicos referidos no n.o 3 e elaborar uma lista que esteja acessível ao público no sítio Web da autoridade nacional de controlo. Os Estados-Membros devem notificar a lista à Comissão e a todos os outros Estados-Membros e mantê-la atualizada.

4.   No prazo de três meses a contar da entrada em vigor do presente regulamento, cada Estado-Membro deve identificar as autoridades ou os organismos públicos referidos no n.o 3 e elaborar uma lista que esteja acessível ao público no sítio Web da autoridade nacional de controlo. As autoridades nacionais de controlo devem notificar a lista à Comissão , ao Serviço IA e a todas as outras autoridades nacionais de controlo e mantê-la atualizada. A Comissão deve publicar num sítio Web específico a lista de todas as autoridades competentes designadas pelos Estados-Membros em conformidade com o presente artigo.

Alteração 595

Proposta de regulamento

Artigo 64 — n.o 5

Texto da Comissão

Alteração

5.   Se a documentação referida no n.o 3 for insuficiente para determinar se ocorreu um incumprimento de obrigações impostas por legislação da União destinada a proteger os direitos fundamentais, a autoridade ou o organismo público referido no n.o 3 pode apresentar um pedido fundamentado à autoridade de fiscalização do mercado para organizar a testagem do sistema de IA de risco elevado por recurso a meios técnicos. A autoridade de fiscalização do mercado deve organizar a testagem com a participação ativa da autoridade ou do organismo público requerente num prazo razoável após o pedido.

5.   Se a documentação referida no n.o 3 for insuficiente para determinar se ocorreu um incumprimento de obrigações impostas por legislação da União destinada a proteger os direitos fundamentais, a autoridade ou o organismo público referido no n.o 3 pode apresentar um pedido fundamentado à  autoridade nacional de controlo para organizar a testagem do sistema de IA de risco elevado por recurso a meios técnicos. A autoridade nacional de controlo deve organizar a testagem com a participação ativa da autoridade ou do organismo público requerente num prazo razoável após o pedido.

Alteração 596

Proposta de regulamento

Artigo 65 — n.o 1

Texto da Comissão

Alteração

1.   Entende-se por «sistema de IA que apresenta um risco» um «produto que apresenta um risco», na aceção do artigo 3.o, ponto 19, do Regulamento (UE) 2019/1020, contanto que estejam em causa riscos para a saúde e a segurança ou para a proteção dos direitos fundamentais das pessoas.

1.   Entende-se por «sistema de IA que apresenta um risco» um sistema de IA suscetível de afetar negativamente a saúde, a segurança, os direitos fundamentais das pessoas em geral, nomeadamente no local de trabalho, a proteção dos consumidores, o ambiente, a segurança pública, a democracia, o Estado de Direito e outros interesses públicos protegidos pela legislação de harmonização da União aplicável, em medida superior à considerada razoável e aceitável tendo em conta o fim a que se destina ou as condições normais ou razoavelmente previsíveis em que decorrerá a utilização do sistema em causa , designadamente em termos de duração e, se for caso disso, os requisitos de colocação em serviço, instalação e manutenção que lhe são aplicáveis .

Alteração 597

Proposta de regulamento

Artigo 65 — n.o 2 — parte introdutória

Texto da Comissão

Alteração

2.   Se a autoridade de fiscalização do mercado de um Estado-Membro tiver motivos suficientes para considerar que um sistema de IA apresenta um risco, tal como descrito no n.o 1, deve avaliar o sistema de IA em causa no que diz respeito à conformidade do mesmo com todos os requisitos e obrigações previstos no presente regulamento. Se estiverem presentes riscos para a proteção dos direitos fundamentais, a autoridade de fiscalização do mercado também deve informar as autoridades ou os organismos públicos nacionais competentes referidos no artigo 64.o, n.o 3. Os operadores envolvidos devem cooperar na medida do necessário com as autoridades de fiscalização do mercado e as outras autoridades ou organismos públicos nacionais referidos no artigo 64.o, n.o 3.

2.   Se a autoridade nacional de controlo de um Estado-Membro tiver motivos suficientes para considerar que um sistema de IA apresenta um risco, tal como descrito no n.o 1, deve avaliar o sistema de IA em causa no que diz respeito à conformidade do mesmo com todos os requisitos e obrigações previstos no presente regulamento. Se estiverem presentes riscos para os direitos fundamentais, a autoridade nacional de controlo também deve informar imediatamente as autoridades ou os organismos públicos nacionais competentes referidos no artigo 64.o, n.o 3 e cooperar plenamente com estes . Se existirem motivos suficientes para se considerar que um sistema de IA explora, de forma deliberada ou não, as vulnerabilidades de um grupo de risco ou viola os seus direitos, a autoridade nacional de controlo tem o dever de investigar os objetivos de conceção, as entradas de dados, a seleção do modelo, a aplicação e os resultados do sistema de IA. Os operadores envolvidos devem cooperar na medida do necessário com as autoridades nacionais de controlo e as outras autoridades ou organismos públicos nacionais referidos no artigo 64.o, n.o 3;

Alteração 598

Proposta de regulamento

Artigo 65.o — n.o 2 — parágrafo 1

Texto da Comissão

Alteração

Se, no decurso dessa avaliação, a autoridade de fiscalização do mercado verificar que o sistema de IA não cumpre os requisitos e as obrigações previstas no presente regulamento, deve exigir imediatamente ao operador correspondente que tome todas as medidas corretivas adequadas para assegurar a conformidade do sistema de IA, para o retirar do mercado ou para o recolher num prazo fixado pela autoridade que seja razoável e proporcionado à natureza do risco.

Se, no decurso dessa avaliação, a autoridade nacional de controlo ou, se for caso disso, a autoridade pública nacional a que se refere o artigo 64.o, n.o 3, verificar que o sistema de IA não cumpre os requisitos e as obrigações previstas no presente regulamento, deve exigir imediatamente ao operador correspondente que tome todas as medidas corretivas adequadas para assegurar a conformidade do sistema de IA, para o retirar do mercado ou para o recolher num prazo fixado pela autoridade que seja razoável e proporcionado à natureza do risco e, em qualquer caso, o mais tardar em 15 dias úteis ou no prazo fixado pela legislação de harmonização da União, conforme aplicável .

Alteração 599

Proposta de regulamento

Artigo 65 — n.o 2 — parágrafo 2

Texto da Comissão

Alteração

A autoridade de fiscalização do mercado deve informar desse facto o organismo notificado pertinente. O artigo 18.o do Regulamento (UE) 2019/1020 é aplicável às medidas referidas no segundo parágrafo.

A autoridade nacional de controlo deve informar desse facto o organismo notificado pertinente. O artigo 18.o do Regulamento (UE) 2019/1020 é aplicável às medidas referidas no segundo parágrafo.

Alteração 600

Proposta de regulamento

Artigo 65 — n.o 3

Texto da Comissão

Alteração

3.   Se a autoridade de fiscalização do mercado considerar que a não conformidade não se limita ao respetivo território nacional, deve comunicar à Comissão e aos outros Estados-Membros os resultados da avaliação e as medidas que exigiu que o operador tomasse.

3.   Se a autoridade nacional de controlo considerar que a não conformidade não se limita ao respetivo território nacional, deve comunicar sem demora injustificada à Comissão, ao Serviço IA e às autoridades nacionais de controlo dos outros Estados-Membros os resultados da avaliação e as medidas que exigiu que o operador tomasse.

Alteração 601

Proposta de regulamento

Artigo 65 — n.o 5

Texto da Comissão

Alteração

5.   Se o operador de um sistema de IA não adotar as medidas corretivas adequadas no prazo referido no n.o 2, a autoridade de fiscalização do mercado deve tomar todas as medidas provisórias adequadas para proibir ou restringir a disponibilização do sistema de IA no respetivo mercado nacional, para o retirar do mercado ou para o recolher. A referida autoridade deve informar sem demora a Comissão e os outros Estados-Membros da adoção de tais medidas.

5.   Se o operador de um sistema de IA não adotar as medidas corretivas adequadas no prazo referido no n.o 2, a autoridade nacional de controlo deve tomar todas as medidas provisórias adequadas para proibir ou restringir a disponibilização do sistema de IA no respetivo mercado nacional ou a sua colocação em serviço , para o retirar do mercado ou para o recolher. A referida autoridade deve informar imediatamente a Comissão, o Serviço IA e as autoridades nacionais de controlo dos outros Estados-Membros da adoção de tais medidas.

Alteração 602

Proposta de regulamento

Artigo 65 — n.o 6 — parte introdutória

Texto da Comissão

Alteração

6.   A notificação referida no n.o 5 deve conter todas as informações disponíveis, em especial os dados necessários à identificação do sistema de IA não conforme, a origem do sistema de IA, a natureza da alegada não conformidade e o risco conexo, a natureza e a duração das medidas nacionais adotadas, bem como as observações do operador em causa. As autoridades de fiscalização do mercado devem , nomeadamente, indicar se a não conformidade se deve a uma ou várias das seguintes razões:

6.   A notificação referida no n.o 5 deve conter todas as informações disponíveis, em especial os dados necessários à identificação do sistema de IA não conforme, a origem do sistema de IA e da cadeia de abastecimento , a natureza da alegada não conformidade e o risco conexo, a natureza e a duração das medidas nacionais adotadas, bem como as observações do operador em causa. A autoridade nacional de controlo deve , nomeadamente, indicar se a não conformidade se deve a uma ou várias das seguintes razões:

Alteração 603

Proposta de regulamento

Artigo 65 — n.o 6 — alínea a)

Texto da Comissão

Alteração

a)

O incumprimento, por parte do sistema de IA, dos requisitos estabelecidos no título III, capítulo 2 ;

a)

O incumprimento, por parte do sistema de IA de risco elevado , dos requisitos estabelecidos no presente regulamento ;

Alteração 604

Proposta de regulamento

Artigo 65 — n.o 6 — alínea b-A) (nova)

Texto da Comissão

Alteração

 

b-A)

Não observância da proibição das práticas de inteligência artificial referidas no artigo 5.o;

Alteração 605

Proposta de regulamento

Artigo 65 — n.o 6 — alínea b-B) (nova)

Texto da Comissão

Alteração

 

b-B)

Não observância das disposições estabelecidas no artigo 52.o.

Alteração 606

Proposta de regulamento

Artigo 65 — n.o 7

Texto da Comissão

Alteração

7.   As autoridades de fiscalização do mercado dos Estados-Membros, com exceção da autoridade de fiscalização do mercado do Estado-Membro que desencadeou o procedimento, devem informar sem demora a Comissão e os outros Estados-Membros das medidas tomadas e das informações adicionais de que disponham relativamente à não conformidade do sistema de IA em causa e, em caso de desacordo com a medida nacional notificada, das suas objeções.

7.   As autoridades nacionais de controlo dos Estados-Membros, com exceção da autoridade nacional de controlo do Estado-Membro que desencadeou o procedimento, devem informar sem demora a Comissão , o Serviço IA e os outros Estados-Membros das medidas tomadas e das informações adicionais de que disponham relativamente à não conformidade do sistema de IA em causa e, em caso de desacordo com a medida nacional notificada, das suas objeções.

Alteração 607

Proposta de regulamento

Artigo 65 — n.o 8

Texto da Comissão

Alteração

8.   Se, no prazo de três meses a contar da receção das informações referidas no n.o 5, nem os Estados-Membros nem a Comissão tiverem levantado objeções à medida provisória tomada por um Estado-Membro, considera-se que a mesma é justificada. Esta disposição aplica-se sem prejuízo dos direitos processuais do operador em causa previstos no artigo 18.o do Regulamento (UE) 2019/1020.

8.   Se, no prazo de três meses a contar da receção das informações referidas no n.o 5, nem uma autoridade nacional de controlo de um Estado-Membro nem a Comissão tiverem levantado objeções à medida provisória tomada por uma autoridade nacional de controlo de um outro Estado-Membro, considera-se que a mesma é justificada. Esta disposição aplica-se sem prejuízo dos direitos processuais do operador em causa previstos no artigo 18.o do Regulamento (UE) 2019/1020. O prazo a que se refere a primeira frase do presente número é reduzido para 30 dias em caso de não observância da proibição das práticas de inteligência artificial a que se refere o artigo 5.o.

Alteração 608

Proposta de regulamento

Artigo 65 — n.o 9

Texto da Comissão

Alteração

9.   As autoridades de fiscalização do mercado de todos os Estados-Membros devem garantir que as medidas restritivas adequadas relativas ao produto em causa, como a retirada deste do respetivo mercado, sejam tomadas sem demora.

9.   As autoridades nacionais de controlo de todos os Estados-Membros devem garantir que as medidas restritivas adequadas relativas ao sistema de IA em causa, como a retirada deste do respetivo mercado, sejam tomadas sem demora.

Alteração 609

Proposta de regulamento

Artigo 65 — n.o 9-A (novo)

Texto da Comissão

Alteração

 

9-A.     As autoridades nacionais de controlo apresentam anualmente ao Serviço IA um relatório sobre o recurso a práticas proibidas e casos graves de utilização abusiva de sistemas de IA de risco elevado que possam ter ocorrido durante o ano em causa, bem como sobre as medidas tomadas em conformidade com o presente artigo, a fim de eliminar ou atenuar os riscos.

Alteração 610

Proposta de regulamento

Artigo 66 — n.o 1

Texto da Comissão

Alteração

1.   Se, nos três meses subsequentes à receção da notificação a que se refere o artigo 65.o, n.o 5, um Estado-Membro levantar objeções a uma medida tomada por outro Estado-Membro, ou a Comissão considerar que a medida é contrária ao direito da União, a Comissão procede sem demora a consultas com o Estado-Membro e o operador ou operadores em causa e avalia a medida nacional. Em função dos resultados dessa avaliação, a Comissão decide se a medida nacional é ou não justificada no prazo de nove meses a contar da notificação referida no artigo 65.o, n.o 5, e notifica essa decisão ao Estado-Membro em causa.

1.   Se, nos três meses subsequentes à receção da notificação a que se refere o artigo 65.o, n.o 5, ou 30 dias, em caso de não observância da proibição das práticas de inteligência artificial referidas no artigo 5.o, a autoridade nacional de controlo de um Estado-Membro levantar objeções a uma medida tomada por uma autoridade nacional de controlo de outro Estado-Membro, ou a Comissão considerar que a medida é contrária ao direito da União, a Comissão procede sem demora a consultas com a autoridade nacional de controlo do Estado-Membro e o operador ou operadores em causa e avalia a medida nacional. Em função dos resultados dessa avaliação, a Comissão decide se a medida nacional é ou não justificada no prazo de três meses , ou 60 dias, em caso de não observância da proibição das práticas de inteligência artificial referidas no artigo 5.o, a contar da notificação referida no artigo 65.o, n.o 5, e notifica essa decisão à autoridade nacional de controlo do Estado-Membro em causa. A Comissão informa todos as outras autoridades nacionais de controlo dessa decisão.

Alteração 611

Proposta de regulamento

Artigo 66 — n.o 2

Texto da Comissão

Alteração

2.   Se a medida nacional for considerada justificada, todos os Estados-Membros devem tomar as medidas necessárias para garantir que o sistema de IA não conforme seja retirado dos respetivos mercados, informando a Comissão das mesmas . Se a medida nacional for considerada injustificada, o Estado-Membro em causa deve revogá-la.

2.   Se a medida nacional for considerada justificada, todas as autoridades nacionais de controlo designadas nos termos do presente regulamento devem tomar as medidas necessárias para garantir que o sistema de IA não conforme seja retirado sem demora dos respetivos mercados, informando a Comissão e o Serviço IA em conformidade . Se a medida nacional for considerada injustificada, a autoridade nacional de controlo do Estado-Membro em causa deve revogá-la.

Alteração 612

Proposta de regulamento

Artigo 66-A (novo)

Texto da Comissão

Alteração

 

Artigo 66.o-A

Investigações conjuntas

Se uma autoridade nacional de controlo tiver razões para suspeitar que a infração cometida por um fornecedor ou um responsável pela implantação de um sistema de IA ou de um modelo de base de risco elevado ao presente regulamento constitui uma infração generalizada à escala da União, afeta ou é suscetível de afetar pelo menos 45 milhões de pessoas em mais do que um Estado-Membro, essa autoridade nacional de controlo deve informar o Serviço IA e pode solicitar às autoridades nacionais de controlo dos Estados-Membros em que essa infração tenha ocorrido que iniciem uma investigação conjunta. O Serviço IA assegura a coordenação central da investigação conjunta. Os poderes de investigação continuam a recair no âmbito das competências das autoridades nacionais de controlo.

Alteração 613

Proposta de regulamento

Artigo 67 — n.o 1

Texto da Comissão

Alteração

1.   Se, uma vez realizada a avaliação prevista no artigo 65.o, a autoridade de fiscalização do mercado de um Estado-Membro verificar que, embora conforme com o presente regulamento, um sistema de IA apresenta um risco para a saúde ou a segurança das pessoas, para o cumprimento de obrigações impostas por legislação da União ou nacional destinada a proteger os direitos fundamentais ou para outras vertentes de proteção do interesse público, deve exigir ao operador correspondente que tome todas as medidas adequadas para garantir que quando o sistema de IA em causa for colocado no mercado ou colocado em serviço já não apresente esse risco , para o retirar do mercado ou para o recolher num prazo fixado pela autoridade que seja razoável e proporcionado à natureza do risco .

1.   Se, uma vez realizada a avaliação prevista no artigo 65.o, em plena cooperação com a autoridade publica nacional pertinente a que se refere o artigo 64.o, n.o 3, a autoridade nacional de controlo de um Estado-Membro verificar que, embora conforme com o presente regulamento, um sistema de IA apresenta um risco grave para a saúde ou a segurança das pessoas, para o cumprimento de obrigações impostas por legislação da União ou nacional destinada a proteger os direitos fundamentais , o ambiente, a democracia e o Estado de direito ou para outras vertentes de proteção do interesse público, deve exigir ao operador correspondente que tome todas as medidas adequadas para garantir que quando o sistema de IA em causa for colocado no mercado ou colocado em serviço já não apresente esse risco.

Alteração 614

Proposta de regulamento

Artigo 67 — n.o 2

Texto da Comissão

Alteração

2.   O fornecedor ou outros operadores envolvidos devem assegurar que a medida corretiva seja tomada no tocante a todos os sistemas de IA em causa que tenham disponibilizado no mercado da União no prazo fixado pela autoridade de fiscalização do mercado do Estado-Membro referido no n.o 1.

2.   O fornecedor ou outros operadores envolvidos devem assegurar que a medida corretiva seja tomada no tocante a todos os sistemas de IA em causa que tenham disponibilizado no mercado da União no prazo fixado pela autoridade nacional de controlo do Estado-Membro referido no n.o 1.

Alteração 615

Proposta de regulamento

Artigo 67 — n.o 2-A (novo)

Texto da Comissão

Alteração

 

2-A.     Se o fornecedor ou outros operadores pertinentes não tomarem as medidas corretivas referidas no n.o 2 e se o sistema de IA continuar a apresentar um risco tal como referido no n.o 1, a autoridade nacional de controlo pode, como medida de último recurso, exigir ao operador em questão que retire o sistema de IA do mercado ou o recolha num prazo que seja razoável e proporcionado à natureza do risco.

Alteração 616

Proposta de regulamento

Artigo 67 — n.o 3

Texto da Comissão

Alteração

3.    O Estado-Membro deve informar imediatamente a Comissão e os restantes Estados-Membros deste facto. Essa notificação deve incluir todas as informações disponíveis, em particular os dados necessários à identificação do sistema de IA em causa, a origem e a cadeia de abastecimento do sistema de IA, a natureza do risco conexo e a natureza e duração das medidas nacionais adotadas.

3.    A autoridade nacional de controlo deve informar imediatamente a Comissão , o Serviço IA as restantes autoridades nacionais de controlo desse facto. Essa notificação deve incluir todas as informações disponíveis, em particular os dados necessários à identificação do sistema de IA em causa, a origem e a cadeia de abastecimento do sistema de IA, a natureza do risco conexo e a natureza e duração das medidas nacionais adotadas.

Alteração 617

Proposta de regulamento

Artigo 67 — n.o 4

Texto da Comissão

Alteração

4.   A Comissão procede sem demora a consultas com os Estados-Membros e com o operador em causa e avalia as medidas nacionais adotadas. Em função dos resultados dessa avaliação, a Comissão decide se a medida é ou não justificada e, se necessário, propõe medidas adequadas.

4.   A Comissão, em consulta com o Serviço IA procede sem demora a consultas com as autoridades nacionais de controlo em questão e o operador em causa e avalia as medidas nacionais adotadas. Em função dos resultados dessa avaliação, o Serviço IA decide se a medida é ou não justificada e, se necessário, propõe medidas adequadas.

Alteração 618

Proposta de regulamento

Artigo 67 — n.o 5

Texto da Comissão

Alteração

5.   A Comissão designa os Estados-Membros como destinatários da decisão.

5.   A Comissão , em consulta com o Serviço IA, comunica imediatamente a sua decisão às autoridades nacionais de controlo dos Estados-Membros em causa e aos operadores pertinentes . A Comissão informa igualmente todas as outras autoridades nacionais de supervisão da decisão.

Alteração 619

Proposta de regulamento

Artigo 67 — n.o 5-A (novo)

Texto da Comissão

Alteração

 

5-A.     A Comissão aprova orientações para ajudar as autoridades nacionais competentes a identificar e corrigir, quando necessário, problemas semelhantes que surjam noutros sistemas de IA.

Alteração 620

Proposta de regulamento

Artigo 68 — n.o 1 — parte introdutória

Texto da Comissão

Alteração

1.   Se a autoridade de fiscalização do mercado de um Estado-Membro constatar um dos factos a seguir enunciados, deve exigir ao fornecedor em causa que ponha termo à não conformidade verificada:

1.   Se a autoridade nacional de controlo de um Estado-Membro constatar um dos factos a seguir enunciados, deve exigir ao fornecedor em causa que ponha termo à não conformidade verificada:

Alteração 621

Proposta de regulamento

Artigo 68 — n.o 1 — alínea a)

Texto da Comissão

Alteração

a)

A marcação de conformidade foi aposta em violação do disposto no artigo 49.o;

a)

A marcação CE foi aposta em violação do disposto no artigo 49.o;

Alteração 622

Proposta de regulamento

Artigo 68 — n.o 1 — alínea b)

Texto da Comissão

Alteração

b)

A marcação de conformidade não foi aposta;

b)

A marcação CE não foi aposta;

Alteração 623

Proposta de regulamento

Artigo 68 — n.o 1 — alínea e-A) (nova)

Texto da Comissão

Alteração

 

e-A)

A documentação técnica não está disponível;

Alteração 624

Proposta de regulamento

Artigo 68 — n.o 1 — alínea e-B) (nova)

Texto da Comissão

Alteração

 

e-B)

O registo na base de dados da UE não foi efetuado;

Alteração 625

Proposta de regulamento

Artigo 68 — n.o 1 — alínea e-C) (nova)

Texto da Comissão

Alteração

 

e-C)

No caso de o representante autorizado não ter sido nomeado.

Alteração 626

Proposta de regulamento

Artigo 68 — n.o 2

Texto da Comissão

Alteração

2.   Se a não conformidade referida no n.o 1 persistir, o Estado-Membro em causa deve tomar as medidas adequadas para restringir ou proibir a disponibilização no mercado do sistema de IA de risco elevado ou para garantir que o mesmo seja recolhido ou retirado do mercado.

2.   Se a não conformidade referida no n.o 1 persistir, a autoridade nacional de controlo do Estado-Membro em causa deve tomar as medidas adequadas e proporcionadas para restringir ou proibir a disponibilização no mercado do sistema de IA de risco elevado ou para garantir que o mesmo seja recolhido ou retirado do mercado sem demora . A autoridade nacional de controlo do Estado-Membro em causa deve informar imediatamente o Serviço IA da não observância e das medidas tomadas.

Alteração 627

Proposta de regulamento

Artigo 68 — n.o 3-A (novo)

Texto da Comissão

Alteração

 

3-A.

Vias de recurso

Alteração 628

Proposta de regulamento

Artigo 68-A (novo)

Texto da Comissão

Alteração

 

Artigo 68.o-A

 

Direito de apresentar uma queixa junto de uma autoridade nacional de controlo

 

1.     Sem prejuízo de qualquer outra via de recurso administrativo ou judicial, qualquer pessoa singular ou grupo de pessoas singulares tem o direito de apresentar uma queixa junto de uma autoridade nacional de controlo, em especial no Estado-Membro em que reside habitualmente, em que trabalha ou em que se verificou a alegada infração, caso se considere que o sistema de IA que lhe diz respeito viola o presente regulamento.

 

2.     A autoridade nacional de controlo junto da qual tiver sido apresentada a queixa informa o queixoso do andamento e o resultado da queixa, inclusive sobre a possibilidade de um recurso judicial nos termos do artigo 78.o.

Alteração 629

Proposta de regulamento

Artigo 68-B (novo)

Texto da Comissão

Alteração

 

Artigo 68.o-B

 

Direito a intentar ações judiciais efetivas contra uma autoridade nacional de controlo

 

1.     Sem prejuízo de qualquer outra via de recurso administrativo ou extrajudicial, todas as pessoas singulares ou coletivas têm direito a intentar ações judiciais efetivas contra as decisões juridicamente vinculativas das autoridades de controlo que lhes digam respeito.

 

2.     Sem prejuízo de qualquer outra via de recurso administrativo ou extrajudicial, todas as pessoas singulares ou coletivas têm o direito a intentar ações judiciais efetivas, se, no prazo de três meses, a autoridade nacional de controlo competente nos termos do artigo 59.o não tratar uma queixa ou não informar a pessoa em causa da evolução ou do resultado da queixa apresentada nos termos do artigo 68.o-A.

 

3.     As ações de recurso contra uma autoridade nacional de controlo são deduzidas perante os tribunais do Estado-Membro em cujo território se encontra estabelecida a autoridade de controlo em causa.

 

4.     Quando são deduzidas ações de recurso contra uma decisão de uma autoridade nacional de controlo que tenha sido precedida de um parecer ou de uma decisão da Comissão no âmbito do Procedimento de salvaguarda da União, a autoridade de controlo transmite esse parecer ou decisão ao tribunal.

Alteração 630

Proposta de regulamento

Artigo 68-C (novo)

Texto da Comissão

Alteração

 

Artigo 68.o-C

 

Direito a uma explicação a respeito de uma decisão individual

 

1.     Qualquer pessoa afetada sujeita a uma decisão tomada por um responsável pela implantação com base num resultado de um sistema de IA de risco elevado que produza efeitos jurídicos ou que incida de modo semelhante e significativo sobre a pessoa em causa, de tal forma que esta considere ter um impacto negativo na sua saúde, segurança, direitos fundamentais, bem-estar socioeconómico ou quaisquer outros direitos decorrentes das obrigações estabelecidas no presente regulamento, tem o direito de solicitar ao responsável pela implantação uma explicação clara e significativa, nos termos do artigo 13.o, n.o 1, sobre o papel do sistema de IA no processo de tomada de decisão, os principais parâmetros da decisão tomada e os dados de entrada conexos.

 

2.     O n.o 1 não se aplica à utilização de sistemas de IA para os quais decorram do direito da União ou do direito nacional exceções ou restrições à obrigação estabelecida ao abrigo do no n.o 1, conquanto essas exceções ou restrições respeitem a essência dos direitos e liberdades fundamentais e constituam uma medida necessária e proporcionada numa sociedade democrática.

 

3.     O presente artigo aplica-se sem prejuízo dos artigos 13.o, 14.o, 15.o e 22.o do Regulamento (UE) 2016/679.

Alteração 631

Proposta de regulamento

Artigo 68-D (novo)

Texto da Comissão

Alteração

 

Artigo 68.o-D

 

Alteração da Diretiva (UE) 2020/1828

 

Ao anexo I da Diretiva (UE) 2020/1828 do Parlamento Europeu e do Conselho  (1-A) , é aditado o seguinte ponto:

 

«(67.o-A)

Regulamento xxxx/xxxx do Parlamento Europeu e do Conselho [que estabelece regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial) e altera determinados atos legislativos da União (JO L …)]».

Alteração 632

Proposta de regulamento

Artigo 68-E (novo)

Texto da Comissão

Alteração

 

Artigo 68.o- E

Denúncia de infrações e proteção dos autores da denúncia

Aplica-se à denúncia de infrações ao presente regulamento e à proteção das pessoas que denunciam essas infrações a Diretiva (UE) 2019/1937 do Parlamento Europeu e do Conselho.

Alteração 633

Proposta de regulamento

Artigo 69 — n.o 1

Texto da Comissão

Alteração

1.   A Comissão e os Estados-Membros devem incentivar e facilitar a elaboração de códigos de conduta destinados a fomentar a aplicação voluntária dos requisitos estabelecidos no título III, capítulo 2, a sistemas de IA que não sejam sistemas de IA de risco elevado, com base em especificações técnicas e soluções que configurem meios adequados de assegurar a conformidade com os referidos requisitos atendendo à finalidade prevista dos sistemas.

1.   A Comissão, o Serviço IA e os Estados-Membros devem incentivar e facilitar a elaboração de códigos de conduta – designadamente quando forem elaborados para demonstrar a forma como os sistemas de IA respeitam os princípios definidos no artigo 4.o-A, podendo assim ser considerados de confiança – destinados a fomentar a aplicação voluntária dos requisitos estabelecidos no título III, capítulo 2, a sistemas de IA que não sejam sistemas de IA de risco elevado, com base em especificações técnicas e soluções que configurem meios adequados de assegurar a conformidade com os referidos requisitos atendendo à finalidade prevista dos sistemas.

Alteração 634

Proposta de regulamento

Artigo 69 — n.o 2

Texto da Comissão

Alteração

2.    A Comissão e o Comité devem incentivar e facilitar a elaboração de códigos de conduta destinados a fomentar a  aplicação voluntária a sistemas de IA de requisitos relacionados, por exemplo, com a sustentabilidade ambiental , a acessibilidade das pessoas com deficiência, a participação das partes interessadas na conceção e no desenvolvimento de sistemas de IA e a diversidade das equipas de desenvolvimento, com base em objetivos claros e indicadores-chave de desempenho que permitam medir a consecução desses objetivos .

2.    Os códigos de conduta destinados a fomentar a  conformidade voluntária com os princípios subjacentes a sistemas de IA de confiança devem, em especial :

 

a)

Visar dotar o seu pessoal e outras pessoas envolvidas no funcionamento e utilização de sistemas de IA de um nível de literacia em matéria de IA suficiente para respeitar esses princípios;

 

b)

Avaliar em que medida os seus sistemas de IA podem afetar pessoas ou grupos de pessoas vulneráveis — incluindo crianças, idosos, migrantes e pessoas com deficiência — ou se podem ser adotadas medidas adicionais para aumentar a acessibilidade ou apoiar doutra forma tais pessoas ou grupos de pessoas;

 

c)

Ponderar de que forma a utilização dos seus sistemas de IA pode ter impacto ou aumentar a diversidade, o equilíbrio de género e a igualdade;

 

d)

Considerar se os seus sistemas de IA podem ser utilizados de um modo passível de, direta ou indiretamente, reforçar residual ou substancialmente enviesamentos ou desigualdades existentes;

 

e)

Examinar a necessidade e a pertinência de criar equipas de desenvolvimento diversas, com vista a garantir uma conceção inclusiva dos seus sistemas;

 

f)

Ponderar cuidadosamente se os seus sistemas podem ter um impacto social negativo, nomeadamente no que toca às instituições políticas e aos processos democráticos;

 

g)

Avaliar de que forma os sistemas de IA podem contribuir para a sustentabilidade ambiental e, em especial, os compromissos da União ao abrigo do Pacto Ecológico Europeu e da Declaração Europeia sobre os Direitos e Princípios Digitais .

Alteração 635

Proposta de regulamento

Artigo 69 — n.o 3

Texto da Comissão

Alteração

3.   Os códigos de conduta podem ser elaborados por fornecedores de sistemas de IA a título individual ou por organizações que os representem, ou ambos, nomeadamente com a participação de utilizadores e de quaisquer partes interessadas e das respetivas organizações representativas. Os códigos de conduta podem abranger um ou mais sistemas de IA, tendo em conta a semelhança da finalidade prevista desses sistemas.

3.   Os códigos de conduta podem ser elaborados por fornecedores de sistemas de IA a título individual ou por organizações que os representem, ou ambos, nomeadamente com a participação de utilizadores e de quaisquer partes interessadas , incluindo investigadores científicos, e das respetivas organizações representativas , em especial, os sindicatos e as organizações de consumidores . Os códigos de conduta podem abranger um ou mais sistemas de IA, tendo em conta a semelhança da finalidade prevista desses sistemas. Os prestadores que adotem códigos de conduta designam, pelo menos, uma pessoa singular responsável pelo controlo interno.

Alteração 636

Proposta de regulamento

Artigo 69 — n.o 4

Texto da Comissão

Alteração

4.   A Comissão e o Comité devem ter em conta as necessidades e os interesses específicos dos fornecedores de pequena dimensão e das empresas em fase de arranque quando incentivam e facilitam a elaboração de códigos de conduta.

4.   A Comissão e o Serviço IA devem ter em conta as necessidades e os interesses específicos das PME e das empresas em fase de arranque quando incentivam e facilitam a elaboração de códigos de conduta.

Alteração 637

Proposta de regulamento

Artigo 70 — n.o 1 — parte introdutória

Texto da Comissão

Alteração

1.    As autoridades nacionais competentes e os organismos notificados envolvidos na aplicação do presente regulamento devem respeitar a confidencialidade das informações e dos dados obtidos no exercício das suas funções e atividades de modo que protejam, em especial:

1.    A Comissão, as autoridades nacionais competentes e os organismos notificados , o Serviço IA e qualquer outra pessoa singular ou coletiva envolvida na aplicação do presente regulamento devem respeitar a confidencialidade das informações e dos dados obtidos no exercício das suas funções e atividades de modo que protejam, em especial:

Alteração 638

Proposta de regulamento

Artigo 70 — n.o 1 — alínea a)

Texto da Comissão

Alteração

a)

Os direitos de propriedade intelectual e as informações comerciais confidenciais ou segredos comerciais de uma pessoa singular ou coletiva, incluindo o código-fonte, exceto nos casos a que se refere o artigo 5.o da Diretiva 2016/943 relativa à proteção de know-how e de informações comerciais confidenciais (segredos comerciais) contra a sua aquisição, utilização e divulgação ilegais;

a)

Os direitos de propriedade intelectual e as informações comerciais confidenciais ou segredos comerciais de uma pessoa singular ou coletiva , em conformidade com as disposições da Diretiva 2004/48/EC e da Diretiva 2016/943/CE , incluindo o código-fonte, exceto nos casos a que se refere o artigo 5.o da Diretiva 2016/943 relativa à proteção de know-how e de informações comerciais confidenciais (segredos comerciais) contra a sua aquisição, utilização e divulgação ilegais;

Alteração 639

Proposta de regulamento

Artigo 70 — n.o 1 — alínea b-A) (nova)

Texto da Comissão

Alteração

 

b-A)

Interesses públicos e nacionais em matéria de segurança;

Alteração 640

Proposta de regulamento

Artigo 70 — n.o 1-A (novo)

Texto da Comissão

Alteração

 

1-A.     As autoridades envolvidas na aplicação do presente regulamento nos termos do n.o 1 devem limitar a quantidade de dados solicitados para efeitos de divulgação aos dados estritamente necessários à perceção do risco e à avaliação desse risco. As referidas autoridades devem apagar os dados assim que deixem de ser necessários para a finalidade para a qual foram solicitados. Devem adotar medidas organizativas, técnicas e em matéria de cibersegurança adequadas e eficazes para proteger a segurança e a confidencialidade das informações e dos dados obtidos no exercício das suas atribuições e atividades;

Alteração 641

Proposta de regulamento

Artigo 70 — n.o 2 — parte introdutória

Texto da Comissão

Alteração

2.   Sem prejuízo do n.o 1 , no caso de sistemas de IA de risco elevado referidos no anexo III, pontos 1, 6 e 7, utilizados por autoridades competentes em matéria de manutenção da ordem pública, de imigração ou de asilo, as informações trocadas numa base confidencial entre as autoridades nacionais competentes e entre as autoridades nacionais competentes e a Comissão não podem ser divulgadas sem consultar previamente a autoridade nacional competente de origem e o utilizador , quando tal divulgação prejudicar interesses públicos e nacionais em matéria de segurança.

2.   Sem prejuízo dos n.os 1 e 1-A , no caso de sistemas de IA de risco elevado referidos no anexo III, pontos 1, 6 e 7, utilizados por autoridades competentes em matéria de manutenção da ordem pública, de imigração ou de asilo, as informações trocadas numa base confidencial entre as autoridades nacionais competentes e entre as autoridades nacionais competentes e a Comissão não podem ser divulgadas sem consultar previamente a autoridade nacional competente de origem e o responsável pela implantação , quando tal divulgação prejudicar a segurança pública ou nacional .

Alteração 642

Proposta de regulamento

Artigo 70 — n.o 3

Texto da Comissão

Alteração

3.   O disposto nos n.os 1 e 2 não afeta os direitos e obrigações da Comissão, dos Estados-Membros e dos organismos notificados no que se refere ao intercâmbio de informações e à divulgação de avisos, nem o dever de informação que incumbe às partes em causa no âmbito do direito penal dos Estados-Membros.

3.   O disposto nos n.os 1 , 1-A e 2 não afeta os direitos e obrigações da Comissão, dos Estados-Membros e dos organismos notificados no que se refere ao intercâmbio de informações e à divulgação de avisos, nem o dever de informação que incumbe às partes em causa no âmbito do direito penal dos Estados-Membros.

Alteração 643

Proposta de regulamento

Artigo 70 — n.o 4

Texto da Comissão

Alteração

4.   A Comissão e os Estados-Membros podem, quando necessário, trocar informações confidenciais com autoridades reguladoras de países terceiros com as quais tenham celebrado acordos de confidencialidade bilaterais ou multilaterais desde que garantam um nível adequado de confidencialidade.

4.   A Comissão e os Estados-Membros podem — quando estritamente necessário e no respeito das disposições pertinentes estabelecidas nos acordos internacionais e comerciais – trocar informações confidenciais com autoridades reguladoras de países terceiros com as quais tenham celebrado acordos de confidencialidade bilaterais ou multilaterais desde que garantam um nível adequado de confidencialidade.

Alteração 644

Proposta de regulamento

Artigo 71 — título

Texto da Comissão

Alteração

Sanções e coimas

Sanções

Alteração 645

Proposta de regulamento

Artigo 71 — n.o 1

Texto da Comissão

Alteração

1.   Em conformidade com os termos e as condições previstas no presente regulamento, os Estados-Membros devem estabelecer o regime de sanções , incluindo coimas, aplicáveis em caso de infração ao presente regulamento e devem tomar todas as medidas necessárias para garantir que o mesmo é aplicado correta e eficazmente. As sanções previstas devem ser efetivas, proporcionadas e dissuasivas. Devem ter especialmente em conta os interesses dos fornecedores de pequena dimensão e das empresas em fase de arranque e a respetiva viabilidade económica.

1.   Em conformidade com os termos e as condições previstas no presente regulamento, os Estados-Membros devem estabelecer o regime de sanções aplicáveis em caso de infração ao presente regulamento por parte de qualquer operador e devem tomar todas as medidas necessárias para garantir que o mesmo é aplicado correta e eficazmente e está em consonância com as orientações emitidas pela Comissão e o Serviço IA em conformidade com o artigo 82.o-B . As sanções previstas devem ser efetivas, proporcionadas e dissuasivas. Devem ter em conta os interesses das PME e das empresas em fase de arranque e a respetiva viabilidade económica;

Alteração 646

Proposta de regulamento

Artigo 71 — n.o 2

Texto da Comissão

Alteração

2.   Os Estados-Membros devem notificar a Comissão dessas regras e dessas medidas e também, sem demora, de qualquer alteração ulterior das mesmas.

2.   Os Estados-Membros devem notificar a Comissão e o Gabinete, até [12 meses a contar da data de entrada em vigor do presente regulamento] , dessas regras e dessas medidas e também, sem demora, de qualquer alteração ulterior.

Alteração 647

Proposta de regulamento

Artigo 71 — n.o 3 — parte introdutória

Texto da Comissão

Alteração

3.    Ficam sujeitas a coimas até 30 000 000  EUR ou, se o infrator for uma empresa, até 6  % do seu volume de negócios anual a nível mundial no exercício anterior, consoante o que for mais elevado , as seguintes infrações :

3.    A não observância da proibição das práticas de inteligência artificial referidas no artigo 5.o fica sujeita a coimas até 40 000 000 EUR ou, se o infrator for uma empresa, até 7  % do seu volume de negócios anual a nível mundial no exercício anterior, consoante o que for mais elevado:

Alteração 648

Proposta de regulamento

Artigo 71 — n.o 3 — alínea a)

Texto da Comissão

Alteração

a)

Incumprimento da proibição das práticas de inteligência artificial referidas no artigo 5.o;

Suprimido

Alteração 649

Proposta de regulamento

Artigo 71 — n.o 3 — alínea b)

Texto da Comissão

Alteração

b)

Não conformidade do sistema de IA com os requisitos estabelecidos no artigo 10.o.

Suprimido

Alteração 650

Proposta de regulamento

Artigo 71 — n.o 3-A (novo)

Texto da Comissão

Alteração

 

3-A.     A não conformidade do sistema de IA com os requisitos estabelecidos nos artigos 10.o e 13.o fica sujeita a coimas até 20 000 000  EUR ou, se o infrator for uma empresa, até 4 % do seu volume de negócios anual a nível mundial no exercício anterior, consoante o que for mais elevado.

Alteração 651

Proposta de regulamento

Artigo 71 — n.o 4

Texto da Comissão

Alteração

4.   A não conformidade do sistema de IA com quaisquer requisitos ou obrigações por força do presente regulamento, que não os estabelecidos nos artigos 5.o e 10.o, fica sujeita a coimas até 20 000 000  EUR ou, se o infrator for uma empresa, até 4  % do seu volume de negócios anual a nível mundial no exercício anterior, consoante o que for mais elevado.

4.   A não conformidade do sistema de IA ou do modelo de base com quaisquer requisitos ou obrigações por força do presente regulamento, que não os estabelecidos nos artigos 5.o, 10.o e 13.o , fica sujeita a coimas até 10 000 000  EUR ou, se o infrator for uma empresa, até 2  % do seu volume de negócios anual a nível mundial no exercício anterior, consoante o que for mais elevado;

Alteração 652

Proposta de regulamento

Artigo 71 — n.o 5

Texto da Comissão

Alteração

5.   O fornecimento de informações incorretas, incompletas ou enganadoras aos organismos notificados e às autoridades nacionais competentes em resposta a um pedido fica sujeito a coimas até 10 000 000  EUR ou, se o infrator for uma empresa, até 2  % do seu volume de negócios anual a nível mundial no exercício anterior, consoante o que for mais elevado.

5.   O fornecimento de informações incorretas, incompletas ou enganadoras aos organismos notificados e às autoridades nacionais competentes em resposta a um pedido fica sujeito a coimas até 5 000 000  EUR ou, se o infrator for uma empresa, até 1  % do seu volume de negócios anual a nível mundial no exercício anterior, consoante o que for mais elevado.

Alteração 653

Proposta de regulamento

Artigo 71 — n.o 6 — parte introdutória

Texto da Comissão

Alteração

6.   A decisão relativa ao montante da coima a aplicar em cada caso deve ter em conta todas as circunstâncias pertinentes da situação específica, bem como os seguintes elementos:

6.    As coimas podem ser impostas em complemento ou em substituição de medidas não pecuniárias, como ordens ou avisos.  A decisão relativa ao montante da coima a aplicar em cada caso deve ter em conta todas as circunstâncias pertinentes da situação específica, bem como os seguintes elementos:

Alteração 654

Proposta de regulamento

Artigo 71 — n.o 6 — alínea a)

Texto da Comissão

Alteração

a)

A natureza, a gravidade e a duração da infração e das suas consequências;

a)

A natureza, a gravidade e a duração da infração e das suas consequências , tendo em conta a finalidade do sistema de IA, bem como, se for caso disso, o número de pessoas afetadas e o nível de danos por elas sofridos ;

Alteração 655

Proposta de regulamento

Artigo 71 — n.o 6 — alínea b)

Texto da Comissão

Alteração

b)

Se outras autoridades de fiscalização do mercado já aplicaram coimas ao mesmo operador pela mesma infração;

b)

Se outras autoridades nacionais de controlo de um ou mais Estados-Membros já aplicaram coimas ao mesmo operador pela mesma infração;

Alteração 656

Proposta de regulamento

Artigo 71 — n.o 6 — alínea c)

Texto da Comissão

Alteração

c)

A dimensão e  quota-parte de mercado do operador que cometeu a infração.

c)

A dimensão e  o volume anual de negócios do operador que cometeu a infração.

Alteração 657

Proposta de regulamento

Artigo 71 — n.o 6 — alínea c-A) (nova)

Texto da Comissão

Alteração

 

c-A)

As medidas tomadas pelo fornecedor para atenuar os prejuízos ou danos sofridos pelas pessoas afetadas;

Alteração 658

Proposta de regulamento

Artigo 71 — n.o 6 — alínea c-B) (nova)

Texto da Comissão

Alteração

 

c-B)

O caráter intencional ou negligente da infração;

Alteração 659

Proposta de regulamento

Artigo 71 — n.o 6 — alínea c-C) (nova)

Texto da Comissão

Alteração

 

c-C)

O grau de cooperação com as autoridades nacionais competentes, a fim de sanar a infração e atenuar os seus eventuais efeitos adversos;

Alteração 660

Proposta de regulamento

Artigo 71 — n.o 6 — alínea c-D) (nova)

Texto da Comissão

Alteração

 

c-D)

O grau de responsabilidade do operador tendo em conta as medidas técnicas e organizacionais que implementou;

Alteração 661

Proposta de regulamento

Artigo 71 — n.o 6 — alínea c-E) (nova)

Texto da Comissão

Alteração

 

c-E)

A forma como as autoridades nacionais competentes tomaram conhecimento da infração, em especial se foram notificadas pelo operador, e em caso afirmativo, em que medida o operador notificou a infração;

Alteração 662

Proposta de regulamento

Artigo 71 — n.o 6 — alínea c-F) (nova)

Texto da Comissão

Alteração

 

c-F)

A observância dos códigos de conduta ou mecanismos de certificação aprovados;

Alteração 663

Proposta de regulamento

Artigo 71 — n.o 6 — alínea c-G) (nova)

Texto da Comissão

Alteração

 

c-G)

Anteriores infrações pertinentes cometidas pelo operador;

Alteração 664

Proposta de regulamento

Artigo 71 — n.o 6 — alínea c-H) (nova)

Texto da Comissão

Alteração

 

c-H)

Toda e qualquer outro fator agravante ou atenuante aplicável às circunstâncias do caso concreto.

Alteração 665

Proposta de regulamento

Artigo 71 — n.o 7

Texto da Comissão

Alteração

7.   Cada Estado-Membro deve definir regras que permitam determinar se e em que medida podem ser aplicadas coimas às autoridades e organismos públicos estabelecidos nesse Estado-Membro.

7.   Cada Estado-Membro deve definir regras em matéria de coimas a aplicar às autoridades e organismos públicos estabelecidos nesse Estado-Membro;

Alteração 666

Proposta de regulamento

Artigo 71 — n.o 8-A (novo)

Texto da Comissão

Alteração

 

8-A.     As sanções a que se refere o presente artigo, bem como os custos de contencioso e pedidos de indemnização conexos, não podem ser objeto de cláusulas contratuais nem de outro tipo de acordo de partilha de responsabilidades entre os fornecedores e os distribuidores, importadores, utilizadores ou outros terceiros;

Alteração 667

Proposta de regulamento

Artigo 71 — n.o 8-B (novo)

Texto da Comissão

Alteração

 

8-B.     As autoridades nacionais de controlo informam anualmente o Serviço IA das coimas que tenham aplicado durante esse ano, em conformidade com o presente artigo.

Alteração 668

Proposta de regulamento

Artigo 71 — n.o 8-C (novo)

Texto da Comissão

Alteração

 

8-C.     O exercício dos poderes, pelas autoridades competentes, nos termos do presente artigo, deverá estar sujeito a garantias processuais adequadas, em conformidade com o direito da União e o direito nacional, nomeadamente um recurso judicial efetivo e um processo equitativo;

Alteração 669

Proposta de regulamento

Artigo 72 — n.o 1 — alínea a)

Texto da Comissão

Alteração

a)

A natureza, a gravidade e a duração da infração e das suas consequências;

a)

A natureza, a gravidade e a duração da infração e das suas consequências , tendo em conta a finalidade do sistema de IA em causa, bem como o número de pessoas afetadas e a extensão dos danos por elas sofridos e qualquer infração anterior relevante;

Alteração 670

Proposta de regulamento

Artigo 72 — n.o 1 — alínea a-A) (nova)

Texto da Comissão

Alteração

 

a-A)

Toda e qualquer ação tomada pela instituição, órgão ou organismo da União para atenuar os danos sofridos pelas pessoas afetadas;

Alteração 671

Proposta de regulamento

Artigo 72 — n.o 1 — alínea a-B) (nova)

Texto da Comissão

Alteração

 

a-B)

O grau de responsabilidade da instituição, órgão ou organismo da União, tendo em conta as medidas técnicas e organizacionais que implementaram;

Alteração 672

Proposta de regulamento

Artigo 72 — n.o 1 — alínea b)

Texto da Comissão

Alteração

b)

A cooperação com a Autoridade Europeia para a Proteção de Dados no sentido de corrigir a infração e atenuar os possíveis efeitos adversos da mesma, nomeadamente o cumprimento de eventuais medidas previamente impostas pela Autoridade Europeia para a Proteção de Dados contra a instituição, órgão ou organismo da União em causa relativamente à mesma matéria;

b)

O grau de cooperação com a Autoridade Europeia para a Proteção de Dados no sentido de corrigir a infração e atenuar os possíveis efeitos adversos da mesma, nomeadamente o cumprimento de eventuais medidas previamente impostas pela Autoridade Europeia para a Proteção de Dados contra a instituição, órgão ou organismo da União em causa relativamente à mesma matéria;

Alteração 673

Proposta de regulamento

Artigo 72 — n.o 1 — alínea c-A) (nova)

Texto da Comissão

Alteração

 

c-A)

A forma como a Autoridade Europeia para a Proteção de Dados tomou conhecimento da infração, em especial se a instituição ou o órgão da União a notificaram e, em caso afirmativo, em que medida o fizeram;

Alteração 674

Proposta de regulamento

Artigo 72 — n.o 1 — alínea c-B) (nova)

Texto da Comissão

Alteração

 

c-B)

O orçamento anual do organismo;

Alteração 675

Proposta de regulamento

Artigo 72 — n.o 2 — parte introdutória

Texto da Comissão

Alteração

2.    Ficam sujeitas a coimas até 500 000  EUR as seguintes infrações :

2.    A não observância da proibição das práticas de inteligência artificial referidas no artigo 5.o fica sujeita a coimas até 1 500 000  EUR.

Alteração 676

Proposta de regulamento

Artigo 72 — n.o 2 — alínea a)

Texto da Comissão

Alteração

a)

Incumprimento da proibição das práticas de inteligência artificial referidas no artigo 5.o;

Suprimido

Alteração 677

Proposta de regulamento

Artigo 72 — n.o 2-A (novo)

Texto da Comissão

Alteração

 

2-A.     A não conformidade do sistema de IA com os requisitos estabelecidos no artigo 10.o fica sujeita a coimas até 1 000 000  EUR.

Alteração 678

Proposta de regulamento

Artigo 72 — n.o 3

Texto da Comissão

Alteração

3.   A não conformidade do sistema de IA com quaisquer requisitos ou obrigações por força do presente regulamento, que não os estabelecidos nos artigos 5.o e 10.o, fica sujeita a coimas até 250 000  EUR.

3.   A não conformidade do sistema de IA com quaisquer requisitos ou obrigações por força do presente regulamento, que não os estabelecidos nos artigos 5.o e 10.o, fica sujeita a coimas até 750 000 EUR.

Alteração 679

Proposta de regulamento

Artigo 72 — n.o 6

Texto da Comissão

Alteração

6.   Os fundos recolhidos em resultado da imposição das coimas previstas no presente artigo constituem receitas do orçamento geral da União.

6.   Os fundos recolhidos em resultado da imposição das coimas previstas no presente artigo contribuem para o orçamento geral da União. As coimas não devem afetar a eficácia do funcionamento da instituição, do órgão ou da agência da União alvo de aplicação de coimas.

Alteração 680

Proposta de regulamento

Artigo 72 — n.o 6-A (novo)

Texto da Comissão

Alteração

 

6-A.     A Autoridade Europeia para a Proteção de Dados notifica anualmente o Serviço IA das coimas que aplicou por força do presente artigo.

Alteração 681

Proposta de regulamento

Artigo 73 — n.o 2

Texto da Comissão

Alteração

2.   O poder de adotar atos delegados referido no artigo 4.o, no artigo 7.o, n.o 1, no artigo 11.o, n.o 3, no artigo 43.o, n.os 5 e 6, e no artigo 48.o, n.o 5, é conferido à Comissão por tempo indeterminado contar de [data de entrada em vigor do presente regulamento].

2.   O poder de adotar atos delegados referido no artigo 4.o, no artigo 7.o, n.o 1, no artigo 11.o, n.o 3, no artigo 43.o, n.os 5 e 6, e no artigo 48.o, n.o 5, é conferido à Comissão por um período de cinco anos a contar de … [data de entrada em vigor do presente regulamento]. A Comissão elabora um relatório relativo à delegação de poderes pelo menos nove meses antes do final do prazo de cinco anos. A delegação de poderes é tacitamente prorrogada por prazos de igual duração, salvo se o Parlamento Europeu ou o Conselho a tal se opuserem pelo menos três meses antes do final de cada prazo.

Alteração 682

Proposta de regulamento

Artigo 73 — n.o 3-A (novo)

Texto da Comissão

Alteração

 

3-A.     Antes de adotar um ato delegado, a Comissão consulta as instituições pertinentes, o Gabinete, o Fórum Consultivo e outras partes interessadas pertinentes, em conformidade com os princípios estabelecidos no Acordo Interinstitucional, de 13 de abril de 2016, sobre legislar melhor.

 

Assim que a Comissão tiver decidido elaborar um ato delegado, notifica o Parlamento Europeu desse facto. Esta notificação não impõe à Comissão a obrigação de adotar o referido ato.

Alteração 683

Proposta de regulamento

Artigo 81-A (novo)

Texto da Comissão

Alteração

 

Artigo 81.o -A

 

Alteração do Regulamento (UE) 2019/1020

 

O Regulamento (UE) 2019/1020 é alterado do seguinte modo:

 

Ao artigo 14.o, n.o 4, é aditada o seguinte alínea:

 

«l)

O poder de, se for caso disso, aplicar à distância os poderes previstos no presente artigo;»

Alteração 684

Proposta de regulamento

Artigo 82-A (novo)

Texto da Comissão

Alteração

 

Artigo 82.o-A

Legislar Melhor

Ao ter em conta os requisitos do presente regulamento nos termos das alterações aos artigos 75.o, 76.o, 77.o, 78.o, 79.o, 80.o, 81.o, e 82.o, a Comissão realiza uma análise e consulta as partes interessadas relevantes para determinar potenciais lacunas, bem como sobreposições entre a legislação setorial existente e as disposições do presente regulamento.

Alteração 685

Proposta de regulamento

Artigo 82-B (novo)

Texto da Comissão

Alteração

 

Artigo 82.o-B

 

Orientações da Comissão sobre a aplicação do presente regulamento

 

1.     A Comissão elabora, em consulta com o Serviço IA, orientações sobre a aplicação prática do presente regulamento e, em especial, sobre:

 

a)

A aplicação dos requisitos a que se referem os artigos 8.o a 15.o os artigos 28.o a 28.o-B;

 

b)

As práticas proibidas a que se refere o artigo 5.o,

 

c)

A aplicação prática das disposições relativas à modificação substancial;

 

d)

As circunstâncias práticas em que o resultado de um sistema de IA a que se refere o anexo III representaria um risco significativo em termos de danos para a saúde, a segurança ou os direitos fundamentais das pessoas singulares, tal como referido no artigo 6.o, n.o 2, dando nomeadamente exemplos a respeito dos sistemas de IA de risco elevado a que se refere o anexo III;

 

e)

A aplicação prática das obrigações de transparência estabelecidas no artigo 52.o,

 

f)

A elaboração de códigos de conduta a que se refere o artigo 69.o;

 

g)

A relação do presente regulamento com outra legislação pertinente da União, nomeadamente no que diz respeito à coerência na sua aplicação.

 

h)

A aplicação prática do artigo 12.o, do artigo 28.o-B sobre o impacto ambiental dos modelos de fundações e do anexo IV, ponto 3, alínea b), em especial os métodos de medição e registo que permitem calcular e comunicar o impacto ambiental dos sistemas para efeitos de cumprimento das obrigações estabelecidas no presente regulamento, incluindo a pegada de carbono e a eficiência energética, tendo em conta os métodos mais avançados e as economias de escala.

 

Ao emitir essas orientações, a Comissão deve prestar especial atenção às necessidades das PME, incluindo as empresas em fase de arranque, das autoridades públicas locais e dos setores mais suscetíveis de serem afetados pelo presente regulamento.

 

2.     A pedido dos Estados-Membros ou do Serviço IA, ou por sua própria iniciativa, a Comissão atualiza as orientações já adotadas quando tal for considerado necessário.

Alteração 686

Proposta de regulamento

Artigo 83 — n.o 1 — parte introdutória

Texto da Comissão

Alteração

1.    O presente regulamento não se aplica aos sistemas de IA que sejam componentes dos sistemas informáticos de grande escala criados pelos atos jurídicos enumerados no anexo IX que tenham sido colocados no mercado ou colocados em serviço antes de [ 12 meses após a data de aplicação do presente regulamento referida no artigo 85.o, n.o 2], salvo se a substituição ou alteração desses atos jurídicos implicar uma alteração significativa da conceção ou da finalidade prevista do sistema ou dos sistemas de IA em causa .

1.    Os operadores de sistemas de IA que sejam componentes dos sistemas informáticos de grande escala criados pelos atos jurídicos enumerados no anexo IX que tenham sido colocados no mercado ou colocados em serviço antes de … [data de entrada em vigo r do presente regulamento ] deve tomar as medidas necessárias para cumprir os requisitos estabelecidos no presente regulamento até … [quatro anos a contar da data de entrada em vigor do presente regulamento] .

Alteração 687

Proposta de regulamento

Artigo 83 — n.o 1 — parágrafo 1

Texto da Comissão

Alteração

Os requisitos estabelecidos no presente regulamento devem ser tidos em conta , se for caso disso, na avaliação de cada um dos sistemas informáticos de grande escala criados pelos atos jurídicos enumerados no anexo IX, a realizar como previsto nos respetivos atos.

Os requisitos estabelecidos no presente regulamento devem ser tidos em conta na avaliação de cada um dos sistemas informáticos de grande escala criados pelos atos jurídicos enumerados no anexo IX, a realizar como previsto nos respetivos atos e sempre que esses atos jurídicos sejam substituídos ou alterados .

Alteração 688

Proposta de regulamento

Artigo 83 — n.o 2

Texto da Comissão

Alteração

2.   O presente regulamento só se aplica aos sistemas de IA de risco elevado, que não os referidos no n.o 1, que tenham sido colocados no mercado ou colocados em serviço antes de [data de aplicação do presente regulamento referida no artigo 85.o, n.o 2], se, após esta data, os referidos sistemas forem sido sujeitos a alterações significativas em termos de conceção ou finalidade prevista .

2.   O presente regulamento só se aplica aos operadores de sistemas de IA de risco elevado, que não os referidos no n.o 1, que tenham sido colocados no mercado ou colocados em serviço antes de [data de aplicação do presente regulamento referida no artigo 85.o, n.o 2], se, após esta data, os referidos sistemas tiverem sido objeto de modificações substanciais, na aceção do artigo 3.o, ponto 23) . No caso de sistemas de IA de risco elevado concebidos para serem utilizados por autoridades públicas, os fornecedores e responsáveis pela implantação desses sistemas devem tomar as medidas necessárias para cumprir os requisitos estabelecidos no presente regulamento [dois anos após a data de entrada em vigor do presente regulamento].

Alteração 689

Proposta de regulamento

Artigo 84 — parágrafo 1

Texto da Comissão

Alteração

1.    A Comissão avalia a necessidade de alterar a lista que consta do anexo III uma vez por ano após a entrada em vigor do presente regulamento.

1.    Após consultar o Serviço IA, a Comissão avalia a necessidade de alterar a lista que consta do anexo III , incluindo a extensão dos domínios estabelecidos ou o aditamento de novos domínios a esse anexo, a lista das práticas proibidas que consta do artigo 5.o e a lista dos sistemas de IA que requerem medidas de transparência adicionais que consta do artigo 52.o , uma vez por ano após a entrada em vigor do presente regulamento , na sequência de uma recomendação do Gabinete .

 

A Comissão apresenta os resultados dessa avaliação ao Parlamento Europeu e ao Conselho.

Alteração 690

Proposta de regulamento

Artigo 84 — n.o 2

Texto da Comissão

Alteração

2.   Até [ três anos após a data de aplicação do presente regulamento referida no artigo 85.o, n.o 2] e subsequentemente de quatro em quatro anos, a Comissão apresenta ao Parlamento Europeu e ao Conselho um relatório sobre a avaliação e reexame do presente regulamento. Os relatórios devem ser divulgados ao público.

2.   Até … [ dois anos após a data de aplicação do presente regulamento referida no artigo 85.o, n.o 2] e subsequentemente de dois em dois anos, a Comissão , em conjunto com o Serviço IA, apresenta ao Parlamento Europeu e ao Conselho um relatório sobre a avaliação e reexame do presente regulamento. Os relatórios devem ser divulgados ao público.

Alteração 691

Proposta de regulamento

Artigo 84 — n.o 3 — alínea a)

Texto da Comissão

Alteração

(a)

A situação das autoridades nacionais competentes em termos dos recursos financeiros e humanos necessários para exercer eficazmente as funções que lhes foram atribuídas nos termos do presente regulamento;

(a)

A situação das autoridades nacionais competentes em termos dos recursos financeiros , técnicos e humanos necessários para exercer eficazmente as funções que lhes foram atribuídas nos termos do presente regulamento;

Alteração 692

Proposta de regulamento

Artigo 84 — n.o 3 — alínea b-A) (nova)

Texto da Comissão

Alteração

 

b-A)

O grau de desenvolvimento de normas harmonizadas e especificações comuns para a inteligência artificial;

Alteração 693

Proposta de regulamento

Artigo 84 — n.o 3 — alínea b-B) (nova)

Texto da Comissão

Alteração

 

b-B)

Os níveis de investimento na investigação, no desenvolvimento e na aplicação de sistemas de IA em toda a União;

Alteração 694

Proposta de regulamento

Artigo 84 — n.o 3 — alínea b-C) (nova)

Texto da Comissão

Alteração

 

b-C)

A competitividade do setor europeu de IA relativamente aos setores de IA de países terceiros;

Alteração 695

Proposta de regulamento

Artigo 84 — n.o 3 — alínea b-D) (nova)

Texto da Comissão

Alteração

 

b-D)

O impacto do regulamento no que diz respeito à utilização de recursos e de energia, bem como à produção de resíduos e a outros impactos ambientais;

Alteração 696

Proposta de regulamento

Artigo 84 — n.o 3 — alínea b-E) (nova)

Texto da Comissão

Alteração

 

b-E)

A execução do plano coordenado para a IA, tendo em conta as diferenças entre os Estados-Membros em termos do nível de progresso alcançado e identificando os obstáculos que se colocam à inovação no domínio da IA;

Alteração 697

Proposta de regulamento

Artigo 84 — n.o 3 — alínea b-F (nova)

Texto da Comissão

Alteração

 

b-F)

A atualização dos requisitos específicos a respeito da sustentabilidade dos sistemas de IA e dos modelos de base, baseando-se para tal nos requisitos de comunicação e documentação previstos no anexo IV e no artigo 28.o-B;

Alteração 698

Proposta de regulamento

Artigo 84 — n.o 3 — alínea b) (nova)

Texto da Comissão

Alteração

 

b-G)

O regime jurídico que rege os modelos de base;

Alteração 699

Proposta de regulamento

Artigo 84 — n.o 3 — alínea b) (nova)

Texto da Comissão

Alteração

 

b-H)

A lista de cláusulas contratuais abusivas nos termos do artigo 28.o-A, tendo em conta, se necessário novas práticas comerciais;

Alteração 700

Proposta de regulamento

Artigo 84 — n.o 3-A (novo)

Texto da Comissão

Alteração

 

3-A.     Até … [dois anos após a data de entrada em vigor do presente regulamento a que se refere o artigo 85.o, n.o 2], a Comissão avalia o funcionamento do Serviço IA, a questão de saber se lhe foram atribuídos poderes e competências suficientes para o desempenho das suas funções e se, para a correta aplicação e execução do presente regulamento, seria pertinente e necessário reforçar o Gabinete e os seus poderes em matéria de aplicação da lei, bem como aumentar os seus recursos. A Comissão apresenta esse relatório de avaliação ao Parlamento Europeu e ao Conselho.

Alteração 701

Proposta de regulamento

Artigo 84 — n.o 4

Texto da Comissão

Alteração

4.   No prazo de [ três anos a contar da data de aplicação do presente regulamento referida no artigo 85.o, n.o 2] e subsequentemente de quatro em quatro anos, a Comissão avalia o impacto e a eficácia dos códigos de conduta com vista a fomentar a aplicação dos requisitos estabelecidos no título III, capítulo 2, e, eventualmente, de outros requisitos adicionais a sistemas de IA que não sejam sistemas de IA de risco elevado.

4.   No prazo de … [ um ano a contar da data de aplicação do presente regulamento referida no artigo 85.o, n.o 2] e subsequentemente de dois em dois anos, a Comissão avalia o impacto e a eficácia dos códigos de conduta com vista a fomentar a aplicação dos requisitos estabelecidos no título III, capítulo 2, e, eventualmente, de outros requisitos adicionais a sistemas de IA que não sejam sistemas de IA de risco elevado;

Alteração 702

Proposta de regulamento

Artigo 84 — n.o 5

Texto da Comissão

Alteração

5.   Para efeitos do disposto nos n.os 1 a 4, o  Comité , os Estados-Membros e as autoridades nacionais competentes devem facultar à Comissão as informações que esta solicitar.

5.   Para efeitos do disposto nos n.os 1 a 4, o  Serviço IA , os Estados-Membros e as autoridades nacionais competentes devem , sem demora injustificada, facultar à Comissão as informações que esta solicitar.

Alteração 703

Proposta de regulamento

Artigo 84 — n.o 6

Texto da Comissão

Alteração

6.   Ao efetuar as avaliações e os reexames a que se referem os n.os 1 a 4, a Comissão tem em consideração as posições e as conclusões do Comité , do Parlamento Europeu, do Conselho e de outros organismos ou fontes pertinentes.

6.   Ao efetuar as avaliações e os reexames a que se referem os n.os 1 a 4, a Comissão tem em consideração as posições e as conclusões do Serviço IA , do Parlamento Europeu, do Conselho e de outros organismos ou fontes pertinentes e consulta as partes interessadas pertinentes . O resultado dessa consulta deve ser anexado ao relatório;

Alteração 704

Proposta de regulamento

Artigo 84 — n.o 7

Texto da Comissão

Alteração

7.   Se necessário, a Comissão apresenta propostas adequadas com vista a alterar o presente regulamento, atendendo, em especial, à evolução das tecnologias e aos progressos da sociedade da informação.

7.   Se necessário, a Comissão apresenta propostas adequadas com vista a alterar o presente regulamento, atendendo, em especial, à evolução das tecnologias , ao impacto dos sistemas de IA sobre a saúde e a segurança, os direitos fundamentais, o ambiente, a igualdade, a acessibilidade para as pessoas com deficiência, a democracia e o Estado de Direito e à luz do estádio da evolução da sociedade da informação.

Alteração 705

Proposta de regulamento

Artigo 84 — n.o 7-A (novo)

Texto da Comissão

Alteração

 

7-A.     Para orientar as avaliações e os reexames referidos nos n.os 1 a 4, o Serviço compromete-se a desenvolver uma metodologia objetiva e participativa para a avaliação do nível de risco com base nos critérios estabelecidos nos artigos pertinentes e a inclusão de novos sistemas: na lista que consta do anexo III, incluindo a extensão dos domínios estabelecidos ou o aditamento de novos domínios; na lista das práticas proibidas que consta do artigo 5.o; e na lista sobre sistemas de IA que, nos termos do artigo 52.o, exigem medidas de transparência adicionais.

Alteração 706

Proposta de regulamento

Artigo 84 — n.o 7-B (novo)

Texto da Comissão

Alteração

 

7-B.     Qualquer alteração do presente regulamento nos termos do n.o 7 do presente artigo, ou de futuros atos delegados ou de execução pertinentes que incidam sobre a legislação setorial enumerada no anexo II, secção B, deve ter em conta as especificidades regulamentares de cada setor e os mecanismos aplicáveis em matéria de governação, avaliação da conformidade e de aplicação da lei, bem como as autoridades previstas nos mesmos.

Alteração 707

Proposta de regulamento

Artigo 84 — n.o 7-C (novo)

Texto da Comissão

Alteração

 

7-C.     Até … [cinco anos a contar da data de aplicação do presente regulamento], a Comissão procede a uma avaliação da aplicação do presente regulamento e apresenta um relatório ao Parlamento Europeu, ao Conselho e ao Comité Económico e Social Europeu, tendo em conta os primeiros anos de aplicação do regulamento. Com base nas suas conclusões, tal relatório deve, quando se justifique, ser acompanhado de uma proposta de alteração do presente regulamento no que diz respeito à estrutura de execução e à necessidade de uma agência da UE para resolver quaisquer deficiências identificadas.

Alteração 708

Proposta de regulamento

Anexo I

Texto da Comissão

Alteração

TÉCNICAS E ABORDAGENS NO DOMÍNIO DA INTELIGÊNCIA ARTIFICIAL referidas no artigo 3.o, ponto 1

Suprimido

a)

Abordagens de aprendizagem automática, incluindo aprendizagem supervisionada, não supervisionada e por reforço, utilizando uma grande variedade de métodos, designadamente aprendizagem profunda;

 

b)

Abordagens baseadas na lógica e no conhecimento, nomeadamente representação do conhecimento, programação (lógica) indutiva, bases de conhecimento, motores de inferência e de dedução, sistemas de raciocínio (simbólico) e sistemas periciais;

 

c)

Abordagens estatísticas, estimação de Bayes, métodos de pesquisa e otimização.

 

Alteração 709

Proposta de regulamento

Anexo III — parágrafo 1 — parte introdutória

Texto da Comissão

Alteração

Os sistemas de IA de risco elevado a que se refere o artigo 6.o, n.o 2, são os sistemas de IA incluídos num dos domínios a seguir enumerados :

Os sistemas de IA a que se referem especificamente os pontos 1 a 8-A dizem respeito a casos de utilização críticos e todos eles são considerados sistemas de IA de risco elevado nos termos do artigo 6.o, n.o 2 , desde que preencham os critérios estabelecidos nesse artigo :

Alteração 710

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 1 — parte introdutória

Texto da Comissão

Alteração

1.

Identificação biométrica e categorização de pessoas singulares:

1.

Sistemas biométricos e baseados em biometria

Alteração 711

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 1 — alínea a)

Texto da Comissão

Alteração

a)

Sistemas de IA concebidos para serem utilizados para a identificação biométrica à distância «em tempo real» e «em diferido» de pessoas singulares ;

a)

Sistemas de IA concebidos para serem utilizados para a identificação biométrica de pessoas singulares, com exceção dos sistemas a que se refere o artigo 5.o ;

Alteração 712

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 1 — alínea a-A) (nova)

Texto da Comissão

Alteração

 

a-A)

Sistemas de IA concebidos para serem utilizados para tirar conclusões sobre as características pessoais de pessoas singulares com base na biometria ou em dados biométricos, nomeadamente sistemas de reconhecimento de emoções, com exceção dos mencionados no artigo 5.o.

 

O ponto 1 não inclui os sistemas de IA concebidos para serem utilizados para verificação biométrica com o único propósito de confirmar que uma determinada pessoa singular é a pessoa que alega ser.

Alteração 713

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 2 — alínea a)

Texto da Comissão

Alteração

a)

Sistemas de IA concebidos para serem utilizados como componentes de segurança na gestão e no controlo do trânsito rodoviário e das redes de abastecimento de água, gás, aquecimento e eletricidade .

a)

Sistemas de IA concebidos para serem utilizados como componentes de segurança na gestão e no controlo do tráfego rodoviário , ferroviário e aéreo, a menos que estejam regulamentados na legislação de harmonização ou na regulamentação setorial .

Alteração 714

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 2 — alínea a-A) (nova)

Texto da Comissão

Alteração

 

a-A)

Sistemas de IA concebidos para serem utilizados como componentes de segurança na gestão e no controlo das redes de abastecimento de água, gás, aquecimento e eletricidade.

Alteração 715

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 3 — alínea a)

Texto da Comissão

Alteração

a)

Sistemas de IA concebidos para serem utilizados para fins de determinação do acesso ou da afetação de pessoas singulares a instituições de ensino e de formação profissional;

a)

Sistemas de IA concebidos para serem utilizados para fins de determinação do acesso ou da afetação de pessoas singulares a instituições de ensino e de formação profissional ou para influenciar significativamente as decisões de admissão ;

Alteração 716

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 3 — alínea b)

Texto da Comissão

Alteração

b)

Sistemas de IA concebidos para serem utilizados para fins de avaliação de estudantes em instituições de ensino ou de formação profissional e de avaliação de participantes nos testes habitualmente exigidos para admissão em instituições de ensino.

b)

Sistemas de IA concebidos para serem utilizados para fins de avaliação de estudantes em instituições de ensino ou de formação profissional e de avaliação de participantes nos testes habitualmente exigidos para admissão em tais instituições;

Alteração 717

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 3 — alínea b-A) (nova)

Texto da Comissão

Alteração

 

b-A)

Sistemas de IA concebidos para serem utilizados para fins de determinação do nível adequado de educação de um indivíduo e com repercussões significativas sobre o nível de ensino e formação profissional que o indivíduo em causa adquirirá ou ao qual poderá ter acesso;

Alteração 718

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 3 — alínea h-B) (nova)

Texto da Comissão

Alteração

 

b-B)

Sistemas de IA concebidos para serem utilizados para fins de monitorização e deteção de práticas proibidas por parte de estudantes durante testes no contexto de instituições de ensino e de formação ou em tais instituições;

Alteração 719

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 4 — alínea a)

Texto da Comissão

Alteração

a)

Sistemas de IA concebidos para serem utilizados no recrutamento ou na seleção de pessoas singulares, designadamente para divulgação de vagas , aplicações de triagem ou filtragem, avaliação de candidatos no decurso de entrevistas ou testes;

a)

Sistemas de IA concebidos para serem utilizados no recrutamento ou na seleção de pessoas singulares, designadamente para a publicação de anúncios de emprego direcionados , aplicações de triagem ou filtragem, avaliação de candidatos no decurso de entrevistas ou testes;

Alteração 720

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 4 — alínea b)

Texto da Comissão

Alteração

b)

Sistemas de IA concebidos para serem utilizados na tomada de decisões sobre promoções ou cessações de relações contratuais de trabalho, na repartição de tarefas e  no controlo e avaliação do desempenho e do comportamento de pessoas envolvidas nas referidas relações.

b)

Sistemas de IA concebidos para serem utilizados para tomar ou influenciar significativamente decisões com repercussões sobre o início ou a cessação de relações contratuais de trabalho, promoções, a repartição de tarefas com base no comportamento individual ou em traços de personalidade ou características pessoais ou para controlar e avaliar o desempenho e o comportamento de pessoas envolvidas em tais relações;

Alteração 721

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 5 — alínea a)

Texto da Comissão

Alteração

a)

Sistemas de IA concebidos para serem utilizados por autoridades públicas ou em nome de autoridades públicas para avaliar a elegibilidade de pessoas singulares quanto a prestações e serviços públicos de assistência, bem como para conceder, reduzir, revogar ou recuperar tais prestações e serviços;

a)

Sistemas de IA concebidos para serem utilizados por autoridades públicas ou em seu nome para avaliar a elegibilidade de pessoas singulares quanto a prestações e serviços públicos de assistência , incluindo serviços de saúde e serviços essenciais, nomeadamente mas não exclusivamente, alojamento físico, eletricidade, aquecimento/ventilação e internet, bem como para conceder, reduzir, revogar , aumentar ou recuperar tais prestações e serviços;

Alteração 722

Proposta de regulamento

Anexo III — parágrafo 1 — n.o 5 — alínea b)

Texto da Comissão

Alteração

b)

Sistemas de IA concebidos para serem utilizados para avaliar a capacidade de endividamento de pessoas singulares ou estabelecer a sua classificação de crédito, com exceção dos sistemas de IA colocados em serviço por fornecedores de pequena dimensão para utilização própria ;

b)

Sistemas de IA concebidos para serem utilizados para avaliar a capacidade de endividamento de pessoas singulares ou estabelecer a sua classificação de crédito, com exceção dos sistemas de IA utilizados para efeitos de deteção de fraude financeira ;

Alteração 723

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 5 — alínea b-A) (nova)

Texto da Comissão

Alteração

 

b-A)

Sistemas de IA concebidos para serem utilizados para tomar ou influenciar significativamente decisões sobre a elegibilidade de pessoas singulares para seguros de doença e de vida;

Alteração 724

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 5 — alínea c)

Texto da Comissão

Alteração

c)

Sistemas de IA concebidos para serem utilizados no envio ou no estabelecimento de prioridades no envio de serviços de resposta a emergências, incluindo bombeiros e assistência médica.

c)

Sistemas de IA concebidos para avaliar e classificar chamadas de emergência efetuadas por pessoas singulares ou para serem utilizados no envio ou no estabelecimento de prioridades no envio de serviços de resposta a emergências, incluindo a polícia, autoridade policiais, bombeiros e assistência médica , bem como sistemas de seleção de pacientes do sistema de cuidados de saúde em urgência;

Alteração 725

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 6 — alínea a)

Texto da Comissão

Alteração

(a)

Sistemas de IA concebidos para serem utilizados por autoridades policiais em avaliações individuais de riscos relativamente a pessoas singulares, a fim de determinar o risco de uma pessoa singular cometer infrações ou voltar a cometer infrações ou o risco para potenciais vítimas de infrações penais;

Suprimido

Alteração 726

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 6 — alínea b)

Texto da Comissão

Alteração

b)

Sistemas de IA concebidos para serem utilizados por autoridades policiais como polígrafos e instrumentos similares ou para detetar o estado emocional de uma pessoa singular ;

b)

Sistemas de IA concebidos para serem utilizados por autoridades policiais , ou em seu nome, ou por agências, serviços ou organismos da União em apoio das autoridades policiais como polígrafos e instrumentos similares , na medida em que a sua utilização seja permitida ao abrigo do direito da União e nacional aplicável ;

Alteração 727

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 6 — alínea c)

Texto da Comissão

Alteração

c)

Sistemas de IA concebidos para serem utilizados por autoridades policiais para detetar falsificações profundas referidas no artigo 52.o, n.o 3;

Suprimido

Alteração 728

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 6 — alínea d)

Texto da Comissão

Alteração

d)

Sistemas de IA concebidos para serem utilizados por autoridades policiais para avaliar a fiabilidade dos elementos de prova no decurso da investigação ou repressão de infrações penais;

d)

Sistemas de IA concebidos para serem utilizados por autoridades policiais , ou em seu nome, ou por agências, serviços ou organismos da União em apoio das autoridades policiais para avaliar a fiabilidade dos elementos de prova no decurso da investigação ou repressão de infrações penais;

Alteração 729

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 6 — alínea e)

Texto da Comissão

Alteração

e)

Sistemas de IA concebidos para serem utilizados por autoridades policiais para prever a ocorrência ou a recorrência de uma infração penal real ou potencial com base na definição de perfis de pessoas singulares, na aceção do artigo 3.o, ponto 4, da Diretiva (UE) 2016/680, ou para avaliar os traços de personalidade e as características ou os comportamento criminal passado de pessoas singulares ou grupos;

Suprimido

Alteração 730

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 6 — alínea f)

Texto da Comissão

Alteração

f)

Sistemas de IA concebidos para serem utilizados por autoridades policiais para definir o perfil de pessoas singulares, na aceção do artigo 3.o, ponto 4, da Diretiva (UE) 2016/680, no decurso da deteção, investigação ou repressão de infrações penais;

f)

Sistemas de IA concebidos para serem utilizados por autoridades policiais , ou em seu nome, ou por agências, serviços ou organismos da União em apoio das autoridades policiais para definir o perfil de pessoas singulares, na aceção do artigo 3.o, ponto 4, da Diretiva (UE) 2016/680, no decurso da deteção, investigação ou repressão de infrações penais ou, no caso das agências, serviços ou organismos da União, na aceção do artigo 3.o, n.o 5, do Regulamento (UE) 2018/1725 ;

Alteração 731

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 6 — alínea g)

Texto da Comissão

Alteração

g)

Sistemas de IA concebidos para serem utilizados no estudo analítico de crimes relativos a pessoas singulares, permitindo às autoridades policiais pesquisar grandes conjuntos de dados complexos, relacionados ou não relacionados, disponíveis em diferentes fontes de dados ou em diferentes formatos de dados, no intuito de identificar padrões desconhecidos ou descobrir relações escondidas nos dados.

g)

Sistemas de IA concebidos para serem utilizados pelas autoridades policiais , ou em seu nome, ou por agências, serviços ou organismos da União em apoio das autoridades policiais no estudo analítico de crimes relativos a pessoas singulares, permitindo pesquisar grandes conjuntos de dados complexos, relacionados ou não relacionados, disponíveis em diferentes fontes de dados ou em diferentes formatos de dados, no intuito de identificar padrões desconhecidos ou descobrir relações escondidas nos dados.

Alteração 732

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 7 — alínea a)

Texto da Comissão

Alteração

a)

Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes como polígrafos e instrumentos similares ou para detetar o estado emocional de uma pessoa singular ;

a)

Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes , ou em seu nome, ou por agências, serviços ou organismos da União como polígrafos e instrumentos similares , na medida em que a sua utilização seja permitida ao abrigo do direito da União e nacional aplicável ;

Alteração 733

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 7 — alínea b)

Texto da Comissão

Alteração

b)

Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes para avaliar riscos, incluindo um risco para a segurança, um risco de imigração irregular ou um risco para a saúde, representados por uma pessoa singular que pretenda entrar ou tenha entrado no território de um Estado-Membro;

b)

Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes , ou em seu nome, ou por agências, serviços ou organismos da União para avaliar riscos, incluindo um risco para a segurança, um risco de imigração irregular ou um risco para a saúde, representados por uma pessoa singular que pretenda entrar ou tenha entrado no território de um Estado-Membro;

Alteração 734

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 7 — alínea c)

Texto da Comissão

Alteração

c)

Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes para verificar a autenticidade de documentos de viagem e documentos comprovativos de pessoas singulares e detetar documentos não autênticos por meio da verificação dos seus elementos de segurança;

c)

Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes , ou em seu nome, ou por agências, serviços ou organismos da União para verificar a autenticidade de documentos de viagem e documentos comprovativos de pessoas singulares e detetar documentos não autênticos por meio da verificação dos seus elementos de segurança;

Alteração 735

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 7 — alínea d)

Texto da Comissão

Alteração

d)

Sistemas de IA concebidos para auxiliar autoridades públicas competentes na análise dos pedidos de asilo, de visto e de autorização de residência e das queixas relacionadas, no que toca à elegibilidade das pessoas singulares que requerem determinado estatuto.

d)

Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes, ou em seu nome, ou por agências, serviços ou organismos da União para auxiliar autoridades públicas competentes na análise e apreciação da veracidade das provas relacionadas com pedidos de asilo, de visto e de autorização de residência e das queixas relacionadas, no que toca à elegibilidade das pessoas singulares que requerem determinado estatuto.

Alteração 736

Proposta de regulamento

Anexo III — parágrafo 1 — n.o 7 — alínea d-A) (nova)

Texto da Comissão

Alteração

 

d-A)

Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes, ou em seu nome, ou por agências, serviços ou organismos da União para a gestão da migração, do asilo e do controlo nas fronteiras, a fim de monitorizar, vigiar ou tratar dados no contexto de atividades de gestão das fronteiras para efeitos de deteção, reconhecimento ou identificação de pessoas singulares;

Alteração 737

Proposta de regulamento

Anexo III — parágrafo 1 — n.o 7 — alínea d-B) (nova)

Texto da Comissão

Alteração

 

d-B)

Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes, ou em seu nome, ou por agências, serviços ou organismos da União para a gestão da migração, do asilo e do controlo nas fronteiras, com vista à projeção ou predição de tendências em matéria de correntes migratórias e passagens de fronteiras;

Alteração 738

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 8 — alínea a)

Texto da Comissão

Alteração

a)

Sistemas de IA concebidos para auxiliar uma autoridade judiciária na investigação e na interpretação de factos e do direito e na aplicação da lei a um conjunto específico de factos.

a)

Sistemas de IA concebidos para serem utilizados por uma autoridade judiciária ou por um organismo administrativo, ou em nome destes, para auxiliar uma autoridade judiciária ou um órgão administrativo na investigação e na interpretação de factos e do direito , bem como na aplicação da lei a um conjunto específico de factos , ou utilizados de forma similar na resolução alternativa de litígios .

Alteração 739

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 8 — alínea a-A) (nova)

Texto da Comissão

Alteração

 

a-A)

Sistemas de IA concebidos para serem utilizados para influenciar o resultado de uma eleição ou referendo ou o comportamento eleitoral de pessoas singulares no exercício do seu direito de voto em eleições ou referendos. Tal não inclui os sistemas de IA a cujos resultados as pessoas singulares não estejam diretamente expostas, como as ferramentas utilizadas para organizar, otimizar e estruturar campanhas políticas de um ponto de vista administrativo e logístico.

Alteração 740

Proposta de regulamento

Anexo III — parágrafo 1 — ponto 8 — alínea c-B) (nova)

Texto da Comissão

Alteração

 

a-B)

Sistemas de IA concebidos para serem utilizados por plataformas de redes sociais que tenham sido consideradas «plataformas em linha de muito grande dimensão», na aceção do artigo 33.o do Regulamento (UE) 2022/2065, nos seus sistemas de recomendação, a fim de recomendar ao destinatário conteúdos gerados pelo utilizador disponíveis na plataforma.

Alteração 741

Proposta de regulamento

Anexo IV — parágrafo 1 — ponto 1 — alínea a)

Texto da Comissão

Alteração

a)

A finalidade prevista, a(s) pessoa(s) responsáveis pelo seu desenvolvimento, a data e a versão do sistema;

a)

A finalidade prevista, o nome do fornecedor e a versão do sistema , refletindo a sua posição em relação a versões anteriores e, se for caso disso, a versões mais recentes, na sucessão de revisões ;

Alteração 742

Proposta de regulamento

Anexo IV — parágrafo 1 — ponto 1 — alínea a-A) (nova)

Texto da Comissão

Alteração

 

a-A)

A natureza dos dados que podem ser tratados ou a tratar pelo sistema e, no caso de dados pessoais, as categorias de pessoas singulares e grupos visados ou suscetíveis de serem afetados;

Alteração 743

Proposta de regulamento

Anexo IV — parágrafo 1 — ponto 1 — alínea b)

Texto da Comissão

Alteração

b)

De que forma o sistema de IA interage ou pode ser utilizado para interagir com hardware ou software que não faça parte do próprio sistema de IA, se for caso disso;

b)

De que forma o sistema de IA pode interagir ou ser utilizado para interagir com hardware ou software , incluindo outros sistemas de IA, que não façam parte do próprio sistema de IA, se for caso disso;

Alteração 744

Proposta de regulamento

Anexo IV — parágrafo 1 — ponto 1 — alínea c)

Texto da Comissão

Alteração

c)

As versões do software ou firmware instalado e quaisquer requisitos relacionados com a atualização das versões;

c)

As versões do software ou firmware instalado e , se for caso disso, informações para o responsável pela implantação sobre quaisquer requisitos relacionados com a atualização das versões;

Alteração 745

Proposta de regulamento

Anexo IV — parágrafo 1 — ponto 1 — alínea d)

Texto da Comissão

Alteração

d)

A descrição de todas as formas sob as quais o sistema de IA é colocado no mercado ou colocado em serviço;

d)

A descrição das várias configurações e variantes do sistema de IA que se destinam a ser colocadas no mercado ou em serviço;

Alteração 746

Proposta de regulamento

Anexo IV — parágrafo 1 — ponto 1 — alínea e-A) (nova)

Texto da Comissão

Alteração

 

f-A)

A descrição da interface do responsável pela implantação;

Alteração 747

Proposta de regulamento

Anexo IV — parágrafo 1 — ponto 1 — alínea g)

Texto da Comissão

Alteração

g)

Instruções de utilização para o  utilizador e, se for caso disso, instruções de instalação;

g)

Instruções de utilização para o  responsável pela implantação nos termos do artigo 13.o, n.os 2 e 3, e do artigo 14.o, n.o 4, alínea e), e, se for caso disso, instruções de instalação;

Alteração 748

Proposta de regulamento

Anexo IV — parágrafo 1 — ponto 1 — alínea g-A) (nova)

Texto da Comissão

Alteração

 

g-A)

Uma descrição pormenorizada e facilmente compreensível do ou dos principais objetivos de otimização do sistema;

Alteração 749

Proposta de regulamento

Anexo IV — parágrafo 1 — ponto 1 — alínea g-B) (nova)

Texto da Comissão

Alteração

 

g-B)

Uma descrição pormenorizada e facilmente compreensível dos resultados previstos do sistema e da qualidade prevista dos resultados;

Alteração 750

Proposta de regulamento

Anexo IV — parágrafo 1 — ponto 1 — alínea g-A) (nova)

Texto da Comissão

Alteração

 

g-C)

Instruções pormenorizadas e facilmente compreensíveis para interpretar os resultados do sistema;

Alteração 751

Proposta de regulamento

Anexo IV — parágrafo 1 — ponto 1 — alínea g-A) (nova)

Texto da Comissão

Alteração

 

g-D)

Exemplos de cenários em que o sistema não deva ser utilizado;

Alteração 752

Proposta de regulamento

Anexo IV — parágrafo 1 — ponto 2 — alínea b)

Texto da Comissão

Alteração

b)

As especificações de conceção do sistema, designadamente a lógica geral do sistema de IA e dos algoritmos ; as principais opções de conceção, nomeadamente a lógica subjacente e os pressupostos utilizados, também no respeitante às pessoas ou grupos de pessoas em relação às quais se pretende que o sistema seja utilizado; as principais opções de classificação; o que se pretende otimizar com o sistema e a importância dos diferentes parâmetros; as decisões acerca de eventuais cedências em relação às soluções técnicas adotadas para cumprir os requisitos definidos no título III, capitulo 2;

b)

Uma descrição da arquitetura, das especificações de conceção , dos algoritmos e da estrutura dos dados, nomeadamente a desagregação dos seus elementos constituintes e interfaces, a forma como se relacionam entre si e a forma como asseguram o processamento global ou a lógica do sistema de IA; as principais opções de conceção, nomeadamente a lógica subjacente e os pressupostos utilizados, também no respeitante às pessoas ou grupos de pessoas em relação às quais se pretende que o sistema seja utilizado; as principais opções de classificação; o que se pretende otimizar com o sistema e a importância dos diferentes parâmetros; as decisões acerca de eventuais cedências em relação às soluções técnicas adotadas para cumprir os requisitos definidos no título III, capitulo 2;

Alteração 753

Proposta de regulamento

Anexo IV — parágrafo 1 — ponto 2 — alínea c)

Texto da Comissão

Alteração

c)

A descrição da arquitetura do sistema, explicando de que forma os componentes de software se incorporam ou enriquecem mutuamente e como se integram no processamento global; os recursos computacionais utilizados para desenvolver, treinar, testar e validar o sistema de IA;

c)

Suprimido

Alteração 754

Proposta de regulamento

Anexo IV — parágrafo 1 — n.o 2 — alínea e)

Texto da Comissão

Alteração

e)

Análise das medidas de supervisão humana necessárias em conformidade com o artigo 14.o, incluindo uma análise das soluções técnicas necessárias para facilitar a interpretação dos resultados dos sistemas de IA pelos utilizadores , em conformidade com o artigo 13.o, n.o 3, alínea d);

e)

Análise das medidas de supervisão humana necessárias em conformidade com o artigo 14.o, incluindo uma análise das soluções técnicas necessárias para facilitar a interpretação dos resultados dos sistemas de IA pelos responsáveis pela implantação , em conformidade com o artigo 13.o, n.o 3, alínea d);

Alteração 755

Proposta de regulamento

Anexo IV — parágrafo 1 — ponto 2 — alínea g)

Texto da Comissão

Alteração

g)

Os procedimentos de validação e teste aplicados, incluindo informações sobre os dados de validação e teste utilizados e as principais características desses dados; as métricas utilizadas para aferir a exatidão, a solidez , a cibersegurança e a conformidade com outros requisitos aplicáveis estabelecidos no título III, capítulo 2, bem como potenciais impactos discriminatórios; registos dos testes e todos os relatórios de teste datados e assinados pelas pessoas responsáveis, incluindo no respeitante às alterações predeterminadas referidas na alínea f).

g)

Os procedimentos de validação e teste aplicados, incluindo informações sobre os dados de validação e teste utilizados e as principais características desses dados; as informações utilizadas para aferir a exatidão, a solidez e a conformidade com outros requisitos aplicáveis estabelecidos no título III, capítulo 2, bem como potenciais impactos discriminatórios; registos dos testes e todos os relatórios de teste datados e assinados pelas pessoas responsáveis, incluindo no respeitante às alterações predeterminadas referidas na alínea f).

Alteração 756

Proposta de regulamento

Anexo IV — parágrafo 1 — ponto 2 — alínea g-A) (nova)

Texto da Comissão

Alteração

 

g-A)

As medidas de cibersegurança estabelecidas.

Alteração 757

Proposta de regulamento

Anexo IV — primeiro parágrafo — ponto 3

Texto da Comissão

Alteração

3.

Informações pormenorizadas sobre o acompanhamento, o funcionamento e o controlo do sistema de IA, especialmente no que diz respeito: às suas capacidades e limitações de desempenho, incluindo os níveis de exatidão no tocante a pessoas ou grupos de pessoas específicos em relação às quais se pretende que o sistema seja utilizado e o nível geral esperado de exatidão em relação à finalidade prevista; os resultados não pretendidos mas previsíveis e as fontes de riscos para a saúde e a segurança, os direitos fundamentais e a proteção contra a discriminação atendendo à finalidade prevista do sistema de IA; as medidas de supervisão humana necessárias em conformidade com o artigo 14.o, incluindo as soluções técnicas adotadas para facilitar a interpretação dos resultados dos sistemas de IA pelos utilizadores ; especificações relativas aos dados de entrada, consoante apropriado;

3.

Informações pormenorizadas sobre o acompanhamento, o funcionamento e o controlo do sistema de IA, especialmente no que diz respeito: às suas capacidades e limitações de desempenho, incluindo os níveis de exatidão no tocante a pessoas ou grupos de pessoas específicos em relação às quais se pretende que o sistema seja utilizado e o nível geral esperado de exatidão em relação à finalidade prevista; os resultados não pretendidos mas previsíveis e as fontes de riscos para a saúde e a segurança, os direitos fundamentais e a proteção contra a discriminação atendendo à finalidade prevista do sistema de IA; as medidas de supervisão humana necessárias em conformidade com o artigo 14.o, incluindo as soluções técnicas adotadas para facilitar a interpretação dos resultados dos sistemas de IA pelos responsáveis pela implantação ; especificações relativas aos dados de entrada, consoante apropriado;

Alteração 758

Proposta de regulamento

Anexo IV — parágrafo 1 — ponto 3-A — alínea a-A) (nova)

Texto da Comissão

Alteração

 

3-A.

Uma descrição da pertinência da métrica de desempenho aplicável ao sistema de IA específico;

Alteração 759

Proposta de regulamento

Anexo IV — parágrafo 1 — ponto 3-B (novo)

Texto da Comissão

Alteração

 

3-B.

Informações sobre o consumo de energia do sistema de IA durante a fase de desenvolvimento e o consumo de energia previsto durante a utilização, tendo em conta, se for caso disso, o direito da União e nacional aplicável;

Alteração 760

Proposta de regulamento

Anexo IV — parágrafo 1 — ponto 5

Texto da Comissão

Alteração

5.

A descrição de todas as alterações introduzidas no sistema ao longo do seu ciclo de vida;

5.

A descrição de todas as alterações pertinentes introduzidas pelos fornecedores no sistema ao longo do seu ciclo de vida;

Alteração 761

Proposta de regulamento

Anexo IV — parágrafo 1 — ponto 6

Texto da Comissão

Alteração

6.

Uma lista de normas harmonizadas aplicadas total ou parcialmente, cujas referências tenham sido publicadas no Jornal Oficial da União Europeia; caso não tenham sido aplicadas tais normas harmonizadas, uma descrição pormenorizada das soluções adotadas para cumprir os requisitos estabelecidos no título III, capítulo 2, incluindo uma lista de outras normas pertinentes e especificações técnicas aplicadas;

6.

Uma lista de normas harmonizadas aplicadas total ou parcialmente, cujas referências tenham sido publicadas no Jornal Oficial da União Europeia; caso não tenham sido aplicadas tais normas harmonizadas, uma descrição pormenorizada das soluções adotadas para cumprir os requisitos estabelecidos no título III, capítulo 2, incluindo uma lista de outras normas pertinentes ou especificações comuns aplicadas;

Alteração 762

Proposta de regulamento

Anexo V — parágrafo 1 — ponto 4-A (novo)

Texto da Comissão

Alteração

 

4-A.

Sempre que um sistema de IA implique o tratamento de dados pessoais, uma declaração de que esse sistema de IA cumpre o disposto nos Regulamentos (UE) 2016/679 e (UE) 2018/1725 e na Diretiva (UE) 2016/680.

Alteração 763

Proposta de regulamento

Anexo V — parágrafo 1 — ponto 7

Texto da Comissão

Alteração

7.

Local e data de emissão da declaração, nome e cargo da pessoa que assina, bem como indicação da pessoa em nome de quem assina, assinatura.

7.

Local e data de emissão da declaração, assinatura, nome e cargo da pessoa que assina, bem como indicação da pessoa em nome de quem assina, assinatura.

Alteração 764

Proposta de regulamento

Anexo VII — ponto 4 — ponto 4.5

Texto da Comissão

Alteração

4.5.

Sempre que necessário para avaliar a conformidade do sistema de IA de risco elevado com os requisitos estabelecidos no título III, capítulo 2, e mediante pedido fundamentado, deve também ser concedido ao organismo notificado o acesso ao código-fonte do sistema de IA.

4.5.

Sempre que necessário para avaliar a conformidade do sistema de IA de risco elevado com os requisitos estabelecidos no título III, capítulo 2 , depois de todas as outras formas razoáveis de verificação da conformidade terem sido esgotadas ou se revelarem insuficientes, e mediante pedido fundamentado, deve também ser concedido ao organismo notificado o acesso aos modelos de treino e treinados do sistema de IA , incluindo os seus parâmetros pertinentes . Esse acesso está sujeito à legislação da União em vigor em matéria de proteção da propriedade intelectual e dos segredos comerciais. Devem ser tomadas medidas técnicas e de organização para assegurar a proteção da propriedade intelectual e dos segredos comerciais.

Alteração 765

Proposta de regulamento

Anexo VIII — parágrafo 1

Texto da Comissão

Alteração

As informações a seguir indicadas devem ser fornecidas e, subsequentemente, mantidas atualizadas no respeitante a sistemas de IA de risco elevado a registar em conformidade com o  artigo 51.o .

Secção A – As informações a seguir indicadas devem ser fornecidas e, subsequentemente, mantidas atualizadas no respeitante a sistemas de IA de risco elevado a registar em conformidade com o  artigo 51.o, n.o 1 .

Alteração 766

Proposta de regulamento

Anexo VIII — ponto 4-A (novo)

Texto da Comissão

Alteração

 

4-A.

Designação comercial do modelo de base e quaisquer outras referências inequívocas que permitam a identificação e garantam a rastreabilidade

Alteração 767

Proposta de regulamento

Anexo VIII — ponto 5

Texto da Comissão

Alteração

5.

Descrição da finalidade prevista do sistema de IA;

5.

Uma descrição simples e compreensível

 

a.

da finalidade prevista do sistema de IA;

 

b.

dos componentes e funções apoiados pela IA;

 

c.

de uma explicação elementar da lógica do sistema de IA.

Alteração 768

Proposta de regulamento

Anexo VIII — ponto 5-A (novo)

Texto da Comissão

Alteração

 

5-A.

Se aplicável, as categorias e a natureza dos dados que poderão ou deverão ser tratados pelo sistema de IA;

Alteração 769

Proposta de regulamento

Anexo VIII — ponto 11

Texto da Comissão

Alteração

11.

Instruções de utilização em formato eletrónico; esta informação não é fornecida no que respeita a sistemas de IA de risco elevado nos domínios da manutenção da ordem pública e da gestão da migração, do asilo e do controlo das fronteiras, referidos no anexo III, pontos 1, 6 e 7;

Suprimido

Alteração 770

Proposta de regulamento

Anexo VII — secção B-A (nova)

Texto da Comissão

Alteração

 

Secção B — As informações a seguir indicadas devem ser fornecidas e, subsequentemente, mantidas atualizadas no respeitante a sistemas de IA de risco elevado a registar em conformidade com o artigo 51.o, n.o 1-A, alínea a), e n.o 1-B.

 

1.

Nome, endereço e dados de contacto do responsável pela implantação;

 

2.

Nome, endereço e dados de contacto da pessoa que apresenta informações em nome do responsável pela implantação;

 

3.

A designação comercial do sistema de IA de risco elevado e quaisquer outras referências inequívocas que permitam identificar e rastrear o sistema de IA utilizado;

 

4.

a. Uma descrição simples e compreensível da utilização prevista do sistema de IA, incluindo os resultados específicos pretendidos com a utilização do sistema, bem como o âmbito geográfico e temporal da sua aplicação;

 

b.

Se aplicável, as categorias e a natureza dos dados a tratar pelo sistema de IA;

 

c.

Convénios em matéria de supervisão humana e governação;

 

d.

Se aplicável, os organismos ou pessoas singulares responsáveis pelas decisões tomadas ou apoiadas pelo sistema de IA;

 

5.

Uma síntese das conclusões da avaliação do impacto sobre os direitos fundamentais realizada nos termos do artigo 29.o-A;

 

6.

O URL da entrada do sistema de IA na base de dados da UE pelo seu fornecedor;

 

7.

Uma síntese da avaliação do impacto sobre a proteção de dados realizada nos termos do artigo 35.o do Regulamento (UE) 2016/679 ou do artigo 27.o da Diretiva (UE) 2016/680, conforme especificado no artigo 29.o, n.o 6, do presente regulamento, se aplicável.

Alteração 771

Proposta de regulamento

Anexo VIII — secção C (nova)

Texto da Comissão

Alteração

 

Secção C — As informações a seguir indicadas devem ser fornecidas e, subsequentemente, mantidas atualizadas no respeitante aos modelos de base a registar em conformidade o artigo 28.o-B, alínea e).

 

1.

Nome, endereço e contactos do fornecedor;

 

2.

Se as informações forem apresentadas por outra pessoa em nome do fornecedor, nome, endereço e contactos dessa pessoa;

 

3.

Nome, endereço e contactos do mandatário, se aplicável;

 

4.

Designação comercial e quaisquer outras referências inequívocas que permitam identificar o modelo de base;

 

5.

Descrição das fontes de dados utilizadas no desenvolvimento do modelo de base;

 

6.

Descrição das capacidades e limitações do modelo de base, incluindo os riscos razoavelmente previsíveis e as medidas que foram tomadas para os atenuar, bem como os riscos remanescentes não atenuados, com uma explicação dos motivos pelos quais não podem ser atenuados;

 

7.

Descrição dos recursos de treino utilizados pelo modelo de base, incluindo a potência computacional necessária, o tempo de treino e outras informações pertinentes relacionadas com a dimensão e a potência do modelo 8. Descrição do desempenho do modelo, nomeadamente em relação a parâmetros de referência públicos ou padrões de referência setoriais correspondentes ao estado da técnica;

 

8.

Descrição dos resultados dos ensaios internos e externos pertinentes e da otimização do modelo;

 

9.

Os Estados-Membros em que o modelo de base está ou foi colocado no mercado ou colocado em serviço ou disponibilizado na União;

 

10.

URL para informações adicionais (opcional).

(1)  O assunto foi devolvido à comissão competente, para negociações interinstitucionais, nos termos do artigo 59.o, n.o 4, quarto parágrafo, do Regimento (A9-0188/2023).

(33)  Conselho Europeu, Reunião extraordinária do Conselho Europeu (1 e 2 de outubro de 2020) — Conclusões [EUCO 13/20, 2020, p. 6].

(34)  Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime relativo aos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas [2020/2012(INL)].

(33)  Conselho Europeu, Reunião extraordinária do Conselho Europeu (1 e 2 de outubro de 2020) — Conclusões [EUCO 13/20, 2020, p. 6].

(34)  Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime relativo aos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas [2020/2012(INL)].

(35)  Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados e que revoga a Diretiva 95/46/CE (Regulamento Geral sobre a Proteção de Dados) (JO L 119 de 4.5.2016, p. 1).

(36)   Regulamento (UE) 2018/1725 do Parlamento Europeu e do Conselho, de 23 de outubro de 2018, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais pelas instituições e pelos órgãos e organismos da União e à livre circulação desses dados, e que revoga o Regulamento (CE) n.o 45/2001 e a Decisão n.o 1247/2002/CE (JO L 295 de 21.11.2018, p. 39).

(37)   Diretiva (UE) 2016/680 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativa à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais pelas autoridades competentes para efeitos de prevenção, investigação, deteção ou repressão de infrações penais ou execução de sanções penais, e à livre circulação desses dados, e que revoga a Decisão-Quadro 2008/977/JAI do Conselho (Diretiva sobre a Proteção de Dados na Aplicação da Lei) (JO L 119 de 4.5.2016, p. 89).

(35)  Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados e que revoga a Diretiva 95/46/CE (Regulamento Geral sobre a Proteção de Dados) (JO L 119 de 4.5.2016, p. 1).

(38)   Decisão-Quadro 2002/584/JAI do Conselho, de 13 de junho de 2002, relativa ao mandado de detenção europeu e aos processos de entrega entre os Estados-Membros (JO L 190 de 18.7.2002, p. 1).

(39)  Regulamento (CE) n.o 300/2008 do Parlamento Europeu e do Conselho, de 11 de março de 2008, relativo ao estabelecimento de regras comuns no domínio da segurança da aviação civil e que revoga o Regulamento (CE) n.o 2320/2002 (JO L 97 de 9.4.2008, p. 72).

(40)  Regulamento (UE) n.o 167/2013 do Parlamento Europeu e do Conselho, de 5 de fevereiro de 2013, relativo à homologação e fiscalização do mercado de tratores agrícolas e florestais (JO L 60 de 2.3.2013, p. 1).

(41)  Regulamento (UE) n.o 168/2013 do Parlamento Europeu e do Conselho, de 15 de janeiro de 2013, relativo à homologação e fiscalização do mercado dos veículos de duas ou três rodas e dos quadriciclos (JO L 60 de 2.3.2013, p. 52).

(42)  Diretiva 2014/90/UE do Parlamento Europeu e do Conselho, de 23 de julho de 2014, relativa aos equipamentos marítimos e que revoga a Diretiva 96/98/CE do Conselho (JO L 257 de 28.8.2014, p. 146).

(43)  Diretiva (UE) 2016/797 do Parlamento Europeu e do Conselho, de 11 de maio de 2016, relativa à interoperabilidade do sistema ferroviário na União Europeia (JO L 138 de 26.5.2016, p. 44).

(44)  Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho, de 30 de maio de 2018, relativo à homologação e à fiscalização do mercado dos veículos a motor e seus reboques, e dos sistemas, componentes e unidades técnicas destinados a esses veículos, que altera os Regulamentos (CE) n.o 715/2007 e (CE) n.o 595/2009 e revoga a Diretiva 2007/46/CE (JO L 151 de 14.6.2018, p. 1).

(45)  Regulamento (UE) 2018/1139 do Parlamento Europeu e do Conselho, de 4 de julho de 2018, relativo a regras comuns no domínio da aviação civil que cria a Agência da União Europeia para a Segurança da Aviação, altera os Regulamentos (CE) n.o 2111/2005, (CE) n.o 1008/2008, (UE) n.o 996/2010 e (UE) n.o 376/2014 e as Diretivas 2014/30/UE e 2014/53/UE do Parlamento Europeu e do Conselho, e revoga os Regulamentos (CE) n.o 552/2004 e (CE) n.o 216/2008 do Parlamento Europeu e do Conselho e o Regulamento (CEE) n.o 3922/91 do Conselho (JO L 212 de 22.8.2018, p. 1).

(46)  Regulamento (UE) 2019/2144 do Parlamento Europeu e do Conselho, de 27 de novembro de 2019, relativo aos requisitos de homologação de veículos a motor e seus reboques e dos sistemas, componentes e unidades técnicas destinados a esses veículos, no que se refere à sua segurança geral e à proteção dos ocupantes dos veículos e dos utentes da estrada vulneráveis, que altera o Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho e revoga os Regulamentos (CE) n.o 78/2009, (CE) n.o 79/2009 e (CE) n.o 661/2009 do Parlamento Europeu e do Conselho e os Regulamentos (CE) n.o 631/2009, (UE) n.o 406/2010, (UE) n.o 672/2010, (UE) n.o 1003/2010, (UE) n.o 1005/2010, (UE) n.o 1008/2010, (UE) n.o 1009/2010, (UE) n.o 19/2011, (UE) n.o 109/2011, (UE) n.o 458/2011, (UE) n.o 65/2012, (UE) n.o 130/2012, (UE) n.o 347/2012, (UE) n.o 351/2012, (UE) n.o 1230/2012, e (UE) 2015/166 da Comissão (JO L 325 de 16.12.2019, p. 1).

(39)  Regulamento (CE) n.o 300/2008 do Parlamento Europeu e do Conselho, de 11 de março de 2008, relativo ao estabelecimento de regras comuns no domínio da segurança da aviação civil e que revoga o Regulamento (CE) n.o 2320/2002 (JO L 97 de 9.4.2008, p. 72).

(40)  Regulamento (UE) n.o 167/2013 do Parlamento Europeu e do Conselho, de 5 de fevereiro de 2013, relativo à homologação e fiscalização do mercado de tratores agrícolas e florestais (JO L 60 de 2.3.2013, p. 1).

(41)  Regulamento (UE) n.o 168/2013 do Parlamento Europeu e do Conselho, de 15 de janeiro de 2013, relativo à homologação e fiscalização do mercado dos veículos de duas ou três rodas e dos quadriciclos (JO L 60 de 2.3.2013, p. 52).

(42)  Diretiva 2014/90/UE do Parlamento Europeu e do Conselho, de 23 de julho de 2014, relativa aos equipamentos marítimos e que revoga a Diretiva 96/98/CE do Conselho (JO L 257 de 28.8.2014, p. 146).

(43)  Diretiva (UE) 2016/797 do Parlamento Europeu e do Conselho, de 11 de maio de 2016, relativa à interoperabilidade do sistema ferroviário na União Europeia (JO L 138 de 26.5.2016, p. 44).

(44)  Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho, de 30 de maio de 2018, relativo à homologação e à fiscalização do mercado dos veículos a motor e seus reboques, e dos sistemas, componentes e unidades técnicas destinados a esses veículos, que altera os Regulamentos (CE) n.o 715/2007 e (CE) n.o 595/2009 e revoga a Diretiva 2007/46/CE (JO L 151 de 14.6.2018, p. 1).

(45)  Regulamento (UE) 2018/1139 do Parlamento Europeu e do Conselho, de 4 de julho de 2018, relativo a regras comuns no domínio da aviação civil que cria a Agência da União Europeia para a Segurança da Aviação, altera os Regulamentos (CE) n.o 2111/2005, (CE) n.o 1008/2008, (UE) n.o 996/2010 e (UE) n.o 376/2014 e as Diretivas 2014/30/UE e 2014/53/UE do Parlamento Europeu e do Conselho, e revoga os Regulamentos (CE) n.o 552/2004 e (CE) n.o 216/2008 do Parlamento Europeu e do Conselho e o Regulamento (CEE) n.o 3922/91 do Conselho (JO L 212 de 22.8.2018, p. 1).

(46)  Regulamento (UE) 2019/2144 do Parlamento Europeu e do Conselho, de 27 de novembro de 2019, relativo aos requisitos de homologação de veículos a motor e seus reboques e dos sistemas, componentes e unidades técnicas destinados a esses veículos, no que se refere à sua segurança geral e à proteção dos ocupantes dos veículos e dos utentes da estrada vulneráveis, que altera o Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho e revoga os Regulamentos (CE) n.o 78/2009, (CE) n.o 79/2009 e (CE) n.o 661/2009 do Parlamento Europeu e do Conselho e os Regulamentos (CE) n.o 631/2009, (UE) n.o 406/2010, (UE) n.o 672/2010, (UE) n.o 1003/2010, (UE) n.o 1005/2010, (UE) n.o 1008/2010, (UE) n.o 1009/2010, (UE) n.o 19/2011, (UE) n.o 109/2011, (UE) n.o 458/2011, (UE) n.o 65/2012, (UE) n.o 130/2012, (UE) n.o 347/2012, (UE) n.o 351/2012, (UE) n.o 1230/2012, e (UE) 2015/166 da Comissão (JO L 325 de 16.12.2019, p. 1).

(47)  Regulamento (UE) 2017/745 do Parlamento Europeu e do Conselho, de 5 de abril de 2017, relativo aos dispositivos médicos, que altera a Diretiva 2001/83/CE, o Regulamento (CE) n.o 178/2002 e o Regulamento (CE) n.o 1223/2009 e que revoga as Diretivas 90/385/CEE e 93/42/CEE do Conselho (JO L 117 de 5.5.2017, p. 1).

(48)  Regulamento (UE) 2017/746 do Parlamento Europeu e do Conselho, de 5 de abril de 2017, relativo aos dispositivos médicos para diagnóstico in vitro e que revoga a Diretiva 98/79/CE e a Decisão 2010/227/UE da Comissão (JO L 117 de 5.5.2017, p. 176).

(49)  Diretiva 2013/32/UE do Parlamento Europeu e do Conselho, de 26 de junho de 2013, relativa a procedimentos comuns de concessão e retirada do estatuto de proteção internacional (JO L 180 de 29.6.2013, p. 60).

(50)  Regulamento (CE) n.o 810/2009 do Parlamento Europeu e do Conselho, de 13 de julho de 2009, que estabelece o Código Comunitário de Vistos (Código de Vistos) (JO L 243 de 15.9.2009, p. 1).

(49)  Diretiva 2013/32/UE do Parlamento Europeu e do Conselho, de 26 de junho de 2013, relativa a procedimentos comuns de concessão e retirada do estatuto de proteção internacional (JO L 180 de 29.6.2013, p. 60).

(50)  Regulamento (CE) n.o 810/2009 do Parlamento Europeu e do Conselho, de 13 de julho de 2009, que estabelece o Código Comunitário de Vistos (Código de Vistos) (JO L 243 de 15.9.2009, p. 1).

(54)  Regulamento (UE) n.o 1025/2012 do Parlamento Europeu e do Conselho, de 25 de outubro de 2012, relativo à normalização europeia, que altera as Diretivas 89/686/CEE e 93/15/CEE do Conselho e as Diretivas 94/9/CE, 94/25/CE, 95/16/CE, 97/23/CE, 98/34/CE, 2004/22/CE, 2007/23/CE, 2009/23/CE e 2009/105/CE do Parlamento Europeu e do Conselho e revoga a Decisão 87/95/CEE do Conselho e a Decisão n.o 1673/2006/CE do Parlamento Europeu e do Conselho (JO L 316 de 14.11.2012, p. 12).

(54)  Regulamento (UE) n.o 1025/2012 do Parlamento Europeu e do Conselho, de 25 de outubro de 2012, relativo à normalização europeia, que altera as Diretivas 89/686/CEE e 93/15/CEE do Conselho e as Diretivas 94/9/CE, 94/25/CE, 95/16/CE, 97/23/CE, 98/34/CE, 2004/22/CE, 2007/23/CE, 2009/23/CE e 2009/105/CE do Parlamento Europeu e do Conselho e revoga a Decisão 87/95/CEE do Conselho e a Decisão n.o 1673/2006/CE do Parlamento Europeu e do Conselho (JO L 316 de 14.11.2012, p. 12).

(55)  Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados e que revoga a Diretiva 95/46/CE (Regulamento Geral sobre a Proteção de Dados) (JO L 119 de 4.5.2016, p. 1).

(55)  Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados e que revoga a Diretiva 95/46/CE (Regulamento Geral sobre a Proteção de Dados) (JO L 119 de 4.5.2016, p. 1).

(56)  Diretiva 2013/36/UE do Parlamento Europeu e do Conselho, de 26 de junho de 2013, relativa ao acesso à atividade das instituições de crédito e à supervisão prudencial das instituições de crédito e empresas de investimento, que altera a Diretiva 2002/87/CE e revoga as Diretivas 2006/48/CE e 2006/49/CE (JO L 176 de 27.6.2013, p. 338).

(56)  Diretiva 2013/36/UE do Parlamento Europeu e do Conselho, de 26 de junho de 2013, relativa ao acesso à atividade das instituições de crédito e à supervisão prudencial das instituições de crédito e empresas de investimento, que altera a Diretiva 2002/87/CE e revoga as Diretivas 2006/48/CE e 2006/49/CE (JO L 176 de 27.6.2013, p. 338).

(57)  Diretiva 2001/95/CE do Parlamento Europeu e do Conselho, de 3 de dezembro de 2001, relativa à segurança geral dos produtos (JO L 11 de 15.1.2002, p. 4).

(57)  Diretiva 2001/95/CE do Parlamento Europeu e do Conselho, de 3 de dezembro de 2001, relativa à segurança geral dos produtos (JO L 11 de 15.1.2002, p. 4).

(58)   JO L 123 de 12.5.2016, p. 1.

(58)   JO L 123 de 12.5.2016, p. 1.

(61)   Recomendação da Comissão, de 6 de maio de 2003, relativa à definição de micro, pequenas e médias empresas (JO L 124 de 20.5.2003, p. 36).

(62)   Decisão-quadro 2002/584/JAI do Conselho, de 13 de junho de 2002, relativa ao mandado de detenção europeu e aos processos de entrega entre os Estados-Membros (JO L 190 de 18.7.2002, p. 1).

(1-A)   Diretiva (UE) 2020/1828 do Parlamento Europeu e do Conselho, de 25 de novembro de 2020, relativa a ações coletivas para proteção dos interesses coletivos dos consumidores e que revoga a Diretiva 2009/22/CE (JO L 409 de 4.12.2020, p. 1).


ELI: http://data.europa.eu/eli/C/2024/506/oj

ISSN 1977-1010 (electronic edition)


Top