|
28.2.2022 |
PT |
Jornal Oficial da União Europeia |
C 97/60 |
Parecer do Comité das Regiões Europeu — Abordagem europeia da inteligência artificial — Regulamento Inteligência Artificial
(parecer revisto)
(2022/C 97/12)
|
I. RECOMENDAÇÕES DE ALTERAÇÃO
Alteração 1
Considerando 1
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
|
A finalidade do presente regulamento é melhorar o funcionamento do mercado interno mediante o estabelecimento de um quadro jurídico uniforme para o desenvolvimento, a comercialização e a utilização da inteligência artificial em conformidade com os valores da União. O presente regulamento observa um conjunto de razões imperativas de reconhecido interesse público, como o elevado nível de proteção da saúde, da segurança e dos direitos fundamentais, e assegura a livre circulação transfronteiras de produtos e serviços baseados em inteligência artificial, evitando assim que os Estados-Membros imponham restrições ao desenvolvimento, à comercialização e à utilização dos sistemas de inteligência artificial, salvo se explicitamente autorizado pelo presente regulamento. |
A finalidade do presente regulamento é melhorar o funcionamento do mercado interno e garantir os direitos fundamentais dos cidadãos mediante o estabelecimento de um quadro jurídico uniforme para o desenvolvimento, a comercialização e a utilização da inteligência artificial em conformidade com os valores da União. O presente regulamento observa um conjunto de razões imperativas de reconhecido interesse público, como o elevado nível de proteção da saúde, da segurança e dos direitos fundamentais, e assegura a livre circulação transfronteiras de produtos e serviços baseados em inteligência artificial, evitando assim que os Estados-Membros imponham restrições ao desenvolvimento, à comercialização e à utilização dos sistemas de inteligência artificial, salvo se explicitamente autorizado pelo presente regulamento. |
Justificação
A referência aos direitos fundamentais visa realçar a relação com a Carta dos Direitos Fundamentais da União Europeia.
Alteração 2
Novo considerando após o considerando 6
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
|
|
A definição de sistemas de IA é um processo contínuo que tem em conta o contexto em que a IA opera, mantendo-se a par da evolução da sociedade neste domínio, e não perde de vista a ligação entre o ecossistema de excelência e o ecossistema de confiança. |
Justificação
A evolução da IA e da tecnologia exige uma abordagem adaptável e evolutiva. Este considerando visa expressar a ideia de que a definição de IA deve acompanhar o ritmo e o estado da evolução dos sistemas e aplicações de IA.
Alteração 3
Considerando 20
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
|
A fim de assegurar que esses sistemas sejam utilizados de uma forma responsável e proporcionada, também importa estabelecer que, em cada uma dessas três situações enunciadas exaustivamente e definidas de modo restrito, é necessário ter em conta determinados elementos, em especial no que se refere à natureza da situação que dá origem ao pedido e às consequências da utilização para os direitos e as liberdades de todas as pessoas em causa e ainda às salvaguardas e condições previstas para a utilização. Além disso, a utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública deve estar sujeita a limites espaciais e temporais adequados , tendo em conta, especialmente, os dados ou indícios relativos às ameaças, às vítimas ou ao infrator. A base de dados de pessoas utilizada como referência deve ser adequada a cada utilização em cada uma das três situações acima indicadas. |
A fim de assegurar que esses sistemas sejam utilizados de uma forma responsável e proporcionada, também importa estabelecer que, em cada uma dessas três situações enunciadas exaustivamente e definidas de modo restrito, é necessário ter em conta determinados elementos, em especial no que se refere à natureza da situação que dá origem ao pedido e às consequências da utilização para os direitos e as liberdades de todas as pessoas em causa e ainda às salvaguardas e condições previstas para a utilização. Cumpre consultar os órgãos de poder local e regional em causa antes da utilização excecional destes sistemas. Além disso, a utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública deve estar sujeita a limites espaciais e temporais rigorosos , tendo em conta, especialmente, os dados ou indícios relativos às ameaças, às vítimas ou ao infrator. A base de dados de pessoas utilizada como referência deve ser adequada a cada utilização em cada uma das três situações acima indicadas. |
Justificação
Os sistemas de identificação biométrica à distância «em tempo real» não devem ser utilizados de ânimo leve.
Alteração 4
Considerando 21
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
|
Cada utilização de um sistema de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública deve estar sujeita a uma autorização expressa e específica de uma autoridade judiciária ou de uma autoridade administrativa independente de um Estado-Membro. Em princípio, essa autorização deve ser obtida antes da sua utilização, salvo em situações de urgência devidamente justificadas, ou seja, quando a necessidade de utilizar os sistemas em causa torna efetiva e objetivamente impossível obter uma autorização antes de iniciar essa utilização. Nessas situações de urgência , a utilização deve limitar-se ao mínimo absolutamente necessário e estar sujeita a salvaguardas e condições adequadas, conforme determinado pelo direito nacional e especificado no contexto de cada caso de utilização urgente pela própria autoridade policial . Ademais, nessas situações, a autoridade policial deve procurar obter quanto antes uma autorização , apresentando as razões para não ter efetuado o pedido mais cedo . |
Cada utilização de um sistema de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública deve estar sujeita a uma autorização expressa e específica de uma autoridade judiciária ou de uma autoridade administrativa independente de um Estado-Membro. Essa autorização deve ser obtida antes da sua utilização, salvo em situações de urgência devidamente justificadas, ou seja, quando a necessidade de utilizar os sistemas em causa torna efetiva e objetivamente impossível obter uma autorização antes de iniciar essa utilização. Em qualquer caso , a utilização deve limitar-se ao mínimo absolutamente necessário e estar sujeita a salvaguardas e condições adequadas, conforme determinado pelo direito nacional. Ademais, a autoridade policial deve informar imediatamente o órgão de poder local ou regional em causa e procurar obter uma autorização junto das autoridades competentes . |
Justificação
A responsabilidade política e administrativa pela gestão e supervisão dos espaços acessíveis ao público cabe aos órgãos de poder local e regional. Por conseguinte, cumpre associar devidamente esses órgãos à utilização de sistemas de IA em espaços acessíveis ao público. Em situações urgentes em que não seja razoável esperar uma consulta prévia, o órgão de poder local ou regional em causa deve ser imediatamente informado da utilização de sistemas biométricos em espaços acessíveis ao público.
Alteração 5
Considerando 39
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
|
Os sistemas de IA utilizados na gestão da migração, do asilo e do controlo das fronteiras afetam pessoas que, muitas vezes, se encontram numa posição particularmente vulnerável e que dependem do resultado das ações das autoridades públicas competentes. Como tal, a exatidão, a natureza não discriminatória e a transparência dos sistemas de IA utilizados nesses contextos são particularmente importantes para garantir o respeito dos direitos fundamentais das pessoas em causa, nomeadamente os seus direitos à livre circulação, à não discriminação, à proteção da vida privada e dos dados pessoais, à proteção internacional e a uma boa administração. Deste modo, é apropriado classificar como de risco elevado os sistemas de IA concebidos para serem utilizados por autoridades públicas competentes incumbidas de funções no domínio da gestão da migração, do asilo e do controlo das fronteiras, como polígrafos e instrumentos semelhantes, ou para detetar o estado emocional de uma pessoa singular; para avaliar determinados riscos colocados pelas pessoas singulares que entram no território de um Estado-Membro ou pedem um visto ou asilo; para verificar a autenticidade dos documentos apresentados pelas pessoas singulares; para auxiliar as autoridades públicas competentes na análise dos pedidos de asilo, de visto e de autorização de residência e das queixas relacionadas, com o objetivo de estabelecer a elegibilidade das pessoas singulares que requerem determinado estatuto. Os sistemas de IA no domínio da gestão da migração, do asilo e do controlo das fronteiras abrangidos pelo presente regulamento devem cumprir os requisitos processuais estabelecidos na Diretiva 2013/32/UE do Parlamento Europeu e do Conselho, no Regulamento (CE) n.o 810/2009 do Parlamento Europeu e do Conselho e noutra legislação aplicável. |
Os sistemas de IA utilizados na gestão da migração, do asilo e do controlo das fronteiras afetam pessoas que, muitas vezes, se encontram numa posição particularmente vulnerável e que dependem do resultado das ações das autoridades públicas competentes. Como tal, a exatidão, a natureza não discriminatória e a transparência dos sistemas de IA utilizados nesses contextos são particularmente importantes para garantir o respeito dos direitos fundamentais das pessoas em causa, nomeadamente os seus direitos à livre circulação, à não discriminação, à proteção da vida privada e dos dados pessoais, à proteção internacional e a uma boa administração. Deste modo, é necessário classificar como de risco elevado os sistemas de IA concebidos para serem utilizados por autoridades públicas competentes incumbidas de funções no domínio da gestão da migração, do asilo e do controlo das fronteiras, como polígrafos e instrumentos semelhantes, ou para detetar o estado emocional de uma pessoa singular; para avaliar determinados riscos colocados pelas pessoas singulares que entram no território de um Estado-Membro ou pedem um visto ou asilo; para verificar a autenticidade dos documentos apresentados pelas pessoas singulares; para auxiliar as autoridades públicas competentes na análise dos pedidos de asilo, de visto e de autorização de residência e das queixas relacionadas, com o objetivo de estabelecer a elegibilidade das pessoas singulares que requerem determinado estatuto. Os sistemas de IA no domínio da gestão da migração, do asilo e do controlo das fronteiras abrangidos pelo presente regulamento devem cumprir os requisitos processuais estabelecidos na Diretiva 2013/32/UE do Parlamento Europeu e do Conselho, no Regulamento (CE) n.o 810/2009 do Parlamento Europeu e do Conselho e noutra legislação aplicável. |
Justificação
Esta adaptação reflete a necessidade de incluir os sistemas de IA em causa no regime reforçado dos sistemas de IA de risco elevado.
Alteração 6
Considerando 43
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
|
Os sistemas de IA de risco elevado devem estar sujeitos ao cumprimento de requisitos relativos à qualidade dos conjuntos de dados utilizados, à documentação técnica e à manutenção de registos, à transparência e à prestação de informações aos utilizadores, à supervisão humana, à solidez, à exatidão e à cibersegurança. Esses requisitos são necessários para atenuar eficazmente os riscos para a saúde, a segurança e os direitos fundamentais, em função da finalidade prevista do sistema e quando não existam outras medidas menos restritivas do comércio, evitando, assim, restrições injustificadas do comércio. |
Os sistemas de IA de risco elevado devem estar sujeitos ao cumprimento de requisitos relativos à qualidade dos conjuntos de dados utilizados, à documentação técnica e à manutenção de registos, à transparência e à prestação de informações aos utilizadores, à supervisão humana, à solidez, à exatidão e à cibersegurança. Esses requisitos são necessários para atenuar eficazmente os riscos para a saúde, a segurança , a segurança dos dados, os direitos dos consumidores e os direitos fundamentais, em função da finalidade do sistema e quando não existam outras medidas menos restritivas do comércio, evitando, assim, restrições injustificadas do comércio. As pessoas singulares ou grupos de pessoas afetados por sistemas de IA de risco elevado colocados no mercado ou colocados em serviço de outro modo na União devem ser informados, de forma adequada, facilmente acessível e compreensível, e ter acesso a informações explícitas, facilmente acessíveis e públicas que expliquem que estão sujeitos a esses sistemas. |
Justificação
Os requisitos relativos à transparência e à informação aplicáveis aos fornecedores e utilizadores devem ser alargados às pessoas ou grupos de pessoas potencialmente afetados pela utilização de sistemas de IA de risco elevado mencionados no anexo III da proposta de regulamento. Por «compreensível» entende-se também uma linguagem compreensível e acessível ao utilizador, incluindo as linguagens oral e gestual.
Alteração 7
Novo considerando após o considerando 44
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
|
|
Os fornecedores de sistemas de IA devem abster-se, nos seus sistemas de gestão da qualidade, de qualquer medida que promova a discriminação injustificada em razão do sexo, origem, religião ou crença, deficiência, idade, orientação sexual ou discriminação por qualquer outro motivo. |
Justificação
A discriminação ilícita tem origem na ação humana. Os fornecedores de sistemas de IA devem abster-se de qualquer medida, no seu sistema de qualidade, suscetível de promover a discriminação.
Alteração 8
Considerando 47
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
|
Para fazer face à opacidade que pode tornar determinados sistemas de IA incompreensíveis ou demasiado complexos para as pessoas singulares, os sistemas de IA de risco elevado devem observar um certo grau de transparência. Os utilizadores devem ser capazes de interpretar o resultado do sistema e utilizá-lo de forma adequada. Como tal, os sistemas de IA de risco elevado devem ser acompanhados de documentação pertinente e instruções de utilização e incluir informações concisas e claras, nomeadamente informações relativas a possíveis riscos para os direitos fundamentais e de discriminação, se for caso disso. |
Para fazer face à opacidade que pode tornar determinados sistemas de IA incompreensíveis ou demasiado complexos para as pessoas singulares ou as autoridades públicas de todos os níveis de governação , os sistemas de IA de risco elevado devem observar um elevado grau de transparência. Os utilizadores devem ser capazes de interpretar o resultado do sistema e utilizá-lo de forma adequada. Como tal, os sistemas de IA de risco elevado devem ser acompanhados de documentação pertinente e instruções de utilização e incluir informações concisas e claras, nomeadamente informações relativas a possíveis riscos para os direitos fundamentais e de discriminação, se for caso disso. |
Justificação
A expressão «um certo grau de transparência» enfraquece a responsabilização de quem concebe sistemas de IA de risco elevado.
Alteração 9
Considerando 48
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
|
Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que permita a sua supervisão por pessoas singulares. Para o efeito, o fornecedor do sistema deve identificar medidas de supervisão humana adequadas antes da colocação no mercado ou da colocação em serviço do sistema. Em particular, se for caso disso, essas medidas devem garantir que o sistema integre restrições operacionais que não possam ser neutralizadas pelo próprio sistema e que respondam ao operador humano e que as pessoas singulares a quem foi atribuída a supervisão humana tenham as competências, a formação e a autoridade necessárias para desempenhar essa função. |
Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que permita a sua supervisão por pessoas singulares e pelas autoridades públicas de todos os níveis de governação . Para o efeito, o fornecedor do sistema deve identificar medidas de supervisão humana adequadas antes da colocação no mercado ou da colocação em serviço do sistema. Em particular, se for caso disso, essas medidas devem garantir que o sistema integre restrições operacionais que não possam ser neutralizadas pelo próprio sistema e que respondam ao operador humano e que as pessoas singulares a quem foi atribuída a supervisão humana tenham as competências, a formação e a autoridade necessárias para desempenhar essa função. |
Justificação
Evidente.
Alteração 10
Considerando 67
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
|
Para que possam circular livremente dentro do mercado interno, os sistemas de IA de risco elevado devem apresentar a marcação CE para indicar o cumprimento do presente regulamento. Os Estados-Membros não podem criar obstáculos injustificados à colocação no mercado ou à colocação em serviço de sistemas de IA de risco elevado que cumpram os requisitos previstos no presente regulamento e apresentem a marcação CE. |
Para que possam circular livremente dentro do mercado interno, os sistemas de IA de risco elevado devem apresentar a marcação CE para indicar o cumprimento do presente regulamento. Os Estados-Membros não podem criar obstáculos à colocação no mercado ou à colocação em serviço de sistemas de IA de risco elevado que cumpram os requisitos previstos no presente regulamento e apresentem a marcação CE. Os Estados-Membros têm poderes para regular as práticas de IA e os sistemas de IA de risco elevado exclusivamente com base em interesses imperiosos e devidamente justificados em matéria de segurança pública e nacional. |
Justificação
Embora os Estados-Membros não devam impedir a aplicação do regulamento, devem conservar o direito de regular os sistemas de IA de risco elevado se estiverem em causa interesses de segurança pública e nacional.
Alteração 11
Considerando 70
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
|
Determinados sistemas de IA concebidos para interagir com pessoas singulares ou para criar conteúdos podem representar riscos específicos de usurpação de identidade ou fraude, independentemente de serem considerados de risco elevado ou não. Como tal, em certas circunstâncias, a utilização destes sistemas deve ser sujeita a obrigações de transparência específicas sem prejudicar os requisitos e as obrigações aplicáveis aos sistemas de IA de risco elevado. Em particular, as pessoas singulares devem ser notificadas de que estão a interagir com um sistema de IA , a não ser que tal seja óbvio tendo em conta as circunstâncias e o contexto de utilização . Além disso, as pessoas singulares devem ser notificadas quando são expostas a um sistema de reconhecimento de emoções ou a um sistema de categorização biométrica. Essas informações e notificações devem ser fornecidas em formatos acessíveis a pessoas com deficiência. Além disso, os utilizadores que recorrem a um sistema de IA para gerar ou manipular conteúdos de imagem, áudio ou vídeo que sejam consideravelmente semelhantes a pessoas, locais ou acontecimentos reais e que, falsamente, pareçam ser autênticos a outrem devem divulgar que os conteúdos foram criados de forma artificial ou manipulados, identificando como tal o resultado da inteligência artificial e divulgando a sua origem artificial. |
Determinados sistemas de IA concebidos para interagir com pessoas singulares ou para criar conteúdos podem representar riscos específicos de usurpação de identidade ou fraude, independentemente de serem considerados de risco elevado ou não. Como tal, a utilização destes sistemas deve ser sujeita a obrigações de transparência específicas sem prejudicar os requisitos e as obrigações aplicáveis aos sistemas de IA de risco elevado. Em particular, as pessoas singulares devem ser sistematicamente notificadas de que estão a interagir com um sistema de IA. Além disso, as pessoas singulares devem ser notificadas quando são expostas a um sistema de reconhecimento de emoções ou a um sistema de categorização biométrica. Essas informações e notificações devem ser fornecidas em formatos acessíveis a pessoas com deficiência. Além disso, os utilizadores que recorrem a um sistema de IA para gerar ou manipular conteúdos de imagem, áudio ou vídeo que sejam consideravelmente semelhantes a pessoas, locais ou acontecimentos reais e que, falsamente, pareçam ser autênticos a outrem devem divulgar que os conteúdos foram criados de forma artificial ou manipulados, identificando como tal o resultado da inteligência artificial e divulgando a sua origem artificial. |
Justificação
Não podem ser feitas exceções à obrigação de transparência e informação quando as pessoas singulares interagem com os sistemas de IA.
Alteração 12
Considerando 76
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
|
A fim de facilitar uma aplicação simples, eficaz e harmoniosa do presente regulamento, deve ser criado um Comité Europeu para a Inteligência Artificial. O Comité deve ser responsável por uma série de funções consultivas, nomeadamente a emissão de pareceres, recomendações, conselhos ou orientações em questões relacionadas com a aplicação do presente regulamento, incluindo no tocante a especificações técnicas ou normas existentes relativas aos requisitos indicados no presente regulamento, e a prestação de aconselhamento e assistência à Comissão sobre questões específicas relacionadas com a inteligência artificial. |
A fim de facilitar uma aplicação simples, eficaz e harmoniosa do presente regulamento, deve ser criado um Comité Europeu para a Inteligência Artificial. O Comité deve ser responsável por uma série de funções consultivas, nomeadamente a emissão de pareceres, recomendações, conselhos ou orientações em questões relacionadas com a aplicação do presente regulamento, incluindo no tocante a especificações técnicas ou normas existentes relativas aos requisitos indicados no presente regulamento, e a prestação de aconselhamento e assistência à Comissão sobre questões específicas relacionadas com a inteligência artificial. Os membros do Comité Europeu para a Inteligência Artificial devem representar os interesses da sociedade europeia. A composição do Comité Europeu para a Inteligência Artificial deve ser equilibrada em termos de género. |
Justificação
O Comité Europeu para a IA deve representar os amplos interesses da sociedade europeia, nomeadamente questões como os direitos humanos, o clima e a utilização eficiente do ponto de vista energético dos sistemas de IA, a segurança, a inclusão social, a saúde, etc. O equilíbrio entre os géneros é uma condição prévia para a diversidade no aconselhamento, na elaboração de orientações, etc.
Alteração 13
Considerando 77
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
|
Os Estados-Membros desempenham um papel fundamental na aplicação e execução do presente regulamento. Nesse sentido, cada Estado-Membro deve designar uma ou várias autoridades nacionais competentes para efeitos de supervisão da aplicação e execução do presente regulamento. A fim de aumentar a eficácia organizativa dos Estados-Membros e de criar um ponto de contacto oficial para o público e outras contrapartes a nível dos Estados-Membros e da União, cada Estado-Membro deve designar uma autoridade nacional como autoridade nacional de controlo. |
Os Estados-Membros desempenham um papel fundamental na aplicação e execução do presente regulamento. Nesse sentido, cada Estado-Membro deve designar uma ou várias autoridades nacionais competentes para efeitos de supervisão da aplicação e execução do presente regulamento. A fim de aumentar a eficácia organizativa dos Estados-Membros e de criar um ponto de contacto oficial para o público e outras contrapartes a nível dos Estados-Membros e da União, cada Estado-Membro deve designar uma autoridade nacional como autoridade nacional de controlo. Sempre que o considere adequado, o Estado-Membro confia aos órgãos de poder local e regional funções de supervisão ou de execução. |
Justificação
A fim de assegurar a aplicabilidade do regulamento e do seu quadro de supervisão e execução, os Estados-Membros devem ter poderes para confiar aos órgãos de poder local e regional, sempre que necessário e possível, funções de supervisão ou de execução.
Alteração 14
Considerando 79
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
|
Para assegurar uma execução adequada e eficaz dos requisitos e das obrigações estabelecidas no presente regulamento, que faz parte da legislação de harmonização da União, o sistema de fiscalização do mercado e de conformidade dos produtos estabelecido no Regulamento (UE) 2019/1020 deve ser aplicado na íntegra. Quando tal for necessário ao cumprimento do seu mandato, as autoridades públicas ou os organismos nacionais que supervisionam a aplicação do direito da União que protege direitos fundamentais, incluindo os organismos de promoção da igualdade, também devem ter acesso à documentação elaborada por força do presente regulamento. |
Para assegurar uma execução adequada e eficaz dos requisitos e das obrigações estabelecidas no presente regulamento, que faz parte da legislação de harmonização da União, o sistema de fiscalização do mercado e de conformidade dos produtos estabelecido no Regulamento (UE) 2019/1020 deve ser aplicado na íntegra. Quando tal for necessário ao cumprimento do seu mandato, as autoridades públicas e, se for caso disso, os órgãos de poder local ou regional, ou os organismos nacionais que supervisionam a aplicação do direito da União que protege direitos fundamentais, incluindo os organismos de promoção da igualdade, também devem ter acesso à documentação elaborada por força do presente regulamento. |
Justificação
A presente proposta de alteração tem em conta as diferentes estruturas de governação nos Estados-Membros da UE.
Alteração 15
Considerando 83
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
|
Para assegurar uma cooperação de confiança e construtiva entre as autoridades competentes a nível da União e nacional, todas as partes envolvidas na aplicação do presente regulamento devem respeitar a confidencialidade das informações e dos dados obtidos no exercício das suas funções. |
Para assegurar uma cooperação de confiança e construtiva entre as autoridades competentes a nível da União, nacional , regional e local , todas as partes envolvidas na aplicação do presente regulamento devem respeitar a confidencialidade das informações e dos dados obtidos no exercício das suas funções. |
Justificação
A presente proposta de alteração tem em conta as diferentes estruturas de governação nos Estados-Membros da UE.
Alteração 16
Título I, artigo 3.o, n.o 1 — Definições
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
|
«Sistema de inteligência artificial» (sistema de IA), um programa informático desenvolvido com uma ou várias das técnicas e abordagens enumeradas no anexo I, capaz de, tendo em vista um determinado conjunto de objetivos definidos por seres humanos, criar resultados, tais como conteúdos, previsões, recomendações ou decisões, que influenciam os ambientes com os quais interage; |
«Sistema de inteligência artificial» (sistema de IA), um programa informático desenvolvido com uma ou várias das técnicas e abordagens enumeradas na lista não exaustiva do anexo I, em combinação com práticas sociais, identidade e cultura, capaz de, tendo em vista um determinado conjunto de objetivos definidos por seres humanos e a partir da perceção do seu ambiente através da recolha de dados, da interpretação dos dados recolhidos, estruturados ou não, da gestão do conhecimento ou do processamento das informações derivadas desses dados , criar resultados, tais como conteúdos, previsões, recomendações ou decisões, que influenciam os ambientes com os quais interage; |
Justificação
Um «sistema de IA» consiste numa combinação de elementos técnicos que liga dados, algoritmos e capacidade computacional às práticas sociais, sociedade, identidade e cultura. A definição deste conjunto sociotécnico dinâmico deve, por conseguinte, ser adequada para o futuro e atualizada regularmente, a fim de refletir com precisão o crescente impacto da IA na sociedade e, simultaneamente, identificar os desafios e as oportunidades que surgem com a IA e que mudam rapidamente, incluindo a ligação entre a gestão do conhecimento e a IA. Neste contexto, um algoritmo desenvolvido por outro algoritmo também deve estar sujeito ao regulamento.
Alteração 17
Artigo 5.o, n.o 1
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
||||||||||
|
Estão proibidas as seguintes práticas de inteligência artificial: |
Estão proibidas as seguintes práticas de inteligência artificial: |
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
|
Justificação
As técnicas subliminares em geral podem comprometer a liberdade, os direitos humanos e, por conseguinte, o funcionamento do Estado de direito democrático. Ao mesmo tempo, a inteligência artificial pode comprometer os direitos dos consumidores. O objetivo dos aditamentos é clarificar este aspeto.
No que diz respeito à classificação social pelas autoridades públicas ou em seu nome, esta deve ser proibida se for efetuada para fins gerais, tendo em conta os perigos resultantes dessas práticas, tal como explicado no considerando 17. A geração ou recolha de dados para fins específicos só deve ser permitida mediante supervisão humana e desde que não viole o direito à dignidade e à não discriminação, nem os valores da igualdade e da justiça.
Alteração 18
Artigo 5.o, n.o 4
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
|
Um Estado-Membro pode decidir prever a possibilidade de autorizar total ou parcialmente a utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública dentro dos limites e sob as condições enumeradas no n.o 1, alínea d), e nos n.os 2 e 3. Esse Estado-Membro estabelece na sua legislação nacional as regras pormenorizadas aplicáveis ao pedido, à emissão e ao exercício das autorizações a que se refere o n.o 3, bem como à supervisão das mesmas. Essas regras especificam igualmente em relação a que objetivos enumerados no n.o 1, alínea d), incluindo quais das infrações penais referidas na subalínea iii) da mesma, as autoridades competentes podem ser autorizadas a usar esses sistemas para efeitos de manutenção da ordem pública. |
Um Estado-Membro pode decidir prever a possibilidade de autorizar total ou parcialmente a utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública dentro dos limites e sob as condições enumeradas no n.o 1, alínea d), e nos n.os 2 e 3. Esse Estado-Membro estabelece na sua legislação nacional as regras pormenorizadas aplicáveis ao pedido, à emissão e ao exercício das autorizações a que se refere o n.o 3, bem como à supervisão das mesmas. Essas regras especificam igualmente em relação a que objetivos enumerados no n.o 1, alínea d), incluindo quais das infrações penais referidas na subalínea iii) da mesma, as autoridades competentes podem ser autorizadas a usar esses sistemas para efeitos de manutenção da ordem pública. Essas regras estabelecem as modalidades de prestação de informações e consulta dos órgãos de poder local e regional em causa. Esta consulta deve ter lugar antes da utilização excecional destes sistemas em espaços acessíveis ao público. Em situações urgentes em que não seja razoável esperar uma consulta prévia, o órgão de poder local ou regional em causa é imediatamente informado da utilização da prática de IA em causa. |
Justificação
A responsabilidade política e administrativa pela gestão e supervisão dos espaços acessíveis ao público cabe aos órgãos de poder local e regional. Por conseguinte, devem estar em condições de dar o seu contributo antes da implantação de tais práticas de IA e ser devidamente informados da utilização excecional dos sistemas de IA para efeitos de manutenção da ordem pública.
Em situações urgentes em que não seja razoável esperar uma consulta prévia, o órgão de poder local ou regional em causa deve ser imediatamente informado.
Alteração 19
Artigo 13.o
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
||||||||||
|
Artigo 13.o Transparência e prestação de informações aos utilizadores |
Artigo 13.o-A Transparência e prestação de informações aos utilizadores |
||||||||||
|
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que assegure que o seu funcionamento seja suficientemente transparente para permitir aos utilizadores interpretar o resultado do sistema e utilizá-lo corretamente. Deve ser garantido um tipo e um grau adequado de transparência, que permita cumprir as obrigações que incumbem ao utilizador e ao fornecedor por força do capítulo 3 do presente título. |
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que assegure que o seu funcionamento seja suficientemente transparente para permitir aos utilizadores interpretar o resultado do sistema e utilizá-lo corretamente. Devem ser garantidos um tipo e um grau adequado de transparência e uma explicação compreensível , que permitam cumprir as obrigações que incumbem ao utilizador e ao fornecedor por força do capítulo 3 do presente título. A explicação deve ser fornecida, pelo menos, na língua do país em que o sistema de IA é implantado. |
||||||||||
|
2. Os sistemas de IA de risco elevado devem ser acompanhados de instruções de utilização, num formato digital ou outro adequado, que incluam informações concisas, completas, corretas e claras que sejam pertinentes, acessíveis e compreensíveis para os utilizadores. |
2. Os sistemas de IA de risco elevado devem ser acompanhados de instruções de utilização públicas, compreensíveis e acessíveis a todos , num formato digital ou outro adequado, que incluam informações concisas, completas, corretas e claras que sejam pertinentes, acessíveis e compreensíveis para os utilizadores. |
||||||||||
|
3. As informações a que se refere o n.o 2 devem especificar: |
3. As informações a que se refere o n.o 2 devem especificar: |
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
||||||||||
|
|
Artigo 13.o-B Transparência e prestação de informações às pessoas afetadas As pessoas ou grupos de pessoas relativamente a quem se pretenda utilizar um sistema de IA de risco elevado devem ser informados, de forma adequada, facilmente acessível e compreensível, dessa utilização, e ter acesso a informações explícitas, facilmente acessíveis e públicas sobre essa utilização. |
Justificação
A fim de reforçar o ecossistema de confiança, devem ser disponibilizadas ao público as instruções de utilização de sistemas de IA de risco elevado. Estas instruções devem ser redigidas numa língua compreendida pelo leitor do país onde o sistema de IA é implantado.
No contexto da transparência e da interpretação dos algoritmos, deve ser possível explicar com que parâmetros o modelo foi ajustado e quais as medidas tomadas para evitar demasiado viés ou demasiada variância.
O artigo 13.o-B regula a obrigação de transparência e prestação de informação às pessoas que interagem com os sistemas de IA ou que possam ser afetadas por esses sistemas.
Alteração 20
Artigo 14.o, n.o 4
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
||||
|
As medidas a que se refere o n.o 3 devem permitir que as pessoas responsáveis pela supervisão humana façam o seguinte, em função das circunstâncias: |
As medidas a que se refere o n.o 3 devem permitir que as pessoas responsáveis pela supervisão humana façam o seguinte, em função das circunstâncias: |
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
Justificação
Existem várias formas de enviesamento que podem ser problemáticas, como, por exemplo, o enviesamento do próprio criador ou utilizador (enviesamento social), o enviesamento quanto ao facto de o sistema de IA implantado ser uma solução adequada para o problema (enviesamento tecnológico) e formas estatísticas de enviesamento.
Alteração 21
Artigo 14.o, novo número após o n.o 5
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
|
|
Qualquer decisão tomada pelos sistemas de IA referidos no anexo III, ponto 5, alíneas a) e b), deve ser objeto de intervenção humana e basear-se num processo de decisão rigoroso. Para estas decisões cumpre assegurar o contacto humano. |
Justificação
O artigo 14.o trata apenas da supervisão humana dos sistemas de IA de risco elevado. No que respeita às decisões dos órgãos de poder, importa salientar que é de assegurar a intervenção e o contacto humanos, bem como uma garantia processual.
Alteração 22
Artigo 17.o, n.o 1, novas alíneas após a alínea m)
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
||||
|
Os fornecedores de sistemas de IA de risco elevado devem criar um sistema de gestão da qualidade que assegure a conformidade com o presente regulamento. Esse sistema deve estar documentado de uma forma sistemática e ordenada, sob a forma de políticas, procedimentos e instruções escritas, e deve incluir, no mínimo, os seguintes aspetos: |
Os fornecedores de sistemas de IA de risco elevado devem criar um sistema de gestão da qualidade que assegure a conformidade com o presente regulamento. Esse sistema deve estar documentado de uma forma sistemática e ordenada, sob a forma de políticas, procedimentos e instruções escritas, e deve incluir, no mínimo, os seguintes aspetos: |
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
|
Justificação
O aditamento visa salientar que a inclusividade e a luta contra a discriminação injustificada devem ser elementos importantes do sistema de qualidade.
O sistema deve respeitar os valores éticos que um utilizador do sistema de IA pretende associar a esse sistema ou que o fornecedor pode razoavelmente esperar que estejam associados a um sistema de IA de risco elevado. O fornecedor deve estar em condições de explicar de que forma tomou estes aspetos em consideração.
Alteração 23
Artigo 19.o, n.o 1
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
|
Os fornecedores de sistemas de IA de risco elevado devem assegurar que os sistemas que fornecem são sujeitos a um procedimento de avaliação da conformidade de acordo com o artigo 43.o, antes de serem colocados no mercado ou colocados em serviço. Assim que a conformidade dos sistemas de IA com os requisitos estabelecidos no capítulo 2 do presente título tiver sido demonstrada na sequência de uma avaliação da conformidade, os fornecedores devem elaborar uma declaração de conformidade UE de acordo com o artigo 48.o e apor a marcação de conformidade CE de acordo com o artigo 49.o. |
Os fornecedores de sistemas de IA de risco elevado devem assegurar que os sistemas que fornecem são sujeitos a um procedimento de avaliação da conformidade de acordo com o artigo 43.o, antes de serem colocados no mercado ou colocados em serviço. Assim que a conformidade dos sistemas de IA com os requisitos estabelecidos no capítulo 2 do presente título tiver sido demonstrada na sequência de uma avaliação da conformidade, os fornecedores devem elaborar uma declaração de conformidade UE de acordo com o artigo 48.o e apor a marcação de conformidade CE de acordo com o artigo 49.o. O fornecedor de sistemas de IA de risco elevado deve publicar a declaração de conformidade UE e um resumo da avaliação da conformidade num local acessível ao público. |
Justificação
A fim de reforçar o ecossistema de confiança nos sistemas de IA, os fornecedores de sistemas de IA de risco elevado devem agir em total transparência. Por conseguinte, o público deve poder verificar se a avaliação da conformidade foi devidamente realizada de acordo com as regras do regulamento.
Alteração 24
Artigo 29.o, novo número após o n.o 6
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
|
|
Os utilizadores de sistemas de IA de risco elevado são responsáveis por realizar uma ponderação de teor ético antes de utilizarem o sistema. Devem ser capazes de explicar o possível impacto da utilização da tecnologia nas pessoas e na sociedade. Devem especificar a finalidade da sua utilização do sistema de IA, os valores globais e a forma como esses valores foram ponderados e se foram ou não implementados no sistema. Devem avaliar o impacto real do sistema de IA nos seres humanos e na sociedade ao longo de todo o ciclo de vida desse sistema. |
Justificação
A ética é um conceito amplo. Existem muitas formas de praticar a ética tecnológica, tanto em termos de justificações teóricas como de metodologias, ferramentas e valores de conceção concretos. Os valores são questões consideradas importantes por determinadas pessoas ou grupos de pessoas. Podem ser mais concretos ou mais conceptuais. É importante manter aberto o leque de possíveis valores morais a implementar e continuar a avaliar o ciclo de vida do sistema de IA.
Alteração 25
Artigo 52.o, n.o 1
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
|
Os fornecedores devem assegurar que os sistemas de IA destinados a interagir com pessoas singulares sejam concebidos e desenvolvidos de maneira que as pessoas singulares sejam informadas de que estão a interagir com um sistema de IA , salvo se tal se revelar óbvio dadas as circunstâncias e o contexto de utilização . Esta obrigação não se aplica a sistemas de IA legalmente autorizados para detetar, prevenir, investigar e reprimir infrações penais, salvo se esses sistemas estiverem disponíveis ao público para denunciar uma infração penal. |
Os fornecedores devem assegurar que os sistemas de IA destinados a interagir com pessoas singulares sejam concebidos e desenvolvidos de maneira que as pessoas singulares sejam informadas de que estão a interagir com um sistema de IA. Esta obrigação não se aplica a sistemas de IA legalmente autorizados para detetar, prevenir, investigar e reprimir infrações penais, salvo se esses sistemas estiverem disponíveis ao público para denunciar uma infração penal. Esta interação não pode restringir o âmbito das opções nem o estatuto jurídico das pessoas singulares que interagem com os sistemas de IA. |
Justificação
Quando os artefactos tecnológicos são utilizados como meio de interação com pessoas singulares, pode haver o risco de restringir as escolhas feitas pelas pessoas singulares que interagem com esses artefactos. As pessoas singulares devem ser devidamente informadas sempre que se deparem com sistemas de IA, o que não deve estar sujeito à interpretação de uma dada situação. Os seus direitos devem estar sempre garantidos nas interações com os sistemas de IA.
Alteração 26
Artigo 57.o, n.o 1
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
|
O Comité é composto pelas autoridades nacionais de controlo, que são representadas pelo seu presidente ou funcionário de alto nível equivalente, e pela Autoridade Europeia para a Proteção de Dados. Podem ser convidadas para as reuniões outras autoridades nacionais, sempre que as questões debatidas sejam pertinentes para as mesmas. |
O Comité é composto pelas autoridades nacionais de controlo, que são representadas pelo seu presidente ou funcionário de alto nível equivalente, e pela Autoridade Europeia para a Proteção de Dados. Podem ser convidadas para as reuniões outras autoridades nacionais, regionais e locais sempre que as questões debatidas sejam pertinentes para as mesmas. |
Justificação
Os órgãos de poder local e regional devem poder participar na supervisão dos sistemas de IA e apresentar relatórios sobre a sua aplicação no terreno.
Alteração 27
Artigo 58.o
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
||||||||||||||||
|
Ao prestar aconselhamento e assistência à Comissão nos termos do artigo 56.o, n.o 2, o Comité deve em particular: |
Ao prestar aconselhamento e assistência à Comissão nos termos do artigo 56.o, n.o 2, o Comité deve em particular: |
||||||||||||||||
|
|
||||||||||||||||
|
|
||||||||||||||||
|
|
||||||||||||||||
|
|
Justificação
Os órgãos de poder local e regional estão mais próximos dos habitantes e economias locais. Devem ser explicitamente posicionados quando se trata de partilhar os seus conhecimentos.
Alteração 28
Artigo 59.o, n.o 1
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
|
Cada Estado-Membro deve criar ou designar autoridades nacionais competentes a fim de assegurar a aplicação e execução do presente regulamento. As autoridades nacionais competentes devem estar organizadas de modo que garanta a objetividade e a imparcialidade das suas atividades e funções. |
Cada Estado-Membro deve criar ou designar autoridades nacionais competentes a fim de assegurar a aplicação e execução do presente regulamento. As autoridades nacionais competentes devem estar organizadas de modo que garanta a objetividade e a imparcialidade das suas atividades e funções. Sempre que o considere adequado, o Estado-Membro confere aos órgãos de poder local e regional os poderes de realizar funções de supervisão ou de execução. |
Justificação
A fim de assegurar a aplicabilidade do regulamento e do quadro de controlo e execução previsto, o Estado-Membro deve poder confiar aos órgãos de poder local e regional, sempre que necessário e possível, funções de supervisão ou de execução. Neste contexto, os órgãos de poder local e regional devem receber apoio e formação, a fim de estarem plenamente habilitados a desempenhar funções de supervisão ou execução.
Alteração 29
Artigo 69.o, n.o 3
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
|
Os códigos de conduta podem ser elaborados por fornecedores de sistemas de IA a título individual ou por organizações que os representem, ou ambos, nomeadamente com a participação de utilizadores e de quaisquer partes interessadas e das respetivas organizações representativas. Os códigos de conduta podem abranger um ou mais sistemas de IA, tendo em conta a semelhança da finalidade prevista desses sistemas. |
Os códigos de conduta podem ser elaborados pelos órgãos de poder nacional, local e regional, por fornecedores de sistemas de IA a título individual ou por organizações que os representem, ou ambos, nomeadamente com a participação de utilizadores e de quaisquer partes interessadas e das respetivas organizações representativas. Os códigos de conduta podem abranger um ou mais sistemas de IA, tendo em conta a semelhança da finalidade prevista desses sistemas. |
Justificação
Os órgãos de poder nacional, local e regional devem ter competência jurídica para elaborar códigos de conduta para os sistemas de IA que desenvolvem ou utilizam.
Alteração 30
ANEXO I — Técnicas e abordagens no domínio da inteligência artificial referidas no artigo 3.o, ponto 1
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
||||
|
|
Tendo em conta o estado atual da ciência, a IA inclui os seguintes métodos e técnicas: |
||||
|
|
||||
|
|
||||
|
|
Justificação
A definição e a lista de técnicas de IA devem ser adequadas para o futuro. A lista de técnicas e abordagens específicas utilizadas para o desenvolvimento de sistemas de IA não deve ser exaustiva e deve ficar claro que se baseia na atualidade científica.
Alteração 31
Anexo III, pontos 1 a 5
|
Texto da proposta da Comissão Europeia |
Alteração proposta pelo CR |
||||
|
Os sistemas de IA de risco elevado a que se refere o artigo 6.o, n.o 2, são os sistemas de IA incluídos num dos domínios a seguir enumerados: |
Os sistemas de IA de risco elevado a que se refere o artigo 6.o, n.o 2, são os sistemas de IA incluídos num dos domínios a seguir enumerados: |
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
||||
|
|
Justificação
As infraestruturas de telecomunicações, de abastecimento de água e de ligação à Internet são parte integrante das infraestruturas críticas.
A questão da qualificação dos sistemas de risco elevado é a de saber se esses sistemas podem representar um risco real para os cidadãos. A mera avaliação analítica e teórica do direito dos habitantes a usufruir de serviços públicos não implica, por si, um risco elevado. O aditamento da expressão «decidir sobre» sublinha que este risco se reflete efetivamente na tomada de decisões, em especial para os habitantes.
II. RECOMENDAÇÕES POLÍTICAS
O COMITÉ DAS REGIÕES EUROPEU
Ecossistema de excelência
|
1. |
salienta que a ambição da Comissão de tornar a UE líder mundial no desenvolvimento da IA responsável e centrado nas pessoas só pode ser alcançada se os órgãos de poder local e regional desempenharem um papel proeminente nesse processo. Estes são os órgãos de poder mais bem posicionados para contribuir para a criação de um ambiente favorável ao aumento do investimento na inteligência artificial nos próximos anos e ao fomento da confiança na inteligência artificial; |
|
2. |
salienta que, para além de chamar à participação os órgãos de poder local e regional, é importante prestar apoio e formação, a fim de reforçar as suas competências neste domínio, especialmente porque podem ter funções de supervisão e execução; |
|
3. |
observa que estará disponível financiamento da UE para o desenvolvimento da IA, mas chama a atenção para a sua abordagem fragmentada devido à diversidade de programas, o que aumenta o risco de dispersão e sobreposição; |
|
4. |
insta, por conseguinte, a Comissão a desenvolver e a interligar espaços comuns de dados fortes e pluralistas que resolvam casos de utilização social através de dados públicos e privados. Tal exige também o alinhamento com as iniciativas legislativas no âmbito da Estratégia Europeia para os Dados; |
Ecossistema de confiança
|
5. |
lamenta que a proposta de regulamento não faça referência aos órgãos de poder local e regional, embora o quadro jurídico venha a ser aplicável tanto aos agentes públicos como privados; |
|
6. |
observa, neste sentido, que os sistemas de IA podem desempenhar um papel importante na interação dos órgãos de poder local e regional com os cidadãos e na prestação de serviços. Além disso, os sistemas de IA têm potencial, nomeadamente, para melhorar a eficiência do setor público e ajudar os órgãos de poder local e regional a realizar os ajustamentos necessários a nível local e regional no contexto das transições ecológica e digital. É, por conseguinte, importante que a revisão em curso do regulamento aproveite ativamente a experiência adquirida pelos órgãos de poder local e regional; |
|
7. |
solicita uma maior clarificação das definições de «fornecedor» e «utilizador», em particular nas situações em que empresas, instituições de investigação, autoridades públicas e habitantes desenvolvem e testam conjuntamente sistemas de IA em laboratórios vivos. Cumpre também dar a devida atenção aos cidadãos ou consumidores afetados por decisões baseadas na IA dos sistemas utilizados pelos utilizadores profissionais; |
|
8. |
salienta a necessidade de consultar previamente os órgãos de poder local e regional em causa no caso da utilização de sistemas de IA para a identificação biométrica em tempo real de pessoas singulares, à distância, em zonas acessíveis ao público para efeitos de manutenção da ordem pública; |
|
9. |
congratula-se com a consulta pública da Comissão Europeia sobre a adaptação das regras em matéria de responsabilidade civil aos desafios específicos da era digital e da inteligência artificial (1) e espera que tal resulte num quadro atualizado destinado a assegurar a reparação dos danos causados aos consumidores pelas aplicações de IA; |
|
10. |
interroga-se por que motivo os sistemas de IA utilizados em processos democráticos, como as eleições, não figuram na lista de sistemas de IA de risco elevado; |
|
11. |
solicita que os sistemas de IA de risco elevado sejam sujeitos aos mesmos requisitos de transparência e informação para as pessoas singulares, como acontece atualmente para os utilizadores; |
|
12. |
destaca os riscos e implicações graves em matéria de direitos humanos associados à utilização de classificações sociais; |
|
13. |
mostra-se muito cético, neste contexto, em relação às duas razões apresentadas no regulamento (2) para determinar quando uma classificação social conduz a um tratamento prejudicial ou desfavorável de pessoas singulares ou grupos das mesmas, uma vez que é extremamente difícil demonstrar a existência de tais razões. Apela, neste contexto, à formulação clara de salvaguardas sólidas, a fim de garantir que não se contorna a proibição das práticas de classificação social; |
|
14. |
assinala o facto de os considerandos do regulamento abordarem os riscos a que as pessoas singulares estão expostas em resultado da sua interação com sistemas de IA de risco elevado no contexto, nomeadamente, da educação, da formação, do emprego, da gestão dos recursos humanos, do acesso ao trabalho por conta própria ou do acesso e usufruto de determinados serviços públicos e privados essenciais; |
|
15. |
insta a Comissão a examinar mais aprofundadamente a classificação de risco elevado dos sistemas de IA destinados a serem utilizados pelas autoridades públicas (3); |
|
16. |
apela para a possibilidade de uma autoridade prestar aconselhamento essencial ex ante sobre a interpretação das disposições do regulamento, inclusive em relação ao Regulamento Geral sobre a Proteção de Dados. Tal reforçará a segurança jurídica e reduzirá os custos de conceção e implantação de sistemas de IA; |
|
17. |
sublinha, para o efeito, a importância da clareza na formulação do regulamento, que é fundamental para criar um ecossistema de confiança e para eliminar a insegurança jurídica em torno do desenvolvimento e da utilização de sistemas de IA. Tal evitaria interpretações erróneas dos requisitos propostos e minimizaria os riscos de uma má gestão subsequente das aplicações de IA, maximizando assim a eficácia e a credibilidade das sanções do regulamento. Ao mesmo tempo, e em consonância com Programa Legislar Melhor da Comissão Europeia, é fundamental detetar precocemente e eliminar potenciais sobreposições e/ou conflitos com as regras em vigor; |
|
18. |
observa que muitos órgãos de poder local e regional estão a utilizar os mesmos sistemas de IA para tarefas semelhantes. Na grande maioria dos casos, os sistemas são concebidos por empresas privadas; |
|
19. |
observa que a proposta de regulamento não é um elemento isolado no que toca à garantia dos direitos dos cidadãos e deve ser vista no contexto da legislação em vigor. Assim, solicita-se aos Estados-Membros que assegurem continuamente a adoção das medidas administrativas necessárias para dar resposta às oportunidades e aos riscos decorrentes da utilização da IA no setor público; |
|
20. |
observa que isto significa que, na avaliação da conformidade, as regras europeias e nacionais são interpretadas pelas empresas e pelos organismos notificados e, por conseguinte, têm impacto na prática dos órgãos de poder local e regional que utilizam estes sistemas de IA. Assim, é difícil determinar em que medida a política local e regional pode ser tida em conta nestes sistemas de IA; por conseguinte, chama a atenção para as necessidades específicas dos órgãos de poder local e regional e para o facto de uma abordagem universal poder comprometer a eficácia dos sistemas de IA na resposta a essas necessidades; propõe ainda conferir-se aos Estados-Membros poderes para regular os sistemas de IA de risco elevado com base em razões imperiosas e justificadas de interesse público; |
|
21. |
solicita, neste contexto, que as avaliações da conformidade sejam transparentes e acessíveis ao público. Além disso, os órgãos de poder local e regional devem também poder participar na supervisão dos sistemas de IA, apresentar relatórios sobre a sua aplicação no terreno e contribuir formalmente para a avaliação, pela Comissão Europeia, da aplicação do regulamento; |
|
22. |
salienta que a aplicação do ambiente de testagem da regulamentação exige a criação de condições jurídicas, metodológicas e éticas adequadas, a fim de permitir o desenvolvimento da tecnologia, a elaboração de legislação e a sua avaliação, e que devem ser estabelecidos critérios claros para a admissão de empresários ao ambiente de testagem da regulamentação. Para garantir que as organizações de consumidores possam aplicar as disposições do Regulamento Inteligência Artificial, cumpre aditar este último ao anexo I da Diretiva (UE) 2020/1828 relativa a ações coletivas para proteção dos interesses coletivos dos consumidores; |
Campanhas de informação
|
23. |
salienta a importância das campanhas públicas para que o público em geral seja informado e familiarizado com a existência e a utilidade dos sistemas de IA, bem como com os riscos potenciais; sublinha ainda a necessidade urgente de informação abrangente para os consumidores sobre processos de tomada de decisões controlados pela inteligência artificial ou automatizados; solicita, para o efeito, que a Comissão Europeia disponibilize fundos para essas campanhas; |
Encargos administrativos
|
24. |
manifesta a sua preocupação com os potenciais encargos administrativos do regulamento proposto. Os encargos administrativos podem prejudicar as pequenas e médias empresas e os órgãos de poder local e regional na promoção da inovação e na implantação de sistemas de IA (4); |
Proporcionalidade e subsidiariedade
|
25. |
considera que a proposta de regulamento cumpre os requisitos dos princípios da proporcionalidade e da subsidiariedade. O valor acrescentado da ação da UE neste domínio e a adequação das bases jurídicas escolhidas pela Comissão são claros e coerentes. A avaliação de impacto incluiu uma secção distinta sobre a subsidiariedade. Além disso, nenhum parlamento nacional emitiu um parecer fundamentado sobre o incumprimento do princípio da subsidiariedade no prazo fixado para a respetiva apresentação, fixado em 2 de setembro de 2021. |
Bruxelas, 2 de dezembro de 2021.
O Presidente do Comité das Regiões Europeu
Apostolos TZITZIKOSTAS
([62]) Decisão-quadro 2002/584/JAI do Conselho, de 13 de junho de 2002, relativa ao mandado de detenção europeu e aos processos de entrega entre os Estados-Membros (JO L 190 de 18.7.2002, p. 1).
([62]) Decisão-quadro 2002/584/JAI do Conselho, de 13 de junho de 2002, relativa ao mandado de detenção europeu e aos processos de entrega entre os Estados-Membros (JO L 190 de 18.7.2002, p. 1).
(1) https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_pt.
(2) Artigo 5.o, n.o 1, alínea c).
(3) Anexo III, ponto 5, alínea a).
(4) Na página 12 de um estudo recente intitulado «Study to Support an Impact Assessment of Regulatory Requirements for Artificial Intelligence in Europe» [Estudo de apoio a uma avaliação de impacto dos requisitos regulamentares para a inteligência artificial na Europa], apoiado pela Comissão Europeia, estima-se que, com base em pressupostos razoáveis, a obtenção da certificação para um sistema de IA custaria, em média, entre 16 800 e 23 000 euros, aproximadamente equivalente a 10-14 % dos custos de desenvolvimento.