Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52021AE2482

    Parecer do Comité Económico e Social Europeu — Proposta de regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial) e altera determinados atos legislativos da União [COM(2021) 206 final — 2021/106 (COD)]

    EESC 2021/02482

    JO C 517 de 22.12.2021, p. 61–66 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    22.12.2021   

    PT

    Jornal Oficial da União Europeia

    C 517/61


    Parecer do Comité Económico e Social Europeu — Proposta de regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial) e altera determinados atos legislativos da União

    [COM(2021) 206 final — 2021/106 (COD)]

    (2021/C 517/09)

    Relatora:

    Catelijne MULLER

    Consulta

    Parlamento Europeu, 7.6.2021

    Conselho, 15.6.2021

    Base jurídica

    Artigo 114.o do Tratado sobre o Funcionamento da União Europeia (TFUE)

    Competência

    Secção do Mercado Único, Produção e Consumo

    Adoção em secção

    2.9.2021

    Adoção em plenária

    22.9.2021

    Reunião plenária n.o

    563

    Resultado da votação

    (votos a favor/votos contra/abstenções)

    225/03/06

    1.   Conclusões e recomendações

    1.1.

    O Comité Económico e Social Europeu (CESE) saúda o facto de a proposta de regulamento relativo à Inteligência Artificial (o RIA), apresentada pela Comissão, não só abordar os riscos associados à inteligência artificial (IA), mas também elevar substancialmente o nível mínimo de exigência em matéria de qualidade, desempenho e fiabilidade da IA que a UE está disposta a aceitar. O CESE regozija-se particularmente com a abrangência do âmbito de aplicação do RIA e com o facto de este ter como elementos centrais a saúde, a segurança e os direitos fundamentais.

    1.2.

    O CESE entende que há margem para melhorias no que se refere ao âmbito de aplicação, à definição e à clareza das práticas de IA proibidas, às consequências das escolhas de categorização feitas no atinente à «pirâmide dos riscos», ao efeito de atenuação dos riscos através dos requisitos aplicáveis aos sistemas de IA de risco elevado, à aplicabilidade do RIA e à sua interação com outra regulamentação em vigor e outras propostas regulamentares recentes.

    1.3.

    O CESE salienta que a IA nunca funcionou à margem da lei. Em virtude do seu âmbito de aplicação abrangente e da sua primazia enquanto regulamento da UE, o RIA poderá entrar em conflito com atos legislativos nacionais e da UE em vigor e com propostas regulamentares conexas. O CESE recomenda que se altere o considerando 41, de forma a refletir adequadamente e a clarificar as relações entre o RIA e a legislação em vigor e futura.

    1.4.

    O CESE recomenda a clarificação da definição de IA, suprimindo o anexo I, alterando ligeiramente o artigo 3.o e alargando o âmbito de aplicação do RIA de modo a incluir os «sistemas de IA antigos» e os componentes de IA dos sistemas informáticos de grande escala no espaço de liberdade, segurança e justiça enumerados no anexo IX.

    1.5.

    O CESE recomenda a clarificação das proibições relacionadas com «técnicas subliminares» e com a «exploração das vulnerabilidades», a fim de refletir a proibição de práticas manipuladoras prejudiciais, bem como o aditamento dos «prejuízos para os direitos fundamentais, a democracia e o Estado de direito» enquanto fundamento dessas proibições.

    1.6.

    O CESE entende que não é admissível, na UE, a classificação da credibilidade de cidadãos da União com base no seu comportamento social ou em características de personalidade, independentemente do interveniente responsável pela classificação. O CESE recomenda que a proibição desse tipo de classificação seja alargada, a fim de abranger também a classificação social levada a cabo por organizações privadas e autoridades semipúblicas.

    1.7.

    O CESE apela para a proibição da utilização da IA para efeitos de reconhecimento biométrico automatizado, em espaços públicos ou privados, exceto para fins de autenticação em circunstâncias específicas, bem como para efeitos de reconhecimento automatizado de sinais comportamentais humanos, em espaços públicos ou privados, exceto em casos muito específicos, como determinadas finalidades de saúde, em que é importante o reconhecimento das emoções de um doente.

    1.8.

    A abordagem assente numa lista para os sistemas de IA de risco elevado corre o risco de normalizar e generalizar vários sistemas e utilizações de IA que ainda são fortemente criticados. O CESE adverte que a conformidade com os requisitos aplicáveis aos sistemas de IA de risco médio e elevado não atenua forçosamente, para todos os sistemas de IA de risco elevado, os riscos de prejuízos para a saúde, a segurança e os direitos fundamentais. O CESE recomenda que o RIA acautele esta situação. No mínimo, devem ser aditados os requisitos de i) a ação e supervisão humanas, ii) privacidade, iii) diversidade, não discriminação e equidade, iv) explicabilidade e v) bem-estar ambiental e societal, em conformidade com o disposto nas orientações éticas para uma IA de confiança.

    1.9.

    Em consonância com a abordagem da detenção do controlo por humanos, que há muito preconiza, o CESE recomenda vivamente que o RIA preveja que determinadas decisões permaneçam uma prerrogativa dos seres humanos, sobretudo em áreas em que tais decisões tenham uma componente moral e implicações jurídicas ou um impacto social, nomeadamente no sistema judicial, na manutenção da ordem pública, nos serviços sociais, nos cuidados de saúde, na habitação, nos serviços financeiros, nas relações laborais e na educação.

    1.10.

    O CESE recomenda que todos os sistemas de IA de risco elevado fiquem obrigatoriamente sujeitos a avaliações de conformidade realizadas por terceiros.

    1.11.

    O CESE recomenda a inclusão de um mecanismo de reclamação e recurso para as organizações e os cidadãos que tenham sofrido prejuízos causados por qualquer sistema, prática ou utilização de IA abrangido pelo âmbito de aplicação do RIA.

    2.   Proposta regulamentar sobre a Inteligência Artificial — Regulamento IA

    2.1.

    O CESE saúda o facto de a proposta de regulamento relativo à Inteligência Artificial, apresentada pela Comissão, não só abordar os riscos associados à IA, mas também elevar substancialmente o nível mínimo de exigência em matéria de qualidade, desempenho e fiabilidade da IA que a UE está disposta a aceitar.

    3.   Observações na generalidade — RIA

    Objetivo e âmbito de aplicação

    3.1.

    O CESE saúda o objetivo e o âmbito de aplicação do RIA. Congratula-se, em especial, com o facto de a Comissão fazer da saúde, da segurança e dos direitos fundamentais elementos centrais do RIA. O CESE congratula-se também com o efeito externo do RIA, que assegura que a IA desenvolvida em países terceiros é obrigada a respeitar normas jurídicas idênticas às da UE se for implantada ou produzir efeitos no território da UE.

    Definição de IA

    3.2.

    A definição de IA (artigo 3.o, n.o 1, em articulação com o anexo I do RIA) suscitou um debate entre cientistas no domínio da IA, na medida em que estes consideram que, por um lado, vários exemplos indicados no anexo I não constituem IA e que, por outro, estão ausentes desse anexo várias técnicas de IA importantes. O CESE considera que o anexo I não apresenta qualquer valor acrescentado e recomenda a sua remoção integral do RIA. O CESE recomenda ainda que a definição constante do artigo 3.o, n.o 1, passe a ter a seguinte redação:

    «“Sistema de inteligência artificial” (sistema de IA), um programa informático capaz de, tendo em vista um determinado conjunto de objetivos definidos por seres humanos, criar de forma automatizada resultados, tais como conteúdos, previsões, recomendações ou decisões, que influenciam os ambientes com os quais interage».

    Saúde, segurança e direitos fundamentais — a pirâmide dos riscos

    3.3.

    A «pirâmide dos riscos» progressiva (do risco baixo/médio, passando pelo risco elevado, até ao risco inaceitável) utilizada para categorizar várias práticas generalizadas de IA e casos de utilização de IA específicos a determinados domínios, reconhece que nem toda a IA acarreta riscos e que, por outro lado, nem todos os riscos são idênticos ou exigem as mesmas medidas de atenuação.

    3.4.

    A abordagem adotada levanta duas questões importantes. Em primeiro lugar, será que as medidas de atenuação dos riscos (para sistemas de IA de risco elevado e baixo/médio) atenuam suficientemente os riscos de prejuízos para a saúde, a segurança e os direitos fundamentais? Em segundo lugar, será que estamos dispostos a permitir que a IA substitua em larga escala a tomada de decisões humana, incluindo em processos cruciais, como a manutenção da ordem pública e o sistema judiciário?

    3.5.

    No que se refere à primeira questão, o CESE adverte que a conformidade com os requisitos estabelecidos para os sistemas de IA de risco médio e elevado não atenua forçosamente, em todos os casos, os riscos de prejuízos para a saúde, a segurança e os direitos fundamentais. Este aspeto será aprofundado na secção 4.

    3.6.

    No que se refere à segunda questão, aquilo que está em falta no RIA é a ideia de que a promessa da IA reside na melhoria da inteligência e da tomada de decisão humanas, e não na sua substituição. O RIA assenta na premissa de que, uma vez cumpridos os requisitos para sistemas de IA de risco médio e elevado, a IA pode substituir, em grande medida, a tomada de decisão humana.

    3.7.

    O CESE recomenda vivamente que o RIA preveja que determinadas decisões permaneçam uma prerrogativa dos seres humanos, sobretudo em áreas em que tais decisões tenham uma componente moral e implicações jurídicas ou um impacto social, como no sistema judicial, na manutenção da ordem pública, nos serviços sociais, nos cuidados de saúde, na habitação, nos serviços financeiros, nas relações laborais e na educação.

    3.8.

    Os sistemas de IA não funcionam à margem da lei. Atualmente, aplicam-se ou são relevantes para os sistemas de IA uma série de regras juridicamente vinculativas a nível nacional, europeu e internacional. As fontes jurídicas incluem, entre outros, o direito primário da UE (os Tratados da União Europeia e a respetiva Carta dos Direitos Fundamentais), o direito derivado da UE (tal como o Regulamento Geral sobre a Proteção de Dados, a Diretiva Responsabilidade dos Produtos, o Regulamento relativo ao livre fluxo de dados não pessoais, as diretivas relativas ao combate à discriminação, o direito dos consumidores e as diretivas relativas à segurança e saúde no trabalho), os tratados das Nações Unidas em matéria de direitos humanos e as convenções do Conselho da Europa (tal como a Convenção Europeia dos Direitos Humanos), bem como a legislação dos Estados-Membros da UE. Além das regras aplicáveis a nível transversal, existem várias regras setoriais específicas para determinadas aplicações de IA (por exemplo, o Regulamento Dispositivos Médicos no setor da saúde). O CESE recomenda que se altere o considerando 41, de forma refletir adequadamente este aspeto.

    4.   Observações na especialidade e recomendações — RIA

    Práticas de IA proibidas

    4.1.

    O CESE concorda que as práticas de IA indicadas no artigo 5.o não comportam, efetivamente, quaisquer benefícios sociais, devendo ser proibidas. Considera, porém, que algumas formulações são ambíguas, o que poderá levar a que determinadas proibições sejam difíceis de interpretar e fáceis de contornar.

    4.2.

    Existem provas de que as técnicas subliminares não só podem conduzir a danos físicos ou psicológicos (as atuais condições para desencadear esta proibição), mas também podem causar, atendendo ao ambiente em que são aplicadas, outros efeitos nocivos nos planos pessoal, social e democrático, como alterações do sentido de voto. Além disso, muitas vezes não é a própria técnica subliminar que se baseia em IA, mas sim a decisão acerca das pessoas visadas pela utilização de tal técnica.

    4.3.

    A fim de refletir melhor aquilo que o RIA pretende proibir no artigo 5.o, n.o 1, alínea a), isto é, o ato de manipular as pessoas para adotarem comportamentos nocivos, o CESE recomenda que essa alínea passe a ter a seguinte redação: «[…] um sistema de IA implantado, orientado ou utilizado para distorcer substancialmente o comportamento de uma pessoa de uma forma que cause ou seja suscetível de causar danos aos direitos fundamentais dessa pessoa, de outra pessoa ou de um grupo de pessoas, incluindo danos à sua saúde física e psicológica e à sua segurança, bem como à democracia e ao Estado de direito».

    4.4.

    O CESE recomenda que se insira uma alteração semelhante no que se refere à prática proibida de exploração de vulnerabilidades referida no artigo 5.o, n.o 1, alínea b), de modo a incluir os danos aos direitos fundamentais, incluindo danos físicos ou psicológicos.

    4.5.

    O CESE saúda a proibição da «classificação social» constante do artigo 5.o, n.o 1, alínea c). O CESE recomenda que a proibição da classificação social se aplique também às organizações privadas e às autoridades semipúblicas, e não apenas às autoridades públicas. Não é admissível, na UE, a classificação da credibilidade de cidadãos da União com base no seu comportamento social ou em características de personalidade, independentemente do interveniente responsável pela classificação. Se assim não fosse, a UE abriria a porta à classificação social em diversas áreas, nomeadamente no local de trabalho. As condições previstas nas subalíneas i) e ii) devem ser clarificadas, de forma a estabelecer uma distinção clara entre o que é considerado «classificação social» e o que pode ser considerado uma forma aceitável de avaliação para uma finalidade específica, isto é, o momento a partir do qual as informações utilizadas para a avaliação já não são consideradas pertinentes para o objetivo da avaliação ou já não estão razoavelmente relacionadas com ele.

    4.6.

    O RIA visa proibir a identificação biométrica à distância em tempo real (através de reconhecimento facial, por exemplo) para efeitos de manutenção da ordem pública e categorizá-la como «de risco elevado» quando utilizada para outros fins. Tal permite o reconhecimento biométrico «em diferido» e «quase ao vivo». Permite igualmente o reconhecimento biométrico que não visa identificar uma pessoa, mas antes avaliar o seu comportamento a partir das suas características biométricas (microexpressões, maneira de andar, temperatura, ritmo cardíaco, etc.). A limitação da proibição à «manutenção da ordem pública» permite a identificação biométrica e todas as outras formas de reconhecimento biométrico que não visam identificar uma pessoa, incluindo todas as formas referidas de «reconhecimento de emoções», para todos os demais efeitos, por todos os demais intervenientes, em todos os lugares públicos e privados, incluindo no local de trabalho, nas lojas, nos estádios, nos teatros, etc., o que deixa a porta aberta a um mundo em que estamos constantemente sob «avaliação do ponto de vista emocional» para qualquer fim considerado necessário pelo interveniente que efetua essa avaliação.

    4.7.

    De modo geral, o RIA categoriza o «reconhecimento de emoções» como sendo de risco reduzido, exceto em alguns domínios, no âmbito dos quais tal reconhecimento é considerado de risco elevado. Este tipo de reconhecimento biométrico é também conhecido como «reconhecimento afetivo» e, por vezes, «reconhecimento do comportamento». Todos estes tipos de práticas de IA são extremamente invasivos, carecem de uma base científica sólida e acarretam riscos substanciais para vários direitos fundamentais da Carta da UE, incluindo o direito à dignidade humana, o direito à integridade da pessoa (que abrange o direito à integridade mental) e o direito à privacidade.

    4.8.

    De forma largamente consentânea com os apelos da Autoridade Europeia para a Proteção de Dados (AEPD) e do Comité Europeu para a Proteção de Dados (CEPD), de 21 de junho de 2021, no sentido de se proibir a utilização da IA para o reconhecimento automático de características humanas em espaços acessíveis ao público e outras utilizações da IA que podem conduzir a práticas discriminatórias injustas, o CESE preconiza a:

    proibição da utilização da IA para efeitos de reconhecimento biométrico automatizado em espaços públicos e privados (tal como o reconhecimento facial, da maneira de andar, da voz e de outras características biométricas), exceto para fins de autenticação em circunstâncias específicas (por exemplo, para obter acesso a espaços securizados);

    proibição da utilização da IA para efeitos de reconhecimento automatizado de sinais comportamentais humanos em espaços públicos e privados;

    proibição de sistemas de IA que recorram à biometria para agrupar pessoas com base na etnia, no género, na orientação política ou sexual ou noutros aspetos com base nos quais a discriminação é proibida ao abrigo do artigo 21.o da Carta da UE;

    proibição da utilização de IA para inferir as emoções, o comportamento, as intenções ou as características de uma pessoa singular, exceto em casos muito específicos, como determinadas finalidades de saúde, em que é importante o reconhecimento das emoções de um doente.

    Sistemas de IA de risco elevado

    4.9.

    Ao determinar se uma prática ou utilização de IA que comporta um risco para a saúde, a segurança ou os direitos fundamentais deve, não obstante, ser autorizada sob condições rigorosas, a Comissão reteve dois elementos: i) se a prática ou utilização de IA em questão é suscetível de ter benefícios sociais, e ii) se o risco de prejuízos para a saúde, a segurança e os direitos fundamentais apresentado pela mesma pode ser atenuado se forem respeitados certos requisitos.

    4.10.

    O CESE saúda a harmonização desses requisitos com os elementos das orientações éticas para uma IA de confiança. Contudo, o RIA não aborda especificamente, no âmbito dos requisitos para os sistemas de IA de risco elevado, cinco requisitos importantes contidos nessas orientações, a saber: i) a ação e supervisão humanas, ii) a privacidade, iii) a diversidade, a não discriminação e a equidade iv) a explicabilidade e v) o bem-estar ambiental e societal. O CESE entende que se trata de uma oportunidade perdida, dado que muitos dos riscos criados pela IA têm que ver com a privacidade, os enviesamentos, a exclusão, a inexplicabilidade dos resultados das decisões tomadas pela IA, o enfraquecimento da ação e supervisão humanas e do ambiente, quando todos estes aspetos têm impacto nos nossos direitos fundamentais.

    4.11.

    O CESE recomenda que estes requisitos sejam aditados aos que já constam do capítulo 2 do título III do RIA, a fim de melhorar a capacidade do RIA para proteger eficazmente a nossa saúde, a segurança e os direitos fundamentais em relação aos impactos adversos da IA utilizada tanto pelas autoridades públicas como por organizações privadas.

    4.12.

    O CESE saúda a «articulação» entre o RIA e a legislação de harmonização da União. Recomenda que o âmbito de aplicação do RIA e os requisitos aplicáveis aos sistemas de IA de risco elevado sejam alargados além dos «sistemas de IA que são componentes de segurança» ou das situações em que o próprio sistema de IA é um produto abrangido pela legislação de harmonização da União enumerada no anexo II. Tal justifica-se pelo facto de a IA poder apresentar riscos mesmo quando não é um componente de segurança e também pelo facto de o próprio sistema de IA nem sempre ser um produto. É o caso, por exemplo, da IA utilizada como parte de uma ferramenta de diagnóstico ou de prognóstico na área da saúde, ou de um termóstato baseado em IA que regula uma caldeira.

    4.13.

    O CESE alerta, contudo, para o facto de a abordagem escolhida, assente numa lista para os sistemas de IA de risco elevado incluídos no anexo III, correr o risco de legitimar, normalizar e generalizar várias práticas de IA que continuam a ser fortemente criticadas e em relação às quais os benefícios sociais são questionáveis ou estão por demonstrar.

    4.14.

    Além disso, os riscos de prejuízos para a saúde, a segurança e os direitos fundamentais nem sempre podem ser atenuados através do cumprimento dos cinco requisitos aplicáveis aos sistemas de IA de risco elevado, em especial no que se refere a direitos fundamentais menos debatidos, mas que também são suscetíveis de ser afetados pela IA, como o direito à dignidade humana, a presunção de inocência, o direito a condições de trabalho justas e equitativas ou a liberdade de associação e de reunião e o direito de greve, entre outros.

    4.15.

    O CESE recomenda vivamente que a gestão e a operação de infraestruturas de telecomunicações e de ligação à Internet sejam aditadas ao ponto 2 do anexo III. O CESE recomenda também que o âmbito desse ponto seja alargado por forma a ir além dos sistemas de IA usados como componentes de segurança.

    4.16.

    Os sistemas de IA utilizados para efeitos de acesso à educação e para avaliar os estudantes apresentam vários riscos para a saúde, a segurança e os direitos fundamentais dos estudantes. A título de exemplo, as ferramentas de supervisão em linha que recorrem a vários indicadores biométricos e ao rastreamento dos comportamentos para sinalizar «comportamentos suspeitos» e «indícios de fraude» durante exames em linha são verdadeiramente invasivas e carecem de uma base científica.

    4.17.

    A utilização de sistemas de IA para acompanhar, seguir e avaliar os trabalhadores suscita sérias preocupações no que se refere a direitos fundamentais dos trabalhadores como o direito a condições de trabalho justas e equitativas, o direito à informação e à consulta e o direito a um despedimento com justa causa. A inclusão desses sistemas de IA na lista de sistemas de risco elevado é suscetível de entrar em conflito com as legislações nacionais e as convenções coletivas de trabalho em matéria de despedimento com/sem justa causa, condições de trabalho saudáveis e seguras e prestação de informações aos trabalhadores. O CESE apela para que se assegure a plena participação e a informação dos trabalhadores e dos parceiros sociais no processo de decisão sobre a utilização da IA no local de trabalho e sobre o seu desenvolvimento, aquisição e implantação.

    4.18.

    O requisito da «supervisão humana» é especialmente pertinente no que respeita às relações laborais, dado que a supervisão será levada a cabo por um trabalhador ou grupo de trabalhadores. O CESE salienta que esses trabalhadores devem receber formação sobre a forma de desempenhar essa tarefa. Além disso, atendendo a que se espera que esses trabalhadores possam desconsiderar os resultados do sistema de IA ou até decidir não utilizá-lo, devem ser adotadas medidas para evitar o medo de consequências negativas (incluindo a despromoção ou o despedimento) caso seja tomada uma decisão dessa natureza.

    4.19.

    A utilização de sistemas de IA no âmbito do acesso a serviços públicos e do usufruto dos mesmos é mais ampla do que no caso dos serviços privados, mas só no que se refere a estes últimos se considera a avaliação da classificação de crédito realizada por um sistema de IA como sendo de risco elevado. O CESE recomenda um alargamento do âmbito de aplicação da alínea b) do ponto 5 do anexo III, para que esta passe a abranger os sistemas de IA concebidos para avaliar a elegibilidade para serviços privados essenciais.

    4.20.

    A IA utilizada pelas autoridades policiais e no âmbito da gestão da migração, do asilo e do controlo de fronteiras para levar a cabo avaliações individuais de risco (de crime ou de segurança) pode pôr em causa a presunção de inocência, os direitos de defesa e o direito de asilo previstos na Carta da UE. De modo geral, os sistemas de IA limitam-se a procurar correlações baseadas em características detetadas noutros «casos». Nesse contexto, a suspeita não assenta numa suspeita real de crime ou infração cometida pela pessoa em questão, mas apenas nas características que, coincidentemente, essa pessoa partilha com criminosos condenados (tais como morada, rendimentos, nacionalidade, dívidas, situação de emprego, comportamentos, comportamentos de amigos ou familiares, e assim por diante).

    4.21.

    A utilização da IA na administração da justiça e nos processos democráticos é uma questão especialmente sensível que deve ser abordada de forma mais matizada e minuciosa. A mera utilização de sistemas para assistir uma autoridade judiciária na pesquisa e na interpretação de factos e da lei, bem como na aplicação da lei a um conjunto concreto de factos, não tem em conta o facto de que o ato de julgar vai muito além de identificar padrões em dados armazenados (que é, fundamentalmente, aquilo que os atuais sistemas de IA fazem). O texto pressupõe igualmente que esses tipos de IA apenas se limitarão a assistir o sistema judicial, excluindo a tomada de decisões judiciais totalmente automatizada do âmbito de aplicação do regulamento. O CESE lamenta ainda que não seja feita referência aos sistemas e utilizações de IA no âmbito de processos democráticos, como as eleições.

    4.22.

    O CESE recomenda o aditamento de uma disposição que preveja uma situação em que é evidente — ou em que se tenha tornado claro, durante a avaliação prévia da conformidade — que os seis requisitos não atenuarão satisfatoriamente o risco de prejuízos para a saúde, a segurança e os direitos humanos (por exemplo, através de uma alteração do artigo 16.o, alínea g), do RIA).

    Governação e aplicabilidade

    4.23.

    O CESE acolhe favoravelmente a estrutura de governação estabelecida pelo RIA. Recomenda que o Comité Europeu para a Inteligência Artificial organize trocas de opiniões obrigatórias com a sociedade em geral, incluindo com os parceiros sociais e as ONG.

    4.24.

    O CESE recomenda vivamente o alargamento do âmbito de aplicação do RIA no sentido de incluir os «sistemas de IA antigos», ou seja, os sistemas que já estão a ser utilizados ou que venham a ser implantados antes da entrada em vigor do RIA, a fim de evitar que os responsáveis acelerem a implantação de eventuais sistemas de IA proibidos de risco elevado e médio para contornar os requisitos de conformidade. Além disso, o CESE recomenda com firmeza que não se exclua do âmbito de aplicação do RIA a IA que é uma componente dos sistemas informáticos de grande escala no espaço de liberdade, segurança e justiça enumerados no anexo IX.

    4.25.

    A complexidade dos requisitos e das atividades de responsabilização, a par da autoavaliação, acarretam um risco de simplificação deste processo, transformando-o em listas de verificação em que um simples «sim» ou «não» poderão ser suficientes para satisfazer os requisitos. O CESE recomenda que todos os sistemas de IA de risco elevado fiquem obrigatoriamente sujeitos a avaliações realizadas por terceiros.

    4.26.

    O CESE recomenda a aplicação de medidas de apoio (financeiro) adequadas e de instrumentos simples e acessíveis para as micro e as pequenas organizações, bem como para organizações da sociedade civil, para que estas sejam capazes de compreender o objetivo e o significado do RIA e de cumprir os seus requisitos. Estas medidas não se devem limitar à prestação de apoio a polos de inovação digital, devendo visar a facilitação de acesso a conhecimentos especializados de alto nível sobre o RIA, os seus requisitos e as obrigações que impõe, e, em especial, sobre o respetivo fundamento.

    4.27.

    O CESE recomenda a inclusão de um mecanismo de reclamação e recurso para as organizações e os cidadãos que tenham sofrido prejuízos causados por qualquer sistema, prática ou utilização de IA abrangido pelo âmbito de aplicação do RIA.

    Bruxelas, 22 de setembro de 2021.

    A Presidente do Comité Económico e Social Europeu

    Christa SCHWENG


    Top