This document is an excerpt from the EUR-Lex website
Document 52021AB0040
Opinion of the European Central Bank of 29 December 2021 on a proposal for a regulation laying down harmonised rules on artificial intelligence (CON/2021/40) 2022/C 115/05
Parecer do Banco Central Europeu de 29 de dezembro de 2021 sobre uma proposta de regulamento que estabelece regras harmonizadas em matéria de inteligência artificial (CON/2021/40) 2022/C 115/05
Parecer do Banco Central Europeu de 29 de dezembro de 2021 sobre uma proposta de regulamento que estabelece regras harmonizadas em matéria de inteligência artificial (CON/2021/40) 2022/C 115/05
CON/2021/40
JO C 115 de 11.3.2022, pp. 5–11
(BG, ES, CS, DA, DE, ET, EL, EN, FR, GA, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)
|
11.3.2022 |
PT |
Jornal Oficial da União Europeia |
C 115/5 |
PARECER DO BANCO CENTRAL EUROPEU
de 29 de dezembro de 2021
sobre uma proposta de regulamento que estabelece regras harmonizadas em matéria de inteligência artificial
(CON/2021/40)
(2022/C 115/05)
Introdução e base jurídica
Em 3 de novembro de 2021, o Banco Central Europeu (BCE) recebeu do Conselho da União Europeia um pedido de parecer sobre uma proposta (1) de regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial) e altera determinados atos legislativos da União (a seguir «regulamento proposto»).
A competência do BCE para emitir parecer resulta do disposto nos artigos 127.o, n.o 4, e 282.o, n.o 5, do Tratado sobre o Funcionamento da União Europeia, uma vez que o regulamento proposto contém disposições que se inserem nos domínios das atribuições do BCE, em especial no que diz respeito às políticas relativas à supervisão prudencial das instituições de crédito, nos termos do artigo 127.o, n.o 6, do Tratado. O presente parecer foi aprovado pelo Conselho do BCE, nos termos do artigo 17.o-5, primeiro período, do Regulamento Interno do Banco Central Europeu.
1. Observações genéricas
|
1.1. |
O BCE congratula-se com o objetivo do regulamento proposto de aperfeiçoar o funcionamento do mercado interno, estabelecendo um quadro jurídico uniforme para o desenvolvimento, a comercialização e a utilização de inteligência artificial (IA) fiável, em conformidade com os valores da União. O BCE reconhece a importância de se estabelecerem requisitos harmonizados específicos para os sistemas de IA, a fim de assegurar um nível elevado e coerente de proteção de interesses públicos superiores como a saúde, a segurança e os direitos fundamentais. |
|
1.2. |
O BCE reconhece ainda a crescente importância da inovação assente na IA para o setor bancário. Tendo em conta a natureza e as oportunidades transfronteiras inerentes à inovação em IA nas atividades bancárias, o BCE, enquanto autoridade de supervisão prudencial a nível da União, apoia firmemente a necessidade de assegurar uma aplicação harmonizada pelas instituições de crédito da regulamentação proposta no que diz respeito aos riscos e requisitos prudenciais. Na mesma perspetiva, e dada a importância crescente da IA, o legislador da União é convidado a ponderar, no futuro, o potencial que poderá representar a criação de uma autoridade independente no domínio da IA a nível da União, responsável pela aplicação harmonizada do regulamento proposto em todo o mercado único no que diz respeito a questões específicas relacionadas com a saúde, a segurança e os direitos fundamentais. |
|
1.3. |
No que diz respeito aos sistemas de IA de risco elevado fornecidos ou utilizados por instituições de crédito, o BCE entende que o regulamento proposto integra determinadas obrigações nos procedimentos estabelecidos na Diretiva 2013/36/UE do Parlamento Europeu e do Conselho (2) (a seguir «Diretiva Requisitos de Fundos Próprios» ou «DRFP»). Em especial, o regulamento proposto visa reforçar a coerência com a DRFP, integrando algumas das obrigações dos fornecedores e dos utilizadores em matéria de gestão dos riscos e de governação no sistema de governo interno das instituições de crédito (3). Devido à novidade e complexidade da IA e às normas de alto nível do regulamento proposto, serão necessárias orientações adicionais para clarificar as expectativas de supervisão no que diz respeito às obrigações em matéria de governação interna. |
|
1.4. |
O BCE acolhe favoravelmente a intenção do regulamento proposto de evitar sobreposições com o quadro legislativo existente, mediante a integração de algumas das suas disposições nas disposições pertinentes da DRFP (4). A este respeito, o BCE congratula-se com o facto de a obrigação, imposta às instituições de crédito que fornecem sistemas de IA de risco elevado, de criarem um sistema de gestão da qualidade e de a obrigação, imposta às instituições de crédito que utilizam sistemas de IA de risco elevado, de monitorizarem o funcionamento do sistema, se considerarem satisfeitas mediante o cumprimento das regras relativas a sistemas, processos e mecanismos de governação interna previstas nas disposições pertinentes da DRFP (5). |
|
1.5. |
O BCE salienta que as disposições do regulamento proposto não deverão prejudicar as obrigações prudenciais mais específicas ou rigorosas das instituições de crédito estabelecidas na regulamentação setorial e complementadas por orientações de supervisão. Por exemplo, as obrigações em matéria de governo interno das instituições de crédito utilizadoras de sistemas de IA ao abrigo da DRFP (6) abrangem o controlo efetivo dos acordos de subcontratação, incluindo a identificação, avaliação e atenuação de todos os riscos que lhes estão associados, tal como especificado nas Orientações da EBA relativas à subcontratação (7). Embora o regulamento proposto atribua obrigações diferentes aos fornecedores e aos utilizadores de sistemas de IA de risco elevado, as orientações da EBA relativas à subcontratação não estabelecem tal distinção no contexto da subcontratação entre terceiros fornecedores de soluções tecnológicas e instituições de crédito. Nesta perspetiva, a subcontratação não reduz a obrigação das instituições de crédito de cumprirem os requisitos regulamentares, continuando a autoridade de supervisão prudencial a ser competente para supervisionar os riscos prudenciais colocados pelas funções subcontratadas. Neste contexto, o BCE gostaria de obter mais esclarecimentos sobre os requisitos aplicáveis e as autoridades competentes no que respeita à externalização de sistemas de IA de risco elevado por parte das instituições de crédito utilizadoras. |
|
1.6. |
O papel do BCE no âmbito do regulamento proposto deve ser clarificado, em especial no que diz respeito: 1) às competências do BCE em matéria de supervisão prudencial em geral e em relação à fiscalização do mercado e à avaliação da conformidade; e 2) à aplicação do regulamento proposto ao desempenho das atribuições do BCE que decorrem do Tratado. |
|
1.7. |
O BCE continua empenhado numa abordagem da supervisão prudencial das instituições de crédito neutra do ponto de vista tecnológico. O papel do BCE consiste em garantir a segurança e a solidez das instituições de crédito, mantendo um elevado nível de supervisão prudencial, independentemente da aplicação de qualquer solução tecnológica específica. O BCE pretende preservar a igualdade nas condições de concorrência ao exercer a supervisão prudencial das instituições de crédito, seguindo o princípio orientador de «mesma atividade, mesmos riscos, mesma supervisão» (8). |
2. O papel do BCE no âmbito do regulamento proposto
2.1. Clarificação das competências de supervisão prudencial do BCE em matéria de fiscalização do mercado
|
2.1.1. |
O regulamento proposto prevê que o Regulamento (UE) 2019/1020 do Parlamento Europeu e do Conselho (9) seja aplicável aos sistemas de IA abrangidos pelo regulamento proposto (10) e que qualquer referência a um produto nos termos do Regulamento (UE) 2019/1020 deve ser entendida como incluindo todos os sistemas de IA que se enquadrem no âmbito do regulamento proposto (11). A este respeito, o BCE observa que o Regulamento (UE) 2019/2020 tem por objetivo melhorar o funcionamento do mercado interno através do reforço da fiscalização do mercado dos produtos abrangidos pela legislação de harmonização da União, a fim de garantir que apenas sejam colocados no mercado da União os produtos que cumprem os requisitos que asseguram um elevado nível de proteção do interesse público em domínios como a saúde e a segurança em geral, a saúde e segurança no local de trabalho, a defesa do consumidor, a proteção do ambiente, a segurança pública e quaisquer outros interesses públicos protegidos pela legislação de harmonização da União (12). |
|
2.1.2. |
O regulamento proposto define a autoridade de fiscalização do mercado como autoridade nacional incumbida de prosseguir as atividades e adotar as medidas previstas no Regulamento (UE) 2019/1020 (13). O Regulamento (UE) 2019/1020, por sua vez, define a autoridade de fiscalização do mercado como uma autoridade designada por um Estado-Membro, nos termos do Regulamento (UE) 2019/1020, como responsável por proceder à fiscalização do mercado no território desse Estado-Membro (14). Além disso, o considerando 9 do Regulamento (UE) 2019/1020 esclarece que a responsabilidade pela aplicação da legislação de harmonização da União deverá incumbir aos Estados-Membros, e as suas autoridades de fiscalização do mercado deverão assegurar que a legislação seja plenamente cumprida (15). Nesta base, o BCE entende que, nos termos do regulamento proposto, o BCE não é, de modo algum, uma autoridade de fiscalização do mercado. |
|
2.1.3. |
No entanto, a proposta de regulamento prevê igualmente que, no caso dos sistemas de IA colocados no mercado, colocados em serviço ou utilizados por instituições financeiras regulamentadas pela legislação da União em matéria de serviços financeiros, a autoridade de fiscalização do mercado competente para efeitos do regulamento proposto deve ser a autoridade responsável pela supervisão financeira dessas instituições ao abrigo da referida legislação (16). Além disso, o considerando 80 da proposta de regulamento esclarece que legislação da União em matéria de serviços financeiros inclui regras e requisitos relativos à governação interna e à gestão dos riscos aplicáveis às instituições financeiras regulamentadas durante a prestação desses serviços, incluindo quando estas utilizam sistemas de IA. Esclarece ainda que, para assegurar a coerência na aplicação e na execução das obrigações previstas no regulamento proposto e das regras e requisitos da legislação da União aplicáveis aos serviços financeiros, as autoridades responsáveis pela supervisão e execução da legislação no domínio dos serviços financeiros, incluindo, se for caso disso, o BCE, devem ser designadas autoridades competentes para efeitos de supervisão da aplicação do presente regulamento, incluindo o exercício de funções de fiscalização do mercado, no que diz respeito aos sistemas de IA fornecidos ou utilizados por instituições financeiras regulamentadas e supervisionadas. A este respeito, é igualmente feita referência à necessidade de reforçar ainda mais a coerência entre o regulamento proposto e as regras aplicáveis às instituições de crédito regulamentadas pela DRFP. |
|
2.1.4. |
Nos termos do artigo 127.o, n.o 6, do Tratado, o Conselho pode, por unanimidade, conferir ao BCE atribuições específicas no que diz respeito às políticas relativas à supervisão prudencial das instituições de crédito e de outras instituições financeiras, com exceção das empresas de seguros. Nessa base, o Regulamento (UE) n.o 1024/2013 (17) do Conselho (a seguir «Regulamento do MUS») confere ao BCE atribuições específicas no que diz respeito às políticas relativas à supervisão prudencial das instituições de crédito, com vista a contribuir para a segurança e a solidez das instituições de crédito e para a estabilidade do sistema financeiro na União e em cada Estado-Membro, tendo plena e diligentemente em conta a unidade e a integridade do mercado interno, e por base a igualdade de tratamento das instituições de crédito com vista a evitar a arbitragem regulamentar (18). A este respeito, compete em exclusivo ao BCE, para efeitos de supervisão prudencial, assegurar o cumprimento de todos os atos relevantes da União que impõem às instituições de crédito requisitos para que disponham, nomeadamente, de processos adequado de gestão dos riscos e de mecanismos de controlo interno (19). As funções de supervisão prudencial do BCE limitam-se, neste contexto, a assegurar que as instituições de crédito aplicam políticas e processos de gestão da sua exposição aos riscos prudenciais, incluindo os riscos relacionados com diferentes aspetos dos modelos de negócio, a governação e o risco operacional dos bancos, e que decorrem da utilização de soluções tecnológicas para garantir a segurança e a solidez das instituições de crédito, bem como a estabilidade do sistema financeiro (20). |
|
2.1.5. |
A fiscalização do mercado não visa garantir a segurança e a solidez das instituições de crédito, centrando-se antes na proteção dos interesses das pessoas que possam ser potencialmente afetadas por sistemas de IA abusivos, assegurando que tais sistemas satisfazem os requisitos necessários a assegurar um elevado nível de proteção de interesses públicos, como os da saúde e da segurança das pessoas. Por conseguinte, o BCE entende que o legislador da União, nos termos do regulamento proposto, não pretende que o BCE atue como autoridade de fiscalização do mercado no que respeita às instituições de crédito sob a sua supervisão. Esta conclusão está em consonância com os considerandos do Regulamento MUS, que clarificam que as autoridades nacionais são competentes para assegurar um elevado nível de proteção dos consumidores (21). |
|
2.1.6. |
Nesta base, o BCE sugere que, para ser coerente com as competências de supervisão prudencial conferidas ao BCE pelo artigo 127.o, n.o 6, do Tratado e pelo Regulamento do MUS, o texto da proposta de regulamento deve clarificar inequivocamente que o BCE não é designado como autoridade de fiscalização do mercado nem fica incumbido de quaisquer funções de fiscalização do mercado. |
|
2.1.7. |
Ainda que não tenham sido atribuídas ao BCE funções de fiscalização do mercado, pode dar-se o caso de determinados Estados-Membros ponderarem designar as autoridades nacionais competentes envolvidas na supervisão das instituições de crédito como responsáveis pela fiscalização do mercado no contexto do regulamento proposto, contanto que o permita o respetivo mandato e, pelo menos, na medida em que as funções de fiscalização do mercado se apliquem às situações em que um sistema de IA é colocado em serviço para utilização própria. A designação das autoridades nacionais competentes atualmente envolvidas na supervisão das instituições de crédito como responsáveis pela referida fiscalização do mercado pode ser vista como uma salvaguarda da coerência e da relação custo-eficácia dos resultados da supervisão, tirando partido da experiência adquirida por essas autoridades no exercício dos poderes de investigação e de supervisão que lhes são atribuídos relativamente às instituições de crédito. |
|
2.1.8. |
Por último, o BCE observa que as disposições em matéria de fiscalização do mercado constantes do regulamento proposto não abordam adequadamente as situações em que um sistema de IA é colocado em serviço para utilização própria. Por exemplo, o poder previsto no regulamento proposto de as autoridades de fiscalização do mercado procederem à recolha ou à retirada de um sistema de IA poderá não ser suficiente para a supressão desse sistema em situações de utilização própria (22). Convida-se, por conseguinte, o legislador da União a clarificar que medidas restritivas e que poderes conexos das autoridades competentes seriam aplicáveis em situações de utilização própria. |
2.2. Clarificação das competências de supervisão prudencial do BCE no domínio da avaliação da conformidade
|
2.2.1. |
O regulamento proposto prevê (23) que, para os sistemas de IA de risco elevado concebidos para serem utilizados para avaliar a capacidade de endividamento de pessoas singulares ou estabelecer a sua pontuação de crédito (24), e que são colocados no mercado ou colocados em serviço por instituições de crédito, deve ser efetuada uma avaliação da conformidade no âmbito do processo de análise e avaliação para fins de supervisão (SREP) (25). A proposta de regulamento define (26) a avaliação da conformidade como o processo de verificação do cumprimento dos requisitos imperativos aplicáveis aos sistemas de IA de risco elevado estabelecidos no regulamento proposto (27). |
|
2.2.2. |
Como já foi referido, o Conselho conferiu ao BCE, nos termos do artigo 127.o, n.o 6, do Tratado, atribuições específicas no que diz respeito às políticas relativas à supervisão prudencial das instituições de crédito, com vista a contribuir, entre outras, para a segurança e a solidez das instituições de crédito e para a estabilidade do sistema financeiro na União e em cada Estado-Membro (28). A fim de evitar ir além das atribuições que lhe são conferidas pelo Tratado, o BCE salienta que pode estar em condições de supervisionar a aplicação dos requisitos pertinentes no contexto do SREP, centrando-se nos riscos prudenciais a que as instituições de crédito podem estar expostas. A este respeito, o legislador da União é convidado a considerar em que medida vários elementos da avaliação da conformidade podem não revestir natureza prudencial, porquanto respeitam, principalmente, à avaliação técnica dos sistemas de IA no intuito de salvaguardar a saúde e a segurança das pessoas e garantir o respeito dos direitos fundamentais, mediante a minimização dos riscos de erro ou enviesamento nos processos assistidos por IA. Em particular, as disposições pertinentes do regulamento proposto exigem que os sistemas de IA de risco elevado sejam concebidos ou desenvolvidos 1) com base em conjuntos de dados de treino, validação e teste que cumpram os critérios de qualidade sempre que tais sistemas utilizem técnicas que envolvam o treino de modelos com dado; 2) com capacidades que permitam o registo automático de eventos («registos») a fim de assegurar um nível de rastreabilidade do funcionamento do sistema de IA ao longo do seu ciclo de vida que seja adequado à finalidade prevista do sistema; 3) de modo a que possam ser eficazmente supervisionados por pessoas singulares, incluindo com ferramentas de interface homem-máquina apropriadas, de modo a prevenir ou minimizar os riscos para a saúde, a segurança ou os direitos fundamentais que possam surgir quando um sistema de IA de risco elevado é utilizado; e 4) de maneira a que alcancem um nível apropriado de exatidão, solidez e cibersegurança (29). Tal como clarificado nos considerandos da proposta de regulamento, estes requisitos relativos à qualidade dos conjuntos de dados utilizados, à documentação técnica e à manutenção de registos, à transparência e à prestação de informações aos utilizadores, à supervisão humana, à solidez, à exatidão e à cibersegurança são necessários para atenuar eficazmente os riscos para a saúde, a segurança e os direitos fundamentais (30). |
|
2.2.3. |
Neste contexto, convida-se o legislador da União a refletir mais profundamente sobre a necessidade de designar as autoridades competentes relevantes como responsáveis pela supervisão da avaliação da conformidade realizada pelas instituições de crédito no que respeita a questões específicas de saúde, segurança e direitos fundamentais, e a considerar a necessidade de assegurar uma aplicação harmonizada do regulamento proposto no conjunto do mercado único, criando, no futuro, uma autoridade em matéria de IA ao nível da União. |
|
2.2.4. |
Além disso, certos requisitos aplicáveis aos sistemas de IA de risco elevado não são totalmente claros ou suficientemente específicos de modo a proporcionar uma compreensão suficiente das expectativas de supervisão. Por exemplo, o requisito de que os conjuntos de dados de treino, validação e teste devem ser pertinentes, representativos, isentos de erros e completos (31) poderá ter de ser clarificado. Tendo em conta o âmbito alargado do mandato conferido às organizações europeias de normalização (32) e, por conseguinte, o risco potencial de enfraquecimento das normas estabelecidas no regulamento proposto, importa que os requisitos relativos aos sistemas de IA de risco elevado enunciados no regulamento proposto sejam suficientemente específicos. |
|
2.2.5. |
Por último, o BCE entende que a avaliação da conformidade dos sistemas de IA fornecidos pelas instituições de crédito para avaliar a qualidade creditícia de pessoas singulares ou estabelecer a sua pontuação de crédito faz parte de um controlo interno ex ante realizado pela instituição de crédito (33). A este respeito, conviria alterar o regulamento proposto (34) para que passasse a refletir a natureza ex post da avaliação específica a realizar pela autoridade de supervisão prudencial no âmbito do SREP. |
2.3. Clarificação das competências gerais do BCE em matéria de supervisão prudencial
O BCE só pode ser considerado uma autoridade competente na medida em que tal seja necessário ao exercício das atribuições que lhe são conferidas pelo Regulamento do MUS. A fim de evitar qualquer incerteza jurídica quanto à questão de o regulamento proposto lhe conferir novas atribuições, o BCE sugere que, em vez de se referir diretamente ao BCE na sua qualidade de autoridade competente, o regulamento faça referência às autoridades competentes, tal como definidas nos atos pertinentes da legislação da União, nomeadamente a DRFP. Decorreria então do Regulamento do MUS que o BCE apenas deve ser considerado autoridade competente para efeitos do exercício das suas atribuições de supervisão prudencial (35).
2.4. Clarificação do estatuto de independência do BCE na prossecução das atribuições que lhe estão cometidas pelo Tratado
O BCE entende que, quando atua como fornecedor que coloca no mercado ou que coloca em serviço sistemas de IA localizados no território da União, ou como utilizador de sistemas de IA localizados no território da União, pode estar sujeito ao regulamento proposto (36). O mesmo se aplica aos bancos centrais nacionais (BCN). O regulamento proposto prevê que, quando as instituições da União se insiram no seu âmbito de aplicação, a Autoridade Europeia para a Proteção de Dados (AEPD) deve atuar como autoridade competente para a supervisão dessas instituições e como autoridade de fiscalização do mercado das mesmas (37). Os BCN poderiam ficar colocados sob a supervisão das autoridades nacionais competentes (38). A este respeito, é importante sublinhar que o BCE e os BCN devem estar em condições de exercer de forma independente as atribuições que lhes são conferidas pelo Tratado (39), por exemplo, ao utilizarem qualquer aplicação de inteligência artificial para a definição e execução da política monetária da União e a promoção do bom funcionamento dos sistemas de pagamentos (40). Há que reconhecer, no entanto, que a independência do SEBC no exercício das suas atribuições não o isenta da aplicação das normas do direito da União (41). O BCE compreende que qualquer potencial supervisão do BCE pela AEPD e dos BCN pelas autoridades nacionais competentes se limitaria aos controlos adequados e à governação de um sistema de IA, e não teria qualquer finalidade de restringir a capacidade do BCE e dos BCN para desempenharem de forma independente as atribuições que lhes são conferidas pelo Tratado.
3. Classificação dos sistemas de IA
|
3.1. |
O regulamento proposto visa assegurar um quadro regulamentar proporcionado relativamente aos objetivos a que se propõe, mediante a adoção de uma abordagem baseada no risco que impõe encargos regulamentares apenas quando é provável que um sistema de IA represente riscos elevados para os direitos fundamentais e a segurança. No entanto, a proposta de regulamento, antecipando a evolução futura das tecnologias de IA, define, em sentido amplo, os programas informáticos que podem ser considerados como sistemas de IA. Consequentemente, o programa informático desenvolvido para criar resultados, tais como conteúdos, previsões, recomendações ou decisões, utilizando abordagens estatísticas e de aprendizagem automática, bem como métodos de pesquisa e otimização, constitui um sistema de IA (42). Esta definição ampla abrangeria uma série de atividades desenvolvidas pelas instituições de crédito, em especial no que se refere aos sistemas destinados a estabelecer a pontuação de crédito das pessoas singulares. |
|
3.2. |
Nos termos do regulamento proposto (43), a grande maioria das atividades de pontuação de crédito que utilizam sistemas de IA estaria automaticamente sujeita aos requisitos mínimos horizontais impostos aos sistemas de IA de risco elevado. Por conseguinte, diversas atividades, incluindo o direcionamento de aquisições para fins de marketing, a modelização de cobranças e os modelos normalizados de pontuação de crédito (por exemplo, um painel de avaliação com utilização de regressão logística), teriam de cumprir os mesmos requisitos. A fim de aumentar a clareza das expectativas de supervisão e em consonância com a abordagem tecnologicamente neutra do BCE, sugere-se que os sistemas de IA concebidos para serem utilizados para avaliar a capacidade de endividamento de pessoas singulares ou estabelecer a sua pontuação de crédito, e que tirem partido da utilização autónoma da regressão linear ou logística ou de árvores de decisão sob supervisão humana não sejam classificados como sistemas de IA de risco elevado, desde que o impacto dessas abordagens na avaliação da solvabilidade ou da pontuação de crédito das pessoas singulares seja reduzido. |
|
3.3. |
Dado que as operações de pontuação de crédito fazem parte da atividade regular das instituições de crédito e são prática corrente, o BCE sugere que a entrada em vigor de requisitos relacionados com a qualificação de sistemas de IA destinados a ser utilizados para avaliar a qualidade creditícia de pessoas singulares ou para estabelecer a sua pontuação de crédito como «sistemas de IA de risco elevado» seja adiada até à adoção pela Comissão de especificações comuns (44) nesta matéria. Estas especificações comuns devem, de modo particular, precisar as condições em que os sistemas de IA de risco elevado neste domínio serão considerados como estando em conformidade com os requisitos aplicáveis, e definir os casos em que os sistemas de IA devem ser considerados como «colocados em serviço por fornecedores de pequena dimensão para utilização própria» e, por conseguinte, abrangidos pelo âmbito de aplicação da exceção à qualificação como sistema de IA de alto risco (45). Neste contexto, o BCE deve ser incluído no elenco de organismos a consultar antes da adoção das referidas especificações comuns, sempre que digam respeito a sistemas de IA destinados a ser utilizados para avaliar a qualidade creditícia de pessoas singulares ou para estabelecer a sua pontuação de crédito (46). |
|
3.4. |
Por fim, o BCE congratula-se com a possibilidade de atualizar a lista de sistemas de IA de risco elevado incluída no anexo III do regulamento proposto (47), e disponibiliza-se para cooperar com a Comissão, e ser consultado por esta, no que diz respeito à identificação de outros riscos potenciais que os sistemas de IA que possam representar em termos de prejuízo para a saúde e a segurança ou de impacto adverso nos direitos fundamentais. Para além dos sistemas de IA utilizados para avaliar a pontuação de crédito ou a qualidade creditícia das pessoas singulares, o regulamento proposto não designa como sendo de «risco elevado» outros sistemas que possam ser especificamente colocados em serviço pelas instituições de crédito. Não obstante, as instituições de crédito estão a desenvolver ou a ponderar o desenvolvimento e a utilização de modelizações de dados de IA que associam os dados de vendas, as transações e o desempenho, a fim de obterem uma visão de conjunto clara do risco de conduta numa determinada área. Do mesmo modo, os sistemas de IA podem ser utilizados no âmbito do controlo em tempo real dos pagamentos, ou na definição de perfis de clientes ou de transações, para efeitos de luta contra o branqueamento de capitais e o financiamento do terrorismo.
Nos casos em que o BCE recomenda alterações ao regulamento proposto, as sugestões de reformulação específicas constam de um documento técnico de trabalho separado, acompanhadas de um texto explicativo para o efeito. O documento técnico de trabalho está disponível em inglês no Eur-Lex. |
Feito em Frankfurt am Main, em 29 de dezembro de 2021.
A Presidente do BCE
Christine LAGARDE
(1) COM(2021) 206 final.
(2) Diretiva 2013/36/UE do Parlamento Europeu e do Conselho, de 26 de junho de 2013, relativa ao acesso à atividade das instituições de crédito e à supervisão prudencial das instituições de crédito e empresas de investimento, que altera a Diretiva 2002/87/CE e revoga as Diretivas 2006/48/CE e 2006/49/CE (JO L 176 de 27.6.2013, p. 338).
(3) Ver os artigos 9.o, n.o 9, 18.o, n.o 2, 20.o, n.o 2 e 29.o, n.o 5, do regulamento proposto e o artigo 74.o da DRFP.
(4) Ver o artigo 74.o da DRFP.
(5) Ver os artigos 17.o, n.o 3, e 29.o, n.o 4, do regulamento proposto.
(6) Ver o artigo 74.o da DRFP.
(7) Ver as Orientações da EBA relativas à subcontratação (https://www.eba.europa.eu/regulation-and-policy/internal-governance/guidelines-on-outsourcing-arrangements).
(8) Ver Andrea Enria, Presidente do Conselho de Supervisão do BCE, «A binary future? How digitalisation can change banking», De Nederlandsche Bank, Amesterdão, 11 de março de 2019, disponível no sítio Web de supervisão bancária do BCE em www.bankingsupervision.europa.eu.
(9) Regulamento (UE) 2019/1020 do Parlamento Europeu e do Conselho, de 20 de junho de 2019, relativo à fiscalização do mercado e à conformidade dos produtos e que altera a Diretiva 2004/42/CE e os Regulamentos (CE) n.o 765/2008 e (UE) n.o 305/2011 (JO L 169 de 25.6.2019, p. 1).
(10) Ver o artigo 63.o, n.o 1, do regulamento proposto.
(11) Ver o artigo 63.o, n.o 1, alínea b) do regulamento proposto.
(12) Ver o artigo 1.°, n.o 1, do Regulamento (UE) 2019/1020.
(13) Ver o artigo 3.o, ponto 26), do regulamento proposto.
(14) Ver o artigo 3.°, n.o 4, do Regulamento (UE) 2019/1020.
(15) Ver o considerando 9 do Regulamento (UE) 2019/1020.
(16) Ver o artigo 63.o, n.o 4, do regulamento proposto.
(17) Regulamento (UE) n.o 1024/2013 do Conselho, de 15 de outubro de 2013, que confere ao [Banco Central Europeu] atribuições específicas no que diz respeito às políticas relativas à supervisão prudencial das instituições de crédito (JO L 287 de 29.10.2013, p. 63).
(18) Ver o artigo 1.o, primeiro parágrafo, do Regulamento do MUS.
(19) Ver o artigo 4.°, n.o 1, alínea e) do Regulamento do MUS.
(20) Ver o considerando 30 do Regulamento MUS, bem como as páginas 53 e 54 da «Resposta do SEBC e da supervisão bancária europeia à consulta pública da Comissão Europeia sobre uma nova estratégia de financiamento digital para a Europa/plano de ação para a tecnologia financeira» (agosto de 2020), disponível em inglês no sítio Web da supervisão bancária do BCE.
(21) Ver os artigos 28.o e 29.o do Regulamento do MUS.
(22) Ver o artigo 3.o, pontos 16) e 17), o artigo 65.o, n.o 2, segundo parágrafo, o artigo 65.o, n.o 5, e o artigo 67.o, n.o 1, do regulamento proposto.
(23) Ver os artigos 19, n.o 2, e 43.o, n.o 2, do regulamento proposto.
(24) Ver o anexo III, alínea b), ponto 5, do regulamento proposto.
(25) Os artigos 97.o a 101.o da DRFP regulam o SREP.
(26) Ver o artigo 3.o, ponto 20), do regulamento proposto.
(27) Ver o título III, capítulo 2, artigos 8.o a 15.o do regulamento proposto.
(28) Ver o artigo 1.o, primeiro parágrafo, do Regulamento do MUS.
(29) Ver os artigos 10.o, 12.o, 14.o e 15.o do regulamento proposto.
(30) Ver o considerando 43 do regulamento proposto.
(31) Ver o artigo 10.o, n.o 3, do regulamento proposto.
(32) Ver o artigo 40.o e o considerando 61 do regulamento proposto.
(33) Ver o artigo 43.o, n.o 2, primeira frase, e o anexo VI do regulamento proposto.
(34) Ver artigo 19.o, n.o 2, e, em especial, o artigo 43.o, n.o 2, segunda frase, do regulamento proposto.
(35) Ver o artigo 6. ° do Regulamento do MUS.
(36) Ver o artigo 2.o do regulamento proposto.
(37) Ver os artigos 59.o, n.o 8, e 63.o, n.o 6, do regulamento proposto.
(38) Ver o artigo 59.o, n.o 2, do regulamento proposto.
(39) Ver o artigo 130. ° do Tratado.
(40) Ver o artigo 127.o, n.o 2, primeiro e quarto travessões, do Tratado.
(41) Ver o Acórdão do Tribunal de Justiça de 10 de julho de 2003, Comissão/Banco Central Europeu, C-11/00, ECLI:EU:C:2003:3, pontos 130 a135.
(42) Ver o artigo 3.o, n.o 1, e o anexo I do regulamento proposto.
(43) Ver o anexo III, ponto 5, alínea b), do regulamento proposto.
(44) Ver o artigo 41.o, n.o 1, do regulamento proposto.
(45) Nos termos do anexo III, ponto 5, alínea b), do regulamento proposto.
(46) Ver o artigo 41.o, n.o 2, do regulamento proposto.
(47) Ver o artigo 7.o, n.o 1, do regulamento proposto.