28.2.2022   

FR

Journal officiel de l'Union européenne

C 97/60


Avis du Comité européen des régions — Approche européenne de l’intelligence artificielle — Législation sur l’intelligence artificielle

(avis révisé)

(2022/C 97/12)

Rapporteur:

Guido RINK (NL/PSE), échevin d’Emmen

Textes de référence:

Communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions — Favoriser une approche européenne en matière d’intelligence artificielle

COM(2021) 205 final

Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (Législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union

COM(2021) 206 final

I.   RECOMMANDATIONS D’AMENDEMENT

Amendement 1

Considérant 1

Texte proposé par la Commission européenne

Amendement du CdR

L’objectif du présent règlement est d’améliorer le fonctionnement du marché intérieur en établissant un cadre juridique uniforme, en particulier pour le développement, la commercialisation et l’utilisation de l’intelligence artificielle dans le respect des valeurs de l’Union. Le présent règlement poursuit un objectif justifié par un certain nombre de raisons impérieuses d’intérêt général, telles que la nécessité d’un niveau élevé de protection de la santé, de la sécurité et des droits fondamentaux, et il garantit la libre circulation transfrontière des biens et services fondés sur l’IA, empêchant ainsi les États membres d’imposer des restrictions concernant le développement, la commercialisation et l’utilisation de systèmes d’IA, sauf autorisation expresse du présent règlement.

L’objectif du présent règlement est d’améliorer le fonctionnement du marché intérieur et de garantir les droits fondamentaux des citoyens en établissant un cadre juridique uniforme, en particulier pour le développement, la commercialisation et l’utilisation de l’intelligence artificielle dans le respect des valeurs de l’Union. Le présent règlement poursuit un objectif justifié par un certain nombre de raisons impérieuses d’intérêt général, telles que la nécessité d’un niveau élevé de protection de la santé, de la sécurité et des droits fondamentaux, et il garantit la libre circulation transfrontière des biens et services fondés sur l’IA, empêchant ainsi les États membres d’imposer des restrictions concernant le développement, la commercialisation et l’utilisation de systèmes d’IA, sauf autorisation expresse du présent règlement.

Exposé des motifs

La référence aux droits fondamentaux vise à souligner le lien avec la charte des droits fondamentaux de l’Union européenne.

Amendement 2

Nouveau considérant après le considérant 6

Texte proposé par la Commission européenne

Amendement du CdR

 

La définition des systèmes d’IA est un processus continu, qui tient compte du contexte dans lequel s’inscrit l’IA, suit le rythme des évolutions sociétales dans ce domaine et ne perd pas de vue le lien entre l’écosystème d’excellence et l’écosystème de confiance.

Exposé des motifs

Les évolutions en matière d’IA et de technologies requièrent une approche adaptative et évolutive. Ce considérant vise à préciser que la définition de l’IA doit évoluer avec le temps et en fonction des progrès en matière de systèmes et d’applications d’IA.

Amendement 3

Considérant 20

Texte proposé par la Commission européenne

Amendement du CdR

Afin de s’assurer que ces systèmes soient utilisés de manière responsable et proportionnée, il est également important d’établir que, dans chacune des trois situations précisément répertoriées et définies, certains éléments devraient être pris en considération, notamment en ce qui concerne la nature de la situation donnant lieu à la demande et les conséquences de l’utilisation pour les droits et les libertés de toutes les personnes concernées, ainsi que les garanties et les conditions associées à l’utilisation. En outre, l’utilisation de systèmes d’identification biométrique à distance «en temps réel» dans des espaces accessibles au public à des fins répressives devrait être soumise à des limites appropriées dans le temps et dans l’espace, eu égard en particulier aux preuves ou aux indications concernant les menaces, les victimes ou les auteurs. La base de données de référence des personnes devrait être appropriée pour chaque cas d’utilisation dans chacune des trois situations mentionnées ci-dessus.

Afin de s’assurer que ces systèmes soient utilisés de manière responsable et proportionnée, il est également important d’établir que, dans chacune des trois situations précisément répertoriées et définies, certains éléments devraient être pris en considération, notamment en ce qui concerne la nature de la situation donnant lieu à la demande et les conséquences de l’utilisation pour les droits et les libertés de toutes les personnes concernées, ainsi que les garanties et les conditions associées à l’utilisation. Les collectivités locales et régionales concernées devraient être consultées préalablement à l’utilisation exceptionnelle de ces systèmes. En outre, l’utilisation de systèmes d’identification biométrique à distance «en temps réel» dans des espaces accessibles au public à des fins répressives devrait être soumise à des limites strictes dans le temps et dans l’espace, eu égard en particulier aux preuves ou aux indications concernant les menaces, les victimes ou les auteurs. La base de données de référence des personnes devrait être appropriée pour chaque cas d’utilisation dans chacune des trois situations mentionnées ci-dessus.

Exposé des motifs

Les systèmes d’identification biométrique à distance en temps réel ne devraient pas être utilisés à la légère.

Amendement 4

Considérant 21

Texte proposé par la Commission européenne

Amendement du CdR

Toute utilisation d’un système d’identification biométrique à distance «en temps réel» dans des espaces accessibles au public à des fins répressives devrait être subordonnée à l’autorisation expresse et spécifique d’une autorité judiciaire ou d’une autorité administrative indépendante d’un État membre. Cette autorisation devrait en principe être obtenue avant l’utilisation, sauf dans des situations d’urgence dûment justifiées, c’est-à-dire des situations où la nécessité d’utiliser les systèmes en question est de nature à rendre effectivement et objectivement impossible l’obtention d’une autorisation avant le début de l’utilisation. Dans de telles situations d’urgence, l’utilisation devrait être limitée au strict nécessaire et être assortie de garanties et de conditions appropriées, telles que déterminées dans la législation nationale et spécifiées dans le contexte de chaque cas d’utilisation urgente par les autorités répressives elles-mêmes . De plus, les autorités répressives devraient , dans de telles situations, chercher à obtenir une autorisation dans les meilleurs délais, tout en indiquant les raisons pour lesquelles elles n’ont pas pu la demander plus tôt .

Toute utilisation d’un système d’identification biométrique à distance «en temps réel» dans des espaces accessibles au public à des fins répressives devrait être subordonnée à l’autorisation expresse et spécifique d’une autorité judiciaire ou d’une autorité administrative indépendante d’un État membre. Cette autorisation devrait être obtenue avant l’utilisation, sauf dans des situations d’urgence dûment justifiées, c’est-à-dire des situations où la nécessité d’utiliser les systèmes en question est de nature à rendre effectivement et objectivement impossible l’obtention d’une autorisation avant le début de l’utilisation. En tout état de cause, l’utilisation devrait être limitée au strict nécessaire et être assorties de garanties et de conditions appropriées, telles que déterminées dans la législation nationale. De plus, les autorités répressives devraient informer immédiatement les collectivités locales et régionales concernées et chercher à obtenir une autorisation auprès des autorités compétentes .

Exposé des motifs

La responsabilité politique et administrative de la gestion et de la surveillance des espaces publics incombe aux collectivités locales et régionales. Elles devraient donc être dûment associées au déploiement de ces systèmes dans les espaces publics. Dans les situations d’urgence où une consultation préalable ne peut raisonnablement être attendue, la collectivité locale ou régionale concernée devrait être immédiatement informée du déploiement de systèmes biométriques dans l’espace public.

Amendement 5

Considérant 39

Texte proposé par la Commission européenne

Amendement du CdR

Les systèmes d’IA utilisés dans le domaine de la gestion de la migration, de l’asile et des contrôles aux frontières touchent des personnes qui sont souvent dans une position particulièrement vulnérable et qui dépendent du résultat des actions des autorités publiques compétentes. L’exactitude, la nature non discriminatoire et la transparence des systèmes d’IA utilisés dans ces contextes sont donc particulièrement importantes pour garantir le respect des droits fondamentaux des personnes concernées, notamment leurs droits à la libre circulation, à la non-discrimination, à la protection de la vie privée et des données à caractère personnel, à une protection internationale et à une bonne administration. Il convient donc de classer comme étant à haut risque les systèmes d’IA destinés à être utilisés par les autorités publiques compétentes chargées de tâches dans les domaines de la gestion de la migration, de l’asile et des contrôles aux frontières pour servir de polygraphes ou d’outils similaires ou pour analyser l’état émotionnel d’une personne physique; pour évaluer certains risques posés par des personnes physiques entrant sur le territoire d’un État membre ou faisant une demande de visa ou d’asile; pour vérifier l’authenticité des documents pertinents de personnes physiques; et pour aider les autorités publiques compétentes à examiner les demandes d’asile, de visa et de permis de séjour ainsi que les plaintes connexes, l’objectif étant de vérifier l’éligibilité des personnes physiques qui demandent un statut. Les systèmes d’IA utilisés dans le domaine de la gestion de la migration, de l’asile et des contrôles aux frontières couverts par le présent règlement devraient être conformes aux exigences procédurales pertinentes fixées par la directive 2013/32/UE du Parlement européen et du Conseil, le règlement (CE) no 810/2009 du Parlement européen et du Conseil et toute autre législation pertinente.

Les systèmes d’IA utilisés dans le domaine de la gestion de la migration, de l’asile et des contrôles aux frontières touchent des personnes qui sont souvent dans une position particulièrement vulnérable et qui dépendent du résultat des actions des autorités publiques compétentes. L’exactitude, la nature non discriminatoire et la transparence des systèmes d’IA utilisés dans ces contextes sont donc particulièrement importantes pour garantir le respect des droits fondamentaux des personnes concernées, notamment leurs droits à la libre circulation, à la non-discrimination, à la protection de la vie privée et des données à caractère personnel, à une protection internationale et à une bonne administration. Il est donc indispensable de classer comme étant à haut risque les systèmes d’IA destinés à être utilisés par les autorités publiques compétentes chargées de tâches dans les domaines de la gestion de la migration, de l’asile et des contrôles aux frontières pour servir de polygraphes ou d’outils similaires ou pour analyser l’état émotionnel d’une personne physique; pour évaluer certains risques posés par des personnes physiques entrant sur le territoire d’un État membre ou faisant une demande de visa ou d’asile; pour vérifier l’authenticité des documents pertinents de personnes physiques; et pour aider les autorités publiques compétentes à examiner les demandes d’asile, de visa et de permis de séjour ainsi que les plaintes connexes, l’objectif étant de vérifier l’éligibilité des personnes physiques qui demandent un statut. Les systèmes d’IA utilisés dans le domaine de la gestion de la migration, de l’asile et des contrôles aux frontières couverts par le présent règlement devraient être conformes aux exigences procédurales pertinentes fixées par la directive 2013/32/UE du Parlement européen et du Conseil, le règlement (CE) no 810/2009 du Parlement européen et du Conseil et toute autre législation pertinente.

Exposé des motifs

Cette modification vise à souligner la nécessité de soumettre les systèmes d’IA concernés au régime renforcé applicable aux systèmes d’IA à haut risque.

Amendement 6

Considérant 43

Texte proposé par la Commission européenne

Amendement du CdR

Des exigences devraient s’appliquer aux systèmes d’IA à haut risque en ce qui concerne la qualité des jeux de données utilisés, la documentation technique et la tenue de registres, la transparence et la fourniture d’informations aux utilisateurs, le contrôle humain, ainsi que la robustesse, l’exactitude et la cybersécurité. Ces exigences sont nécessaires pour atténuer efficacement les risques pour la santé, la sécurité et les droits fondamentaux, selon la destination du système, et, aucune autre mesure moins contraignante pour le commerce n’étant raisonnablement disponible, elles n’imposent pas de restriction injustifiée aux échanges.

Des exigences devraient s’appliquer aux systèmes d’IA à haut risque en ce qui concerne la qualité des jeux de données utilisés, la documentation technique et la tenue de registres, la transparence et la fourniture d’informations aux utilisateurs, le contrôle humain, ainsi que la robustesse, l’exactitude et la cybersécurité. Ces exigences sont nécessaires pour atténuer efficacement les risques pour la santé, la sécurité , la sécurité des données, les droits des consommateurs et les droits fondamentaux, selon la finalité du système, et, aucune autre mesure moins contraignante pour le commerce n’étant raisonnablement disponible, elles n’imposent pas de restriction injustifiée aux échanges. Les personnes ou groupes de personnes physiques concernés par des systèmes d’IA à haut risque mis sur le marché de l’Union ou mis en service d’une autre manière devraient recevoir des informations appropriées, compréhensibles et facilement accessibles, et pouvoir aisément consulter des informations publiques indiquant explicitement qu’ils sont soumis à ces systèmes.

Exposé des motifs

Les exigences en matière de transparence et d’information applicables aux fournisseurs et aux utilisateurs devraient être étendues aux personnes ou groupes de personnes potentiellement concernés par l’utilisation de systèmes d’IA à haut risque, énumérés à l’annexe III du règlement. Par «compréhensible», on entend notamment «un langage compréhensible et accessible pour l’utilisateur, y compris en ce qui concerne les langues orales et gestuelles».

Amendement 7

Nouveau considérant après le considérant 44

Texte proposé par la Commission européenne

Amendement du CdR

 

Les fournisseurs de systèmes d’IA s’abstiennent d’inclure, dans leur système de gestion de la qualité, toute mesure favorisant une discrimination injustifiée fondée sur le sexe, l’origine, la religion ou les convictions, le handicap, l’âge, l’orientation sexuelle ou tout autre motif.

Exposé des motifs

La discrimination illégale trouve son origine dans l’action humaine. Les fournisseurs de systèmes d’IA devraient s’abstenir d’inclure, dans leur système de gestion de la qualité, des mesures susceptibles d’encourager la discrimination.

Amendement 8

Considérant 47

Texte proposé par la Commission européenne

Amendement du CdR

Afin de remédier à l’opacité qui peut rendre certains systèmes d’IA incompréhensibles ou trop complexes pour les personnes physiques, un certain degré de transparence devrait être requis pour les systèmes d’IA à haut risque. Les utilisateurs devraient être capables d’interpréter les résultats produits par le système et de les utiliser de manière appropriée. Les systèmes d’IA à haut risque devraient donc être accompagnés d’une documentation et d’instructions d’utilisation pertinentes et inclure des informations concises et claires, notamment en ce qui concerne les risques potentiels pour les droits fondamentaux et la discrimination, le cas échéant.

Afin de remédier à l’opacité qui peut rendre certains systèmes d’IA incompréhensibles ou trop complexes pour les personnes physiques ou les autorités publiques à tous les niveaux de gouvernement , un degré élevé de transparence devrait être requis pour les systèmes d’IA à haut risque. Les utilisateurs devraient être capables d’interpréter les résultats produits par le système et de les utiliser de manière appropriée. Les systèmes d’IA à haut risque devraient donc être accompagnés d’une documentation et d’instructions d’utilisation pertinentes et inclure des informations concises et claires, notamment en ce qui concerne les risques potentiels pour les droits fondamentaux et la discrimination, le cas échéant.

Exposé des motifs

La responsabilité des concepteurs de systèmes d’IA à haut risque est affaiblie par l’utilisation des termes «un certain degré de transparence».

Amendement 9

Considérant 48

Texte proposé par la Commission européenne

Amendement du CdR

Les systèmes d’IA à haut risque devraient être conçus et développés de manière à ce que les personnes physiques puissent contrôler leur fonctionnement. À cette fin, des mesures appropriées de contrôle humain devraient être établies par le fournisseur du système avant sa mise sur le marché ou sa mise en service. En particulier, le cas échéant, de telles mesures devraient garantir que le système est soumis à des contraintes opérationnelles intégrées qui ne peuvent pas être ignorées par le système lui-même, que le système répond aux ordres de l’opérateur humain et que les personnes physiques auxquelles le contrôle humain a été confié ont les compétences, la formation et l’autorité nécessaires pour s’acquitter de ce rôle.

Les systèmes d’IA à haut risque devraient être conçus et développés de manière à ce que les personnes physiques et les autorités publiques à tous les niveaux de gouvernement puissent contrôler leur fonctionnement. À cette fin, des mesures appropriées de contrôle humain devraient être établies par le fournisseur du système avant sa mise sur le marché ou sa mise en service. En particulier, le cas échéant, de telles mesures devraient garantir que le système est soumis à des contraintes opérationnelles intégrées qui ne peuvent pas être ignorées par le système lui-même, que le système répond aux ordres de l’opérateur humain et que les personnes physiques auxquelles le contrôle humain a été confié ont les compétences, la formation et l’autorité nécessaires pour s’acquitter de ce rôle.

Exposé des motifs

Ressort du texte.

Amendement 10

Considérant 67

Texte proposé par la Commission européenne

Amendement du CdR

Le marquage «CE» devrait être apposé sur les systèmes d’IA à haut risque pour indiquer leur conformité avec le présent règlement afin qu’ils puissent circuler librement dans le marché intérieur. Les États membres devraient s’abstenir de créer des entraves injustifiées à la mise sur le marché ou à la mise en service de systèmes d’IA à haut risque qui satisfont aux exigences fixées dans le présent règlement et portent le marquage «CE».

Le marquage «CE» devrait être apposé sur les systèmes d’IA à haut risque pour indiquer leur conformité avec le présent règlement afin qu’ils puissent circuler librement dans le marché intérieur. Les États membres devraient s’abstenir de créer des entraves à la mise sur le marché ou à la mise en service de systèmes d’IA à haut risque qui satisfont aux exigences fixées dans le présent règlement et portent le marquage «CE». Les États membres ont le pouvoir de réglementer les pratiques et systèmes d’IA à haut risque uniquement pour des raisons impérieuses et dûment justifiées d’intérêt général et de sécurité nationale.

Exposé des motifs

Si les États membres ne doivent pas entraver l’application du règlement, ils devraient cependant conserver le droit de réglementer les systèmes d’IA à haut risque si l’intérêt général et des intérêts de sécurité nationale sont en jeu.

Amendement 11

Considérant 70

Texte proposé par la Commission européenne

Amendement du CdR

Certains systèmes d’IA destinés à interagir avec des personnes physiques ou à générer du contenu peuvent présenter des risques spécifiques d’usurpation d’identité ou de tromperie, qu’ils soient ou non considérés comme étant à haut risque. Dans certaines circonstances, l ’utilisation de ces systèmes devrait donc être soumise à des obligations de transparence spécifiques sans préjudice des exigences et obligations relatives aux systèmes d’IA à haut risque. En particulier, les personnes physiques devraient être informées du fait qu’elles interagissent avec un système d’IA , à moins que cela ne soit évident en raison des circonstances et du contexte d’utilisation . En outre, les personnes physiques devraient être informées du fait qu’elles sont exposées à un système de reconnaissance des émotions ou à un système de catégorisation biométrique. Ces informations devraient être fournies dans des formats accessibles aux personnes handicapées. En outre, les utilisateurs qui se servent d’un système d’IA pour générer ou manipuler des images ou des contenus audio ou vidéo dont la ressemblance avec des personnes, des lieux ou des événements existants pourrait porter à croire qu’il s’agit de documents authentiques, devraient déclarer que le contenu a été créé ou manipulé artificiellement en étiquetant le résultat produit par le système d’intelligence artificielle en conséquence et en mentionnant son origine artificielle.

Certains systèmes d’IA destinés à interagir avec des personnes physiques ou à générer du contenu peuvent présenter des risques spécifiques d’usurpation d’identité ou de tromperie, qu’ils soient ou non considérés comme étant à haut risque. L ’utilisation de ces systèmes devrait donc être soumise à des obligations de transparence spécifiques sans préjudice des exigences et obligations relatives aux systèmes d’IA à haut risque. En particulier, les personnes physiques devraient systématiquement être informées du fait qu’elles interagissent avec un système d’IA. En outre, les personnes physiques devraient être informées du fait qu’elles sont exposées à un système de reconnaissance des émotions ou à un système de catégorisation biométrique. Ces informations devraient être fournies dans des formats accessibles aux personnes handicapées. En outre, les utilisateurs qui se servent d’un système d’IA pour générer ou manipuler des images ou des contenus audio ou vidéo dont la ressemblance avec des personnes, des lieux ou des événements existants pourrait porter à croire qu’il s’agit de documents authentiques, devraient déclarer que le contenu a été créé ou manipulé artificiellement en étiquetant le résultat produit par le système d’intelligence artificielle en conséquence et en mentionnant son origine artificielle.

Exposé des motifs

Aucune exception ne devrait être faite à l’obligation de transparence et d’information lorsque des personnes physiques interagissent avec des systèmes d’IA.

Amendement 12

Considérant 76

Texte proposé par la Commission européenne

Amendement du CdR

Afin de faciliter une mise en œuvre aisée, efficace et harmonisée du présent règlement, il convient de créer un Comité européen de l’intelligence artificielle. Le Comité devrait être chargé d’un certain nombre de tâches consultatives, parmi lesquelles la formulation d’avis, de recommandations, de conseils ou d’orientations sur des questions liées à la mise en œuvre du présent règlement, y compris sur les spécifications techniques ou les normes existantes concernant les exigences établies dans le présent règlement, et la fourniture de conseils et d’assistance à la Commission sur des questions spécifiques liées à l’intelligence artificielle.

Afin de faciliter une mise en œuvre aisée, efficace et harmonisée du présent règlement, il convient de créer un Comité européen de l’intelligence artificielle. Le Comité devrait être chargé d’un certain nombre de tâches consultatives, parmi lesquelles la formulation d’avis, de recommandations, de conseils ou d’orientations sur des questions liées à la mise en œuvre du présent règlement, y compris sur les spécifications techniques ou les normes existantes concernant les exigences établies dans le présent règlement, et la fourniture de conseils et d’assistance à la Commission sur des questions spécifiques liées à l’intelligence artificielle. La composition du Comité européen de l’intelligence artificielle devrait refléter les intérêts de la société européenne et respecter l’équilibre hommes-femmes.

Exposé des motifs

Le Comité européen de l’intelligence artificielle devrait refléter correctement les grands intérêts de la société européenne. Il s’agit notamment des intérêts dans le domaine des droits de l’homme, du climat et de l’efficacité énergétique des systèmes d’IA, de la sécurité, de l’inclusion sociale, de la santé, etc. L’équilibre hommes-femmes est une condition sine qua non pour garantir la diversité dans le cadre des activités de conseil, de l’élaboration d’orientations, etc.

Amendement 13

Considérant 77

Texte proposé par la Commission européenne

Amendement du CdR

Les États membres jouent un rôle clé dans l’application et le contrôle du respect du présent règlement. À cet égard, chaque État membre devrait désigner une ou plusieurs autorités nationales compétentes chargées de contrôler l’application et la mise en œuvre du présent règlement. Afin d’accroître l’efficacité de l’organisation du côté des États membres et de définir un point de contact officiel avec le public et les homologues au niveau des États membres et de l’Union, chaque État membre devrait désigner une autorité nationale unique en tant qu’autorité de contrôle nationale.

Les États membres jouent un rôle clé dans l’application et le contrôle du respect du présent règlement. À cet égard, chaque État membre devrait désigner une ou plusieurs autorités nationales compétentes chargées de contrôler l’application et la mise en œuvre du présent règlement. Afin d’accroître l’efficacité de l’organisation du côté des États membres et de définir un point de contact officiel avec le public et les homologues au niveau des États membres et de l’Union, chaque État membre devrait désigner une autorité nationale unique en tant qu’autorité de contrôle nationale. Les collectivités locales et régionales se voient confier des tâches de surveillance ou de mise en œuvre lorsqu’un État membre le juge approprié.

Exposé des motifs

Aux fins de l’applicabilité du règlement et de son dispositif de surveillance et de mise en œuvre, un État membre devrait être habilité à confier aux collectivités locales et régionales, si nécessaire et dans la mesure du possible, des tâches de surveillance ou de mise en œuvre.

Amendement 14

Considérant 79

Texte proposé par la Commission européenne

Amendement du CdR

Afin de garantir un contrôle approprié et efficace du respect des exigences et obligations énoncées par le présent règlement, qui fait partie de la législation d’harmonisation de l’Union, le système de surveillance du marché et de mise en conformité des produits établi par le règlement (UE) 2019/1020 devrait s’appliquer dans son intégralité. Lorsque cela est nécessaire à leur mandat, les autorités ou organismes publics nationaux qui contrôlent l’application du droit de l’Union en matière de droits fondamentaux, y compris les organismes de promotion de l’égalité, devraient aussi avoir accès à toute documentation créée au titre du présent règlement.

Afin de garantir un contrôle approprié et efficace du respect des exigences et obligations énoncées par le présent règlement, qui fait partie de la législation d’harmonisation de l’Union, le système de surveillance du marché et de mise en conformité des produits établi par le règlement (UE) 2019/1020 devrait s’appliquer dans son intégralité. Lorsque cela est nécessaire à leur mandat, les autorités ou organismes publics nationaux qui contrôlent l’application du droit de l’Union en matière de droits fondamentaux, y compris les organismes de promotion de l’égalité, ainsi que, le cas échéant, les collectivités locales et régionales, devraient aussi avoir accès à toute documentation créée au titre du présent règlement.

Exposé des motifs

Cet amendement vise à prendre en compte les différentes structures de gouvernance dans les États membres de l’UE.

Amendement 15

Considérant 83

Texte proposé par la Commission européenne

Amendement du CdR

Afin d’assurer une coopération constructive et en toute confiance entre les autorités compétentes au niveau de l’Union et au niveau national, toutes les parties intervenant dans l’application du présent règlement devraient respecter la confidentialité des informations et des données obtenues dans le cadre de l’exécution de leurs tâches.

Afin d’assurer une coopération constructive et en toute confiance entre les autorités compétentes au niveau de l’Union et au niveau national, régional et local, toutes les parties intervenant dans l’application du présent règlement devraient respecter la confidentialité des informations et des données obtenues dans le cadre de l’exécution de leurs tâches.

Exposé des motifs

Cet amendement vise à prendre en compte les différentes structures de gouvernance dans les États membres de l’UE.

Amendement 16

Titre I, article 3 — Définitions, point 1

Texte proposé par la Commission européenne

Amendement du CdR

«système d’intelligence artificielle» (système d’IA), un logiciel qui est développé au moyen d’une ou plusieurs des techniques et approches énumérées à l’annexe I et qui peut, pour un ensemble donné d’objectifs définis par l’homme, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit;

«système d’intelligence artificielle» (système d’IA), un logiciel qui est développé au moyen d’une ou plusieurs des techniques et approches énumérées de manière non exhaustive à l’annexe I , qui est relié à des pratiques sociales, à l’identité et à la culture, et qui peut, pour un ensemble donné d’objectifs définis par l’homme , à partir de la perception de son environnement grâce à la collecte de données, à l’interprétation des données collectées, structurées ou non, à la gestion des connaissances ou au traitement de l’information découlant de ces données, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit;

Exposé des motifs

Un système d’IA consiste en une combinaison d’éléments techniques qui relient données, algorithmes et puissance de calcul à des pratiques sociales, à la société, à l’identité et à la culture. La définition d’un tel ensemble sociotechnique dynamique devrait donc être à l’épreuve du temps et mise à jour régulièrement afin de refléter fidèlement l’incidence croissante de l’IA sur la société, tout en cernant ses enjeux et ses possibilités — notamment le lien entre la gestion des connaissances et l’AI —, qui évoluent rapidement. Dans ce contexte, un algorithme qui est développé par un autre algorithme devrait également entrer dans le champ d’application du règlement à l’examen.

Amendement 17

Article 5, paragraphe 1

Texte proposé par la Commission européenne

Amendement du CdR

Les pratiques en matière d’intelligence artificielle suivantes sont interdites:

Les pratiques en matière d’intelligence artificielle suivantes sont interdites:

a)

la mise sur le marché, la mise en service ou l’utilisation d’un système d’IA qui a recours à des techniques subliminales au-dessous du seuil de conscience d’une personne pour altérer substantiellement son comportement d’une manière qui cause ou est susceptible de causer un préjudice physique ou psychologique à cette personne ou à un tiers;

a)

la mise sur le marché, la mise en service ou l’utilisation d’un système d’IA qui a recours à des techniques subliminales au-dessous du seuil de conscience d’une personne pour altérer substantiellement son comportement d’une manière qui cause ou est susceptible de causer un préjudice physique ou psychologique à cette personne ou à un tiers , porte atteinte ou est susceptible de porter atteinte aux droits fondamentaux d’une autre personne ou d’un groupe de personnes, y compris leur santé et leur sécurité physiques ou psychologiques, occasionne ou est susceptible d’occasionner des préjudices aux consommateurs, tels que des pertes financières ou une discrimination sur le plan économique, ou met à mal ou est susceptible de mettre à mal la démocratie et l’état de droit ;

b)

la mise sur le marché, la mise en service ou l’utilisation d’un système d’IA qui exploite les éventuelles vulnérabilités dues à l’âge ou au handicap physique ou mental d’un groupe de personnes donné pour altérer substantiellement le comportement d’un membre de ce groupe d’une manière qui cause ou est susceptible de causer un préjudice physique ou psychologique à cette personne ou à un tiers;

b)

la mise sur le marché, la mise en service ou l’utilisation d’un système d’IA qui exploite les éventuelles vulnérabilités dues à l’âge ou au handicap physique ou mental d’un groupe de personnes donné pour altérer substantiellement le comportement d’un membre de ce groupe d’une manière qui cause ou est susceptible de causer un préjudice physique ou psychologique à cette personne ou à un tiers;

c)

la mise sur le marché, la mise en service ou l’utilisation, par les pouvoirs publics ou pour leur compte, de systèmes d’IA destinés à évaluer ou à établir un classement de la fiabilité de personnes physiques au cours d’une période donnée en fonction de leur comportement social ou de caractéristiques personnelles ou de personnalité connues ou prédites , la note sociale conduisant à l’une ou l’autre des situations suivantes, ou aux deux:

i)

le traitement préjudiciable ou défavorable de certaines personnes physiques ou de groupes entiers de personnes physiques dans des contextes sociaux dissociés du contexte dans lequel les données ont été générées ou collectées à l’origine;

ii)

le traitement préjudiciable ou défavorable de certaines personnes physiques ou de groupes entiers de personnes physiques, qui est injustifié ou disproportionné par rapport à leur comportement social ou à la gravité de celui-ci;

c)

la mise sur le marché, la mise en service ou l’utilisation, par les pouvoirs publics ou pour leur compte, de systèmes d’IA destinés à évaluer ou à établir un classement de la fiabilité de personnes physiques ou de groupes de personnes au cours d’une période donnée en fonction de leur comportement social ou de caractéristiques personnelles ou de personnalité connues ou prédites , qui conduiraient à une notation sociale fondée sur l’IA effectuée à des fins générales ;

d)

l’utilisation de systèmes d’identification biométrique à distance «en temps réel» dans des espaces accessibles au public à des fins répressives, sauf si et dans la mesure où cette utilisation est strictement nécessaire eu égard à l’un des objectifs suivants:

i)

la recherche ciblée de victimes potentielles spécifiques de la criminalité, notamment d’enfants disparus;

ii)

la prévention d’une menace spécifique, substantielle et imminente pour la vie ou la sécurité physique des personnes physiques ou la prévention d’une attaque terroriste;

iii)

la détection, la localisation, l’identification ou les poursuites à l’encontre de l’auteur ou du suspect d’une infraction pénale visée à l’article 2, paragraphe 2, de la décision-cadre 2002/584/JAI du Conseil ([62]) et punissable dans l’État membre concerné d’une peine ou d’une mesure de sûreté privatives de liberté d’une durée maximale d’au moins trois ans, déterminées par le droit de cet État membre.

d)

la mise sur le marché, la mise en service ou l’utilisation, par les pouvoirs publics ou pour leur compte, de systèmes d’IA recourant à la notation sociale fondée sur l’IA sans supervision humaine, effectuée à des fins spécifiques, c’est-à-dire dans des contextes sociaux qui sont associés au contexte dans lequel les données ont été initialement générées ou collectées, en vue d’évaluer ou d’établir un classement de la fiabilité de personnes physiques ou de groupes de personnes au cours d’une période donnée en fonction de leur comportement social ou de caractéristiques personnelles ou de personnalité connues ou prédites, la note sociale conduisant au traitement préjudiciable ou défavorable de certaines personnes physiques ou de groupes entiers de personnes physiques, qui est injustifié ou disproportionné par rapport à leur comportement social ou à la gravité de celui-ci;

 

e)

l’utilisation de systèmes d’identification biométrique à distance «en temps réel» dans des espaces accessibles au public à des fins répressives, sauf si et dans la mesure où cette utilisation est strictement nécessaire eu égard à l’un des objectifs suivants:

i)

la recherche ciblée de victimes potentielles spécifiques de la criminalité, notamment d’enfants disparus;

ii)

la prévention d’une menace spécifique, substantielle et imminente pour la vie ou la sécurité physique des personnes physiques ou la prévention d’une attaque terroriste;

iii)

la détection, la localisation, l’identification ou les poursuites à l’encontre de l’auteur ou du suspect d’une infraction pénale visée à l’article 2, paragraphe 2, de la décision-cadre 2002/584/JAI du Conseil ([62]) et punissable dans l’État membre concerné d’une peine ou d’une mesure de sûreté privatives de liberté d’une durée maximale d’au moins trois ans, déterminées par le droit de cet État membre.

Exposé des motifs

Les techniques subliminales en général sont susceptibles de porter atteinte à la liberté, aux droits de l’homme et, partant, au fonctionnement de l’état de droit démocratique. Dans le même temps, l’intelligence artificielle peut porter atteinte aux droits des consommateurs. Les ajouts proposés ont pour but de clarifier ce point.

En ce qui concerne la notation sociale par les pouvoirs publics ou en leur nom, celle-ci devrait être interdite si elle est effectuée à des fins générales, compte tenu des dangers résultant de ces pratiques, comme expliqué au considérant 17. La production ou la collecte de données à des fins spécifiques ne devraient être autorisées que si elles font l’objet d’une supervision humaine et à condition qu’elles ne portent pas atteinte au droit à la dignité et à la non-discrimination, ni aux valeurs d’égalité et de justice.

Amendement 18

Article 5, paragraphe 4

Texte proposé par la Commission européenne

Amendement du CdR

Un État membre peut décider de prévoir la possibilité d’autoriser totalement ou partiellement l’utilisation de systèmes d’identification biométriques à distance «en temps réel» dans des espaces accessibles au public à des fins répressives, dans les limites et les conditions énumérées au paragraphe 1, point d), et aux paragraphes 2 et 3. L’État membre en question établit dans son droit national les modalités nécessaires à la demande, à la délivrance et à l’exercice des autorisations visées au paragraphe 3, ainsi qu’à la surveillance y afférente. Ces règles précisent également pour quels objectifs énumérés au paragraphe 1, point d), et notamment pour quelles infractions pénales visées au point iii) dudit paragraphe, les autorités compétentes peuvent être autorisées à utiliser ces systèmes à des fins répressives.

Un État membre peut décider de prévoir la possibilité d’autoriser totalement ou partiellement l’utilisation de systèmes d’identification biométriques à distance «en temps réel» dans des espaces accessibles au public à des fins répressives, dans les limites et les conditions énumérées au paragraphe 1, point d), et aux paragraphes 2 et 3. L’État membre en question établit dans son droit national les modalités nécessaires à la demande, à la délivrance et à l’exercice des autorisations visées au paragraphe 3, ainsi qu’à la surveillance y afférente. Ces règles précisent également pour quels objectifs énumérés au paragraphe 1, point d), et notamment pour quelles infractions pénales visées au point iii) dudit paragraphe, les autorités compétentes peuvent être autorisées à utiliser ces systèmes à des fins répressives. Ces règles fixent en outre les modalités d’information et de consultation des collectivités locales et régionales concernées. Cette consultation doit avoir lieu avant l’utilisation exceptionnelle de ces systèmes dans les espaces publics. Dans les situations d’urgence où une consultation préalable ne peut raisonnablement être attendue, la collectivité locale ou régionale concernée doit être immédiatement informée du déploiement de la pratique d’IA en question.

Exposé des motifs

La responsabilité politique et administrative de la gestion et de la surveillance des espaces publics incombe aux collectivités locales et régionales. Elles doivent donc avoir voix au chapitre avant le déploiement de telles pratiques d’IA et être dûment informées de l’utilisation exceptionnelle de systèmes d’IA à des fins répressives.

Dans les situations d’urgence où une consultation préalable ne peut raisonnablement être attendue, la collectivité locale ou régionale concernée doit être immédiatement informée.

Amendement 19

Article 13

Texte proposé par la Commission européenne

Amendement du CdR

Article  13  — Transparence et fourniture d’informations aux utilisateurs

Article  13 bis — Transparence et fourniture d’informations aux utilisateurs

1.   La conception et le développement des systèmes d’IA à haut risque sont tels que le fonctionnement de ces systèmes est suffisamment transparent pour permettre aux utilisateurs d’interpréter les résultats du système et de l’utiliser de manière appropriée. Un type et un niveau adéquats de transparence permettent de veiller au respect des obligations pertinentes incombant à l’utilisateur et au fournisseur énoncées au chapitre 3 du présent titre.

1.   La conception et le développement des systèmes d’IA à haut risque sont tels que le fonctionnement de ces systèmes est suffisamment transparent pour permettre aux utilisateurs d’interpréter les résultats du système et de l’utiliser de manière appropriée. Un type et un niveau adéquats de transparence et d’explication compréhensible permettent de veiller au respect des obligations pertinentes incombant à l’utilisateur et au fournisseur énoncées au chapitre 3 du présent titre. Cette explication est fournie au moins dans la langue du pays dans lequel le système d’IA est déployé.

2.   Les systèmes d’IA à haut risque sont accompagnés d’une notice d’utilisation dans un format numérique approprié ou autre, contenant des informations concises, complètes, exactes et claires, qui soient pertinentes, accessibles et compréhensibles pour les utilisateurs.

2.   Les systèmes d’IA à haut risque sont accompagnés d’une notice d’utilisation publique, compréhensible et accessible à tous, dans un format numérique approprié ou autre, contenant des informations concises, complètes, exactes et claires, qui soient pertinentes, accessibles et compréhensibles pour les utilisateurs.

3.   Les informations visées au paragraphe 2 comprennent:

3.   Les informations visées au paragraphe 2 comprennent:

a)

l’identité et les coordonnées du fournisseur et, le cas échéant, de son mandataire;

a)

l’identité et les coordonnées du fournisseur et, le cas échéant, de son mandataire;

b)

les caractéristiques, les capacités et les limites de performance du système d’IA à haut risque, notamment:

b)

les caractéristiques, les capacités et les limites de performance du système d’IA à haut risque, notamment:

 

i)

sa destination;

 

i)

sa destination;

 

ii)

le niveau d’exactitude, de robustesse et de cybersécurité visé à l’article 15 qui a servi de référence pour les tests et la validation du système d’IA à haut risque et qui peut être attendu, ainsi que toutes circonstances connues et prévisibles susceptibles d’avoir une incidence sur le niveau attendu d’exactitude, de robustesse et de cybersécurité;

 

ii)

le niveau d’exactitude (exprimé dans la métrique appropriée pour l’évaluation de modèles) , de robustesse et de cybersécurité visé à l’article 15 qui a servi de référence pour les tests et la validation du système d’IA à haut risque et qui peut être attendu, ainsi que toutes circonstances connues et prévisibles susceptibles d’avoir une incidence sur le niveau attendu d’exactitude, de robustesse et de cybersécurité;

 

iii)

toutes circonstances connues ou prévisibles liées à l’utilisation du système d’IA à haut risque conformément à sa destination ou dans des conditions de mauvaise utilisation raisonnablement prévisible, susceptibles d’entraîner des risques pour la santé et la sécurité ou pour les droits fondamentaux;

 

iii)

toutes circonstances connues ou prévisibles liées à l’utilisation du système d’IA à haut risque conformément à sa destination ou dans des conditions de mauvaise utilisation raisonnablement prévisible, susceptibles d’entraîner des risques pour la santé et la sécurité ou pour les droits fondamentaux;

 

iv)

ses performances en ce qui concerne les personnes ou groupes de personnes à l’égard desquels le système est destiné à être utilisé;

 

iv)

ses performances en ce qui concerne les personnes ou groupes de personnes à l’égard desquels le système est destiné à être utilisé;

 

v)

le cas échéant, les spécifications relatives aux données d’entrée, ou toute autre information pertinente concernant les jeux de données d’entraînement, de validation et de test utilisés, compte tenu de la destination du système d’IA.

 

v)

le cas échéant, les spécifications relatives aux données d’entrée, ou toute autre information pertinente concernant les jeux de données d’entraînement, de validation et de test utilisés, compte tenu de la destination du système d’IA;

vi)

les paramètres utilisés pour régler le modèle et les mesures prises pour éviter le surajustement ou le sous-ajustement;

c)

les modifications du système d’IA à haut risque et de ses performances qui ont été prédéterminées par le fournisseur au moment de l’évaluation initiale de la conformité, le cas échéant;

c)

les modifications du système d’IA à haut risque et de ses performances qui ont été prédéterminées par le fournisseur au moment de l’évaluation initiale de la conformité, le cas échéant;

d)

les mesures de contrôle humain visées à l’article 14, notamment les mesures techniques mises en place pour faciliter l’interprétation des résultats des systèmes d’IA par les utilisateurs;

d)

les mesures de contrôle humain visées à l’article 14, notamment les mesures techniques mises en place pour faciliter l’interprétation des résultats des systèmes d’IA par les utilisateurs;

e)

la durée de vie attendue du système d’IA à haut risque et toutes les mesures de maintenance et de suivi nécessaires pour assurer le bon fonctionnement de ce système d’IA, notamment en ce qui concerne les mises à jour logicielles.

e)

la durée de vie attendue du système d’IA à haut risque et toutes les mesures de maintenance et de suivi nécessaires pour assurer le bon fonctionnement de ce système d’IA, notamment en ce qui concerne les mises à jour logicielles.

 

Article 13 ter — Transparence et information des personnes concernées

Les personnes ou groupes de personnes susceptibles d’être soumis à un système d’IA à haut risque reçoivent des informations appropriées, compréhensibles et facilement accessibles, et peuvent aisément consulter des informations publiques indiquant explicitement qu’ils sont soumis à ce système.

Exposé des motifs

Afin de renforcer l’écosystème de confiance, les instructions d’utilisation des systèmes d’IA à haut risque devraient être mises à la disposition du public. Ces instructions doivent être rédigées de manière compréhensible, dans la langue du pays dans lequel le système d’IA est déployé.

À des fins de transparence et de compréhensibilité des algorithmes, il doit être possible d’expliquer quels paramètres ont été utilisés pour régler le modèle et quelles mesures ont été prises pour éviter le surajustement ou le sous-ajustement.

L’article 13b régit l’obligation de transparence et d’information pour les personnes qui interagissent avec les systèmes d’IA ou qui pourraient être concernées par un système d’IA.

Amendement 20

Article 14, paragraphe 4

Texte proposé par la Commission européenne

Amendement du CdR

Les mesures prévues au paragraphe 3 donnent aux personnes chargées d’effectuer un contrôle humain, en fonction des circonstances, la possibilité:

Les mesures prévues au paragraphe 3 donnent aux personnes chargées d’effectuer un contrôle humain, en fonction des circonstances, la possibilité:

a)

d’appréhender totalement les capacités et les limites du système d’IA à haut risque et d’être en mesure de surveiller correctement son fonctionnement, afin de pouvoir détecter et traiter dès que possible les signes d’anomalies, de dysfonctionnements et de performances inattendues;

a)

d’appréhender totalement les capacités et les limites du système d’IA à haut risque et d’être en mesure de surveiller correctement son fonctionnement, afin de pouvoir détecter et traiter dès que possible les signes d’anomalies, de dysfonctionnements et de performances inattendues;

b)

d’avoir conscience d’une éventuelle tendance à se fier automatiquement ou excessivement aux résultats produits par un système d’IA à haut risque («biais d’automatisation»), en particulier pour les systèmes d’IA à haut risque utilisés pour fournir des informations ou des recommandations concernant les décisions à prendre par des personnes physiques;

b)

d’avoir conscience d’une éventuelle tendance à se fier automatiquement ou excessivement aux résultats produits par un système d’IA à haut risque («biais d’automatisation») ou de tout autre biais , en particulier pour les systèmes d’IA à haut risque utilisés pour fournir des informations ou des recommandations concernant les décisions à prendre par des personnes physiques;

c)

d’être en mesure d’interpréter correctement les résultats du système d’IA à haut risque, compte tenu notamment des caractéristiques du système et des outils et méthodes d’interprétation disponibles;

c)

d’être en mesure d’interpréter correctement les résultats du système d’IA à haut risque, compte tenu notamment des caractéristiques du système et des outils et méthodes d’interprétation disponibles;

d)

d’être en mesure de décider, dans une situation particulière, de ne pas utiliser le système d’IA à haut risque ou de négliger, passer outre ou inverser le résultat fourni par ce système;

d)

d’être en mesure de décider, dans une situation particulière, de ne pas utiliser le système d’IA à haut risque ou de négliger, passer outre ou inverser le résultat fourni par ce système;

e)

d’être capable d’intervenir sur le fonctionnement du système d’IA à haut risque ou d’interrompre ce fonctionnement au moyen d’un bouton d’arrêt ou d’une procédure similaire.

e)

d’être capable d’intervenir sur le fonctionnement du système d’IA à haut risque ou d’interrompre ce fonctionnement au moyen d’un bouton d’arrêt ou d’une procédure similaire.

Exposé des motifs

Il existe plusieurs types de biais pouvant poser problème. On peut citer à titre d’exemple le biais du concepteur ou de l’utilisateur lui-même («biais social»), le biais quant à la question de savoir si le système d’IA déployé constitue une solution adéquate au problème («biais technologique») et les différents types de biais statistiques.

Amendement 21

Article 14 — nouveau paragraphe après le paragraphe 5

Texte proposé par la Commission européenne

Amendement du CdR

 

Toute décision prise par les systèmes d’IA visés à l’annexe III, points 5, a) et b), fait l’objet d’une intervention humaine et repose sur un processus décisionnel rigoureux. Il convient de garantir un contact humain par rapport à ces décisions.

Exposé des motifs

L’article 14 traite uniquement du contrôle des systèmes d’IA à haut risque par des êtres humains. S’agissant des décisions des pouvoirs publics, il importe de souligner que l’intervention et le contact humains et le respect des procédures doivent être garantis.

Amendement 22

Article 17, paragraphe 1 — ajouter deux points après le point m)

Texte proposé par la Commission européenne

Amendement du CdR

Les fournisseurs de systèmes d’IA à haut risque mettent en place un système de gestion de la qualité garantissant le respect du présent règlement. Ce système est documenté de manière méthodique et ordonnée sous la forme de politiques, de procédures et d’instructions écrites, et comprend au moins les aspects suivants:

Les fournisseurs de systèmes d’IA à haut risque mettent en place un système de gestion de la qualité garantissant le respect du présent règlement. Ce système est documenté de manière méthodique et ordonnée sous la forme de politiques, de procédures et d’instructions écrites, et comprend au moins les aspects suivants:

a)

une stratégie de respect de la réglementation, notamment le respect des procédures d’évaluation de la conformité et des procédures de gestion des modifications apportées aux systèmes d’IA à haut risque;

a)

une stratégie de respect de la réglementation, notamment le respect des procédures d’évaluation de la conformité et des procédures de gestion des modifications apportées aux systèmes d’IA à haut risque;

b)

des techniques, procédures et actions systématiques destinées à la conception des systèmes d’IA à haut risque ainsi qu’au contrôle et à la vérification de cette conception;

b)

des techniques, procédures et actions systématiques destinées à la conception des systèmes d’IA à haut risque ainsi qu’au contrôle et à la vérification de cette conception;

c)

des techniques, procédures et actions systématiques destinées au développement des systèmes d’IA à haut risque ainsi qu’au contrôle et à l’assurance de leur qualité;

c)

des techniques, procédures et actions systématiques destinées au développement des systèmes d’IA à haut risque ainsi qu’au contrôle et à l’assurance de leur qualité;

d)

des procédures d’examen, de test et de validation à exécuter avant, pendant et après le développement du système d’IA à haut risque, ainsi que la fréquence à laquelle elles doivent être réalisées;

d)

des procédures d’examen, de test et de validation à exécuter avant, pendant et après le développement du système d’IA à haut risque, ainsi que la fréquence à laquelle elles doivent être réalisées;

e)

des spécifications techniques, notamment des normes, à appliquer et, lorsque les normes harmonisées pertinentes ne sont pas appliquées intégralement, les moyens à utiliser pour faire en sorte que le système d’IA à haut risque satisfasse aux exigences énoncées au chapitre 2 du présent titre;

e)

des spécifications techniques, notamment des normes, à appliquer et, lorsque les normes harmonisées pertinentes ne sont pas appliquées intégralement, les moyens à utiliser pour faire en sorte que le système d’IA à haut risque satisfasse aux exigences énoncées au chapitre 2 du présent titre;

f)

les systèmes et procédures de gestion des données, notamment la collecte, l’analyse, l’étiquetage, le stockage, la filtration, l’exploration, l’agrégation, la conservation des données et toute autre opération concernant les données qui est effectuée avant la mise sur le marché ou la mise en service de systèmes d’IA à haut risque et aux fins de celles-ci;

f)

les systèmes et procédures de gestion des données, notamment la collecte, l’analyse, l’étiquetage, le stockage, la filtration, l’exploration, l’agrégation, la conservation des données et toute autre opération concernant les données qui est effectuée avant la mise sur le marché ou la mise en service de systèmes d’IA à haut risque et aux fins de celles-ci;

g)

le système de gestion des risques prévu à l’article 9;

g)

le système de gestion des risques prévu à l’article 9;

h)

l’élaboration, la mise en œuvre et le maintien d’un système de surveillance après commercialisation conformément à l’article 61;

h)

l’élaboration, la mise en œuvre et le maintien d’un système de surveillance après commercialisation conformément à l’article 61;

i)

les procédures relatives à la notification des incidents graves et des dysfonctionnements conformément à l’article 62;

i)

les procédures relatives à la notification des incidents graves et des dysfonctionnements conformément à l’article 62;

j)

la gestion des communications avec les autorités nationales compétentes, les autorités compétentes, y compris les autorités sectorielles, fournissant ou facilitant l’accès aux données, les organismes notifiés, les autres opérateurs, les clients ou d’autres parties intéressées;

j)

la gestion des communications avec les autorités nationales compétentes, les autorités compétentes, y compris les autorités sectorielles, fournissant ou facilitant l’accès aux données, les organismes notifiés, les autres opérateurs, les clients ou d’autres parties intéressées;

k)

les systèmes et procédures de conservation de tous les documents et informations pertinents;

k)

les systèmes et procédures de conservation de tous les documents et informations pertinents;

l)

la gestion des ressources, y compris les mesures liées à la sécurité d’approvisionnement;

l)

la gestion des ressources, y compris les mesures liées à la sécurité d’approvisionnement;

m)

un cadre de responsabilisation définissant les responsabilités de l’encadrement et des autres membres du personnel en ce qui concerne tous les aspects énumérés dans le présent paragraphe.

m)

un cadre de responsabilisation définissant les responsabilités de l’encadrement et des autres membres du personnel en ce qui concerne tous les aspects énumérés dans le présent paragraphe;

 

n)

des mesures visant à prévenir toute discrimination injustifiée fondée sur le sexe, l’origine ethnique, la religion ou les convictions, un handicap, l’âge, l’orientation sexuelle ou tout autre motif;

o)

une explication sur la manière dont des questions éthiques ont été prises en compte lors de la conception du système d’IA à haut risque.

Exposé des motifs

Cet ajout souligne que l’inclusivité et la lutte contre les discriminations injustifiées devraient constituer des éléments importants du système de gestion de la qualité.

Le système doit respecter les valeurs éthiques qu’un utilisateur du système d’IA souhaite y associer ou dont le fournisseur peut raisonnablement s’attendre à ce qu’elles puissent être associées à un système d’IA à haut risque. Le fournisseur devrait être en mesure d’expliquer comment il en a tenu compte.

Amendement 23

Article 19, paragraphe 1

Texte proposé par la Commission européenne

Amendement du CdR

Les fournisseurs de systèmes d’IA à haut risque veillent à ce que leurs systèmes soient soumis à la procédure d’évaluation de la conformité applicable conformément à l’article 43, avant leur mise sur le marché ou leur mise en service. Lorsqu’il a été démontré, à la suite de cette évaluation de la conformité, que les systèmes d’IA satisfont aux exigences énoncées au chapitre 2 du présent titre, les fournisseurs établissent une déclaration UE de conformité conformément à l’article 48 et apposent le marquage «CE» de conformité conformément à l’article 49.

Les fournisseurs de systèmes d’IA à haut risque veillent à ce que leurs systèmes soient soumis à la procédure d’évaluation de la conformité applicable conformément à l’article 43, avant leur mise sur le marché ou leur mise en service. Lorsqu’il a été démontré, à la suite de cette évaluation de la conformité, que les systèmes d’IA satisfont aux exigences énoncées au chapitre 2 du présent titre, les fournisseurs établissent une déclaration UE de conformité conformément à l’article 48 et apposent le marquage «CE» de conformité conformément à l’article 49. Les fournisseurs de systèmes d’IA à haut risque publient la déclaration UE de conformité et un résumé de l’évaluation de la conformité à un endroit accessible au public.

Exposé des motifs

Afin de renforcer l’écosystème de confiance dans les systèmes d’IA, les fournisseurs de systèmes d’IA à haut risque devraient faire preuve de franchise. Le public devrait donc être en mesure de vérifier que l’évaluation de la conformité a été correctement établie conformément aux dispositions du règlement.

Amendement 24

Article 29 — nouveau paragraphe après le paragraphe 6

Texte proposé par la Commission européenne

Amendement du CdR

 

Les utilisateurs de systèmes d’IA à haut risque sont tenus de procéder à une évaluation éthique avant la mise en service du système. Ils doivent être en mesure d’expliquer l’incidence possible du déploiement de la technologie sur les personnes et la société. Ils précisent à quelles fins le système d’IA est déployé, quelles sont les valeurs fondamentales et comment elles ont été déterminées, et si elles ont été ou non prises en compte dans le système. Ils évaluent l’incidence réelle du système sur l’homme et la société tout au long du cycle de vie du système d’IA.

Exposé des motifs

L’éthique est un vaste concept. Il existe de nombreuses façons de pratiquer l’éthique dans le domaine de la technologie, tant en ce qui concerne les justifications théoriques que les méthodologies, outils et valeurs de conception concrets. Les valeurs sont des éléments jugés importants par certaines personnes ou certains groupes de personnes; elles peuvent être plutôt concrètes, ou davantage conceptuelles. Il importe de préserver l’éventail des valeurs morales susceptibles d’être mises en œuvre, et d’évaluer en permanence le cycle de vie du système d’IA.

Amendement 25

Article 52, paragraphe 1

Texte proposé par la Commission européenne

Amendement du CdR

Les fournisseurs veillent à ce que les systèmes d’IA destinés à interagir avec des personnes physiques soient conçus et développés de manière à ce que les personnes physiques soient informées qu’elles interagissent avec un système d’IA , sauf si cela ressort clairement des circonstances et du contexte d’utilisation . Cette obligation ne s’applique pas aux systèmes d’IA dont la loi autorise l’utilisation à des fins de prévention et de détection des infractions pénales, d’enquêtes et de poursuites en la matière, sauf si ces systèmes sont mis à la disposition du public pour permettre le signalement d’une infraction pénale.

Les fournisseurs veillent à ce que les systèmes d’IA destinés à interagir avec des personnes physiques soient conçus et développés de manière à ce que les personnes physiques soient informées qu’elles interagissent avec un système d’IA. Cette obligation ne s’applique pas aux systèmes d’IA dont la loi autorise l’utilisation à des fins de prévention et de détection des infractions pénales, d’enquêtes et de poursuites en la matière, sauf si ces systèmes sont mis à la disposition du public pour permettre le signalement d’une infraction pénale. L’ensemble des options et le statut juridique des personnes physiques qui interagissent avec les systèmes d’IA ne doivent pas être limités par cette interaction.

Exposé des motifs

Lorsque des artéfacts technologiques sont utilisés comme moyen d’interaction avec des personnes physiques, il peut y avoir un risque que les choix effectués par des personnes physiques interagissant avec ces artéfacts soient limités. Les personnes physiques devraient toujours être dûment informées lorsqu’elles sont confrontées à des systèmes d’IA, sans que cette obligation ne soit sujette à l’interprétation d’une situation donnée. Leurs droits devraient être garantis à tout moment lorsqu’ils interagissent avec des systèmes d’IA.

Amendement 26

Article 57, paragraphe 1

Texte proposé par la Commission européenne

Amendement du CdR

Le Comité est composé des autorités de contrôle nationales, qui sont représentées par leur directeur ou un de leurs hauts fonctionnaires de niveau équivalent, et du Contrôleur européen de la protection des données. D’autres autorités nationales peuvent être invitées aux réunions, lorsque les questions examinées relèvent de leurs compétences.

Le Comité est composé des autorités de contrôle nationales, qui sont représentées par leur directeur ou un de leurs hauts fonctionnaires de niveau équivalent, et du Contrôleur européen de la protection des données. D’autres autorités nationales , régionales et locales peuvent être invitées aux réunions, lorsque les questions examinées relèvent de leurs compétences.

Exposé des motifs

Les collectivités locales et régionales devraient pouvoir participer au suivi des systèmes d’IA et rendre compte de leur mise en œuvre sur le terrain.

Amendement 27

Article 58

Texte proposé par la Commission européenne

Amendement du CdR

Lorsqu’il fournit des conseils et une assistance à la Commission dans le cadre de l’article 56, paragraphe 2, le Comité, en particulier:

Lorsqu’il fournit des conseils et une assistance à la Commission dans le cadre de l’article 56, paragraphe 2, le Comité, en particulier:

a)

recueille l’expertise et les bonnes pratiques et les partage entre les États membres;

a)

recueille l’expertise et les bonnes pratiques et les partage entre les États membres , les collectivités régionales et les collectivités locales ;

b)

contribue à l’harmonisation des pratiques administratives dans les États membres, y compris en ce qui concerne le fonctionnement des bacs à sable réglementaires visés à l’article 53;

b)

contribue à l’harmonisation des pratiques administratives dans les États membres, y compris en ce qui concerne le fonctionnement des bacs à sable réglementaires visés à l’article 53;

c)

formule des avis, des recommandations ou des contributions écrites sur des questions liées à la mise en œuvre du présent règlement, en particulier

c)

formule des avis, des recommandations ou des contributions écrites sur des questions liées à la mise en œuvre du présent règlement, en particulier

 

i)

sur les spécifications techniques ou les normes existantes se rapportant aux exigences énoncées au titre III, chapitre 2,

ii)

sur l’utilisation des normes harmonisées ou des spécifications communes visées aux articles 40 et 41,

iii)

sur l’élaboration de documents d’orientation, y compris les lignes directrices relatives à la fixation des amendes administratives visées à l’article 71.

 

i)

sur les spécifications techniques ou les normes existantes se rapportant aux exigences énoncées au titre III, chapitre 2,

ii)

sur l’utilisation des normes harmonisées ou des spécifications communes visées aux articles 40 et 41,

iii)

sur l’élaboration de documents d’orientation, y compris les lignes directrices relatives à la fixation des amendes administratives visées à l’article 71.

Exposé des motifs

Les collectivités locales et régionales sont les plus proches des populations et des économies locales. Elle devrait figurer explicitement en bonne place lorsqu’il s’agit de partager leurs connaissances.

Amendement 28

Article 59, paragraphe 1

Texte proposé par la Commission européenne

Amendement du CdR

Des autorités nationales compétentes sont établies ou désignées par chaque État membre aux fins d’assurer l’application et la mise en œuvre du présent règlement. Les autorités nationales compétentes sont organisées de manière à garantir l’objectivité et l’impartialité de leurs activités et de leurs tâches.

Des autorités nationales compétentes sont établies ou désignées par chaque État membre aux fins d’assurer l’application et la mise en œuvre du présent règlement. Les autorités nationales compétentes sont organisées de manière à garantir l’objectivité et l’impartialité de leurs activités et de leurs tâches. Les collectivités locales et régionales sont habilitées à exercer des tâches de surveillance ou de mise en œuvre lorsqu’un État membre le juge approprié.

Exposé des motifs

Aux fins de l’applicabilité du règlement et de son dispositif de surveillance et de mise en œuvre, un État membre devrait être en mesure de confier aux collectivités locales et régionales, si nécessaire et dans la mesure du possible, des tâches de surveillance ou de mise en œuvre. Dans ce contexte, les collectivités locales et régionales doivent bénéficier d’un soutien et d’une formation de manière à être pleinement habilitées à exercer des tâches de surveillance ou de mise en œuvre.

Amendement 29

Article 69, paragraphe 3

Texte proposé par la Commission européenne

Amendement du CdR

Les codes de conduite peuvent être élaborés par des fournisseurs individuels de systèmes d’IA ou par des organisations les représentant ou par les deux, y compris avec la participation d’utilisateurs et de toute partie intéressée et de leurs organisations représentatives. Les codes de conduite peuvent porter sur un ou plusieurs systèmes d’IA, compte tenu de la similarité de la destination des systèmes concernés.

Les codes de conduite peuvent être élaborés par des autorités nationales, régionales ou locales, par des fournisseurs individuels de systèmes d’IA ou par des organisations les représentant ou par les deux, y compris avec la participation d’utilisateurs et de toute partie intéressée et de leurs organisations représentatives. Les codes de conduite peuvent porter sur un ou plusieurs systèmes d’IA, compte tenu de la similarité de la destination des systèmes concernés.

Exposé des motifs

Les autorités nationales, locales et régionales devraient avoir la compétence juridique d’élaborer des codes de conduite pour les systèmes d’IA qu’elles développent ou utilisent.

Amendement 30

Annexe I — Techniques et approches d’intelligence artificielle visées à l’article 3, point 1

Texte proposé par la Commission européenne

Amendement du CdR

 

Compte tenu de l’état actuel de la science, l’IA comprend les techniques et approches suivantes:

a)

Approches d’apprentissage automatique, y compris d’apprentissage supervisé, non supervisé et par renforcement, utilisant une grande variété de méthodes, y compris l’apprentissage profond.

a)

Approches d’apprentissage automatique, y compris d’apprentissage supervisé, non supervisé et par renforcement, utilisant une grande variété de méthodes, y compris l’apprentissage profond.

b)

Approches fondées sur la logique et les connaissances, y compris la représentation des connaissances, la programmation inductive (logique), les bases de connaissances, les moteurs d’inférence et de déduction, le raisonnement (symbolique) et les systèmes experts.

b)

Approches fondées sur la logique et les connaissances, y compris la représentation des connaissances, la programmation inductive (logique), les bases de connaissances, les moteurs d’inférence et de déduction, le raisonnement (symbolique) et les systèmes experts.

c)

Approches statistiques, estimation bayésienne, méthodes de recherche et d’optimisation.

c)

Approches statistiques, estimation bayésienne, méthodes de recherche et d’optimisation.

Exposé des motifs

La définition et la liste des techniques d’IA doivent être à l’épreuve du temps. La liste des techniques et approches spécifiques utilisées pour le développement de systèmes d’IA ne doit pas être exhaustive, et il doit être clair qu’elle se fonde sur les connaissances scientifiques actuelles.

Amendement 31

Annexe III, points 1 à 5

Texte proposé par la Commission européenne

Amendement du CdR

Les systèmes d’IA à haut risque au sens de l’article 6, paragraphe 2, sont les systèmes d’IA répertoriés dans l’un des domaines suivants:

Les systèmes d’IA à haut risque au sens de l’article 6, paragraphe 2, sont les systèmes d’IA répertoriés dans l’un des domaines suivants:

1.

Identification biométrique et catégorisation des personnes physiques:

1.

Identification biométrique et catégorisation des personnes physiques:

a)

les systèmes d’IA destinés à être utilisés pour l’identification biométrique à distance «en temps réel» et «a posteriori» des personnes physiques.

a)

les systèmes d’IA destinés à être utilisés pour l’identification biométrique à distance «en temps réel» et «a posteriori» des personnes physiques.

2.

Gestion et exploitation des infrastructures critiques:

2.

Gestion et exploitation des infrastructures critiques:

a)

les systèmes d’IA destinés à être utilisés en tant que composants de sécurité dans la gestion et l’exploitation du trafic routier et dans la fourniture d’eau, de gaz, de chauffage et d’électricité.

a)

les systèmes d’IA destinés à être utilisés en tant que composants de sécurité dans la gestion et l’exploitation du trafic routier et dans la fourniture d’eau, de gaz, de chauffage et d’électricité , ainsi que dans les infrastructures de télécommunications, de distribution d’eau et d’internet .

3.

Éducation et formation professionnelle:

3.

Éducation et formation professionnelle:

a)

les systèmes d’IA destinés à être utilisés pour déterminer l’accès ou l’affectation de personnes physiques aux établissements d’enseignement et de formation professionnelle;

a)

les systèmes d’IA destinés à être utilisés pour déterminer l’accès ou l’affectation de personnes physiques aux établissements d’enseignement et de formation professionnelle;

b)

les systèmes d’IA destinés à être utilisés pour évaluer les étudiants des établissements d’enseignement et de formation professionnelle et pour évaluer les participants aux épreuves couramment requises pour intégrer les établissements d’enseignement.

b)

les systèmes d’IA destinés à être utilisés pour évaluer les étudiants des établissements d’enseignement et de formation professionnelle et pour évaluer les participants aux épreuves couramment requises pour intégrer les établissements d’enseignement.

4.

Emploi, gestion de la main-d’œuvre et accès à l’emploi indépendant:

4.

Emploi, gestion de la main-d’œuvre et accès à l’emploi indépendant:

a)

les systèmes d’IA destinés à être utilisés pour le recrutement ou la sélection de personnes physiques, notamment pour la diffusion des offres d’emploi, la présélection ou le filtrage des candidatures, et l’évaluation des candidats au cours d’entretiens ou d’épreuves;

a)

les systèmes d’IA destinés à être utilisés pour le recrutement ou la sélection de personnes physiques, notamment pour la diffusion des offres d’emploi, la présélection ou le filtrage des candidatures, et l’évaluation des candidats au cours d’entretiens ou d’épreuves;

b)

l’IA destinée à être utilisée pour la prise de décisions de promotion et de licenciement dans le cadre de relations professionnelles contractuelles, pour l’attribution des tâches et pour le suivi et l’évaluation des performances et du comportement de personnes dans le cadre de telles relations.

b)

l’IA destinée à être utilisée pour la prise de décisions de promotion et de licenciement dans le cadre de relations professionnelles contractuelles, pour l’attribution des tâches et pour le suivi et l’évaluation des performances et du comportement de personnes dans le cadre de telles relations.

5.

Accès et droit aux services privés essentiels, aux services publics et aux prestations sociales:

5.

Accès et droit aux services privés essentiels, aux services publics et aux prestations sociales:

a)

les systèmes d’IA destinés à être utilisés par les autorités publiques ou en leur nom pour évaluer l’éligibilité des personnes physiques aux prestations et services d’aide sociale, ainsi que pour octroyer, réduire, révoquer ou récupérer ces prestations et services;

a)

les systèmes d’IA destinés à être utilisés par les autorités publiques ou en leur nom pour évaluer et décider de l’éligibilité des personnes physiques aux prestations et services d’aide sociale, ainsi que pour octroyer, réduire, révoquer ou récupérer ces prestations et services;

b)

les systèmes d’IA destinés à être utilisés pour évaluer la solvabilité des personnes physiques ou pour établir leur note de crédit, à l’exception des systèmes d’IA mis en service par de petits fournisseurs et utilisés exclusivement par ces derniers;

b)

les systèmes d’IA destinés à être utilisés pour déterminer la solvabilité des personnes physiques ou leur note de crédit, à l’exception des systèmes d’IA mis en service par de petits fournisseurs et utilisés exclusivement par ces derniers;

c)

les systèmes d’IA destinés à être utilisés pour envoyer ou établir des priorités dans l’envoi des services d’intervention d’urgence, y compris par les pompiers et les secours.

c)

les systèmes d’IA destinés à être utilisés pour envoyer ou établir des priorités dans l’envoi des services d’intervention d’urgence, y compris par les pompiers et les secours.

Exposé des motifs

Les infrastructures de télécommunications, de distribution d’eau et d’internet font partie intégrante des infrastructures critiques.

Qualifier un système d’IA de système à haut risque revient à décider si un tel système est susceptible de représenter un risque réel pour les citoyens. La simple évaluation analytique et théorique de l’éligibilité des personnes aux prestations et services des pouvoirs publics n’entraîne pas en soi de risque élevé. L’ajout du verbe «décider» aux côtés du verbe «évaluer» souligne que ce risque apparaît effectivement lors de la prise de décision, en particulier pour les personnes concernées.

II.   RECOMMANDATIONS POLITIQUES

LE COMITÉ EUROPÉEN DES RÉGIONS

Un écosystème d’excellence

1.

souligne que l’ambition de la Commission de faire de l’Union européenne un leader mondial dans le développement responsable de l’intelligence artificielle (IA), axé sur le facteur humain, ne peut être réalisée que si les collectivités locales et régionales occupent une position forte dans le processus. Celles-ci sont les mieux placées pour contribuer à la création d’un environnement favorable à l’augmentation des investissements dans l’IA au cours des prochaines années et à favoriser la confiance dans l’IA;

2.

relève qu’il importe non seulement de veiller à la participation des collectivités locales et régionales, mais aussi de s’assurer qu’un soutien et une formation leur sont fournis afin de renforcer leurs compétences dans ce domaine, d’autant plus qu’elles peuvent se voir confier des tâches de surveillance et de mise en œuvre de la législation;

3.

note que des fonds de l’Union seront disponibles pour le développement de l’IA, mais attire l’attention sur la fragmentation de l’approche en raison de la diversité des programmes, qui accroît le risque de dispersion et de chevauchement;

4.

invite dès lors la Commission à développer et à relier des espaces de données communs solides et multiformes, qui permettent de résoudre des cas d’usage sociétaux au moyen de données publiques et privées. Cela nécessite notamment une harmonisation avec les initiatives législatives relevant de la stratégie européenne en matière de données;

Un écosystème de confiance

5.

déplore que la proposition de règlement ne fasse pas référence aux collectivités locales et régionales, bien que le cadre juridique s’applique tant aux acteurs publics que privés;

6.

souligne à cet égard que les systèmes d’IA peuvent jouer un rôle important dans l’interaction des collectivités locales et régionales avec les citoyens et dans la fourniture de services. En outre, les systèmes d’IA peuvent notamment améliorer l’efficacité du secteur public et aider les collectivités locales et régionales à répondre aux adaptations qui doivent avoir lieu à leurs niveaux dans le contexte des transitions écologique et numérique. Il importe dès lors que l’expérience acquise par les collectivités locales et régionales soit activement mise à profit dans le cadre de la révision continue du règlement;

7.

demande une définition plus précise des termes «fournisseur» et «utilisateur», en particulier dans les situations où des entreprises, des instituts de recherche, des pouvoirs publics et des citoyens développent et testent conjointement des systèmes d’IA dans des «laboratoires vivants». Il convient également de tenir dûment compte des citoyens ou des consommateurs affectés par les décisions prises par l’IA des systèmes utilisés par des professionnels;

8.

insiste sur la nécessité de consulter au préalable les collectivités locales et régionales concernées en cas d’utilisation de systèmes d’IA pour l’identification biométrique des personnes physiques en temps réel et à distance, à des fins répressives, dans des zones accessibles au public;

9.

se félicite de la consultation publique de la Commission européenne sur le thème «Adaptation des règles de responsabilité à l’ère numérique et à l’intelligence artificielle» (1) et espère qu’elle débouchera sur un cadre actualisé visant à garantir aux consommateurs la réparation des dommages causés par des applications d’IA;

10.

se demande pourquoi les systèmes d’IA utilisés dans les processus démocratiques tels que les élections ne figurent pas sur la liste des systèmes d’IA à haut risque;

11.

demande instamment que les systèmes d’IA à haut risque soient soumis aux mêmes exigences de transparence et d’information pour les personnes physiques que celles qui s’appliquent actuellement aux utilisateurs;

12.

fait observer que le recours à la notation sociale comporte des risques et conséquences non négligeables en matière de droits de l’homme;

13.

est extrêmement sceptique, à cet égard, quant aux deux situations exposées dans le règlement (2) pour déterminer quand une note sociale conduit à un traitement préjudiciable ou défavorable de personnes ou de groupes de personnes, étant donné qu’il est extrêmement difficile d’établir l’existence de telles situations. Dans ce contexte, le Comité demande que soient formulées clairement de solides garanties afin de veiller à ce que l’interdiction des pratiques de notation sociale ne soit pas contournée;

14.

note que les considérants du règlement abordent en détail les risques auxquels les personnes physiques sont exposées du fait de leur interaction avec des systèmes d’IA à haut risque, notamment dans le contexte de l’éducation, de la formation, de l’emploi, de la gestion des ressources humaines, de l’accès à l’emploi indépendant ou de l’accès et du droit à certains services essentiels, publics et privés;

15.

invite la Commission à examiner de manière plus approfondie la qualification à haut risque des systèmes d’IA destinés à être utilisés par les pouvoirs publics (3);

16.

souhaite qu’une autorité rende, ex ante, un avis de poids sur l’interprétation des dispositions du règlement, y compris en ce qui concerne le règlement général sur la protection des données. Cela renforce la sécurité juridique et permet de réduire les coûts de conception et de mise en œuvre des systèmes d’IA;

17.

souligne à cet effet l’importance d’une formulation claire du règlement, qui contribue à mettre en place un écosystème de confiance et à dissiper l’insécurité juridique relative au développement et à l’utilisation des systèmes d’IA. Une clarté suffisante permettrait d’éviter les interprétations erronées des exigences proposées et de réduire autant que possible les risques de mauvaise gestion ultérieure des applications d’IA, ce qui maximiserait l’efficacité du règlement et la crédibilité des sanctions. Dans le même temps, et conformément au programme «Mieux légiférer» de la Commission européenne, il est capital de détecter et d’éliminer de façon précoce les chevauchements et/ou conflits potentiels avec les règles existantes;

18.

constate que de nombreuses collectivités locales et régionales utilisent les mêmes systèmes d’IA pour des tâches similaires. Dans la grande majorité des cas, ces systèmes sont conçus par des entreprises privées;

19.

fait observer que la proposition de règlement n’a pas pour seul enjeu de garantir les droits des citoyens mais doit également être considérée en relation avec la législation existante. En conséquence, le Comité exhorte les États membres à veiller à prendre en permanence les mesures administratives voulues pour pouvoir gérer les perspectives et les risques qu’induira l’utilisation de l’IA dans le secteur public;

20.

en déduit que ce sont les entreprises et les organismes notifiés qui interprètent les règles européennes et nationales dans le cadre de l’évaluation de la conformité, et que cette interprétation se reflète donc dans la pratique des collectivités locales et régionales utilisant ces systèmes d’IA. Il est dès lors difficile de déterminer dans quelle mesure la politique locale et régionale peut être prise en compte dans ces systèmes d’IA. Par conséquent, le Comité attire l’attention sur les besoins spécifiques des collectivités locales et régionales et sur le fait qu’une approche universelle pourrait nuire à l’efficacité des systèmes d’IA pour ce qui est de répondre à ces besoins. Par ailleurs, le Comité recommande d’habiliter les États membres à réglementer les systèmes d’IA à haut risque pour des raisons impérieuses et justifiées d’intérêt général;

21.

demande à cet égard que les évaluations de la conformité soient transparentes et accessibles au public. En outre, les collectivités locales et régionales devraient également pouvoir participer à la surveillance des systèmes d’IA, rendre compte de leur mise en œuvre sur le terrain et contribuer formellement à l’évaluation, par la Commission européenne, de l’application du règlement;

22.

souligne qu’il y a lieu de créer, pour l’application du «bac à sable réglementaire», les conditions adéquates sur les plans juridique, méthodologique et éthique afin de permettre le développement de la technologie, l’élaboration de la législation et l’évaluation de celle-ci. Il convient par ailleurs d’établir des critères clairs pour l’admission des entreprises dans le bac à sable réglementaire. Pour veiller à ce que les organisations de consommateurs puissent faire respecter les dispositions de la législation sur l’intelligence artificielle, cette dernière doit être incluse dans l’annexe I de la directive européenne relative aux actions représentatives visant à protéger les intérêts collectifs des consommateurs [directive (UE) 2020/1828];

Campagnes d’information

23.

insiste sur l’importance de campagnes publiques visant à informer la population et à la familiariser avec l’existence des systèmes d’IA et leur utilité, ainsi qu’avec les risques potentiels qui en découlent; souligne en outre qu’il est urgent de fournir aux consommateurs une information complète sur les processus décisionnels pilotés par l’intelligence artificielle et des machines. À cette fin, le Comité invite la Commission à dégager des fonds pour financer des campagnes sur ce thème;

Charge administrative

24.

exprime son inquiétude quant à la charge administrative qu’est susceptible d’entraîner la proposition de règlement. La charge administrative peut empêcher les petites et moyennes entreprises et les collectivités locales et régionales de promouvoir l’innovation et de déployer des systèmes d’IA (4);

Proportionnalité et subsidiarité

25.

estime que le projet de règlement respecte les principes de proportionnalité et de subsidiarité. La valeur ajoutée de l’action de l’UE dans ce domaine et les bases juridiques pertinentes choisies par la Commission sont claires et cohérentes. L’analyse d’impact comporte une section distincte sur la subsidiarité. En outre, aucun parlement national n’a émis d’avis motivé sur le non-respect du principe de subsidiarité avant la date limite de soumission, fixée au 2 septembre 2021.

Bruxelles, le 2 décembre 2021.

Le président du Comité européen des régions

Apostolos TZITZIKOSTAS


([62])  Décision-cadre 2002/584/JAI du Conseil du 13 juin 2002 relative au mandat d’arrêt européen et aux procédures de remise entre États membres (JO L 190 du 18.7.2002, p. 1).

([62])  Décision-cadre 2002/584/JAI du Conseil du 13 juin 2002 relative au mandat d’arrêt européen et aux procédures de remise entre États membres (JO L 190 du 18.7.2002, p. 1).

(1)  https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_fr.

(2)  Article 5, paragraphe 1, point c).

(3)  Annexe III, point 5, a).

(4)  Une étude récente commandée par la Commission européenne (Study to Support an Impact Assessment of Regulatory Requirements for Artificial Intelligence in Europe, p. 12) a estimé que, sur la base d’hypothèses raisonnables, l’obtention de la certification d’un système d’IA pourrait coûter en moyenne entre 16 800 et 23 000 EUR, soit environ 10 à 14 % des coûts de développement.