COMMISSION EUROPÉENNE
Bruxelles, le 19.9.2025
COM(2025) 518 final
2025/0291(NLE)
Proposition de
DÉCISION DU CONSEIL
relative à la position à prendre, au nom de l’Union européenne, sur le projet de recommandation du Comité des Ministres du Conseil de l’Europe sur l’égalité et l’intelligence artificielle
EXPOSÉ DES MOTIFS
1.Objet de la proposition
La présente proposition concerne la décision établissant la position à prendre, au nom de l’Union, au sein du Comité des Ministres du Conseil de l’Europe (ci-après le «CM»), sur l’adoption envisagée d’une recommandation du Conseil de l’Europe sur l’égalité et l’intelligence artificielle (ci-après la «recommandation»). Cette recommandation a été élaborée par le Comité d’experts sur l’intelligence artificielle, l’égalité et la discrimination (ci-après le «GEC/ADI-AI») et devrait être adoptée lors de la session plénière conjointe de la Commission pour l’égalité de genre (ci-après la «GEC») et du Comité directeur sur l’anti-discrimination, la diversité et l’inclusion (ci-après le «CDADI»), qui se tiendra du 18 et 20 novembre 2025, en vue de sa présentation au CM pour adoption d’ici la fin 2025.
2.Contexte de la proposition
2.1.Le Comité des Ministres du Conseil de l’Europe
Le CM est l’organe décisionnel du Conseil de l’Europe. Il se compose des ministres des affaires étrangères ou des représentants permanents à Strasbourg des 46 États membres du Conseil de l’Europe. Le rôle et les fonctions du CM sont décrits au chapitre IV du statut du Conseil de l’Europe (ci-après le «statut»). En vertu de l’article 14 du statut, chaque membre du Conseil de l’Europe a un représentant au CM, qui dispose d’une voix. Tous les États membres de l’UE sont membres du Conseil de l’Europe et sont donc représentés au sein du CM. L’UE a le statut d’observateur et n’a pas le droit de vote.
2.2.Le Comité d’experts sur l’intelligence artificielle, l’égalité et la discrimination
Le GEC/ADI-AI est un comité subordonné conjoint de la GEC et du CDADI. Il est chargé par le Comité des Ministres de rédiger une recommandation sur l’impact des systèmes d’intelligence artificielle, leur potentiel de promotion de l’égalité, y compris l’égalité de genre, et les risques qu’ils peuvent entraîner en matière de non-discrimination d’ici à 2025.
Le GEC/ADI-AI est composé de huit représentants des États membres du Conseil de l’Europe, quatre de la part du CDADI, quatre de la part de la GEC et six experts indépendants possédant des compétences reconnues en matière d’intelligence artificielle, de droits humains, d’égalité, y compris d’égalité de genre, et de non-discrimination. Chaque membre du GEC/ADI-AI dispose d’une voix. L’UE participe au Comité, sans droit de vote.
La GEC et le CDADI sont chacun composés des représentants des 46 États membres du Conseil de l’Europe, qui disposent chacun d’une voix. En outre, des représentants de différents organes du Conseil de l’Europe, des organisations intergouvernementales, des représentants des États ayant le statut d’observateur, ainsi que des organisations non gouvernementales et des institutions spécialisées participent aux sessions plénières du GEC et du CDADI. Des représentants de l’Union européenne participent occasionnellement aux sessions plénières, sans droit de vote.
2.3.La convention-cadre du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit
Le 17 mai 2024, le CM a adopté la convention-cadre du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit (ci-après la «convention-cadre»), un instrument juridiquement contraignant visant à garantir que les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle sont pleinement compatibles avec les droits humains, la démocratie et l’État de droit, tout en étant propice au progrès et aux innovations technologiques.
La convention-cadre s’applique aux systèmes d’intelligence artificielle (ci-après l’«IA») qui risquent de porter atteinte aux droits de l’homme, à la démocratie ou à l’état de droit. Les principes et obligations de la convention-cadre s’appliqueront aux activités menées au cours du cycle de vie des systèmes d’IA par des autorités publiques ou des acteurs privés agissant pour leur compte. Les parties à la convention-cadre sont également tenues de traiter les risques et les incidences découlant des activités menées au cours du cycle de vie des systèmes d’IA par des acteurs privés d’une manière conforme à l’objet et à la finalité de la convention, mais elles ont le choix d’appliquer les obligations de la convention ou de prendre d’autres mesures appropriées. La convention-cadre prévoit un ensemble supplémentaire d’obligations générales et de principes fondamentaux ayant trait à la protection de la dignité humaine et de l’autonomie individuelle, ainsi qu’à la promotion de l’égalité et de la non-discrimination. En outre, elle impose le respect de la vie privée et de la protection des données à caractère personnel ainsi que la transparence et le contrôle afin de garantir l’obligation de rendre des comptes et la responsabilité. Un principe est également consacré à l’innovation et à l’expérimentation sûres dans des environnements contrôlés.
La convention-cadre prévoit par ailleurs un ensemble de mesures visant à garantir la disponibilité de voies de recours accessibles et effectives en cas de violation des droits de l’homme résultant des activités menées au cours du cycle de vie des systèmes d’IA. Elle prévoit également des garanties procédurales effectives pour les personnes dont les droits ont été affectés de manière significative par l’utilisation de systèmes d’IA. En outre, les personnes devraient être informées qu’elles interagissent avec un système d’IA et non avec un être humain.
La convention comprend de surcroît des mesures d’évaluation et d’atténuation des risques et des incidences négatives à mettre en œuvre de manière itérative, afin de recenser les incidences réelles et potentielles sur les droits de l’homme, la démocratie et l’état de droit et de prendre des mesures de prévention et d’atténuation appropriées.
Enfin, la convention prévoit que ses parties doivent évaluer la nécessité d’interdictions ou de moratoires sur certaines applications de systèmes d’IA jugées incompatibles avec le respect des droits de l’homme, le fonctionnement de la démocratie ou l’état de droit.
Chaque partie à la convention-cadre doit en outre mettre en place ou désigner, au niveau national, un ou plusieurs mécanismes effectifs pour contrôler le respect des obligations prévues par la convention, tel qu’il leur est donné effet par les parties.
L’Union a signé la convention le 5 septembre 2024, à la suite de l’adoption de la décision (UE) 2024/2218 du Conseil du 28 août 2024 relative à la signature, au nom de l’Union européenne, de la convention-cadre. La convention-cadre a également été signée par Andorre, le Canada, la Géorgie, l’Islande, Israël, le Japon, le Liechtenstein, le Monténégro, la Norvège, la République de Moldavie, Saint-Marin, la Suisse, l’Ukraine, le Royaume-Uni et les États-Unis d’Amérique.
Le 3 juin 2025, la Commission a adopté une proposition de décision du Conseil visant à lancer le processus de conclusion de la convention-cadre au nom de l’Union, selon les modalités énoncées dans la décision (UE) 2024/2218 du Conseil.
Au sein de l’Union, la convention-cadre doit être mise en œuvre exclusivement au moyen du règlement (UE) 2024/1689 du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (ci-après le «règlement sur l’intelligence artificielle») et d’autres dispositions pertinentes de l’acquis de l’Union, le cas échéant. Le règlement sur l’intelligence artificielle prévoit un ensemble complet de règles en la matière, visant à promouvoir l’innovation et l’adoption d’une intelligence artificielle digne de confiance, tout en protégeant la santé, la sécurité et les droits fondamentaux consacrés dans la charte des droits fondamentaux de l’Union européenne (ci-après la «charte»), dont le droit à la non-discrimination et à l’égalité entre femmes et hommes. Il contient des règles harmonisées, fondées en principe sur une harmonisation complète, qui régissent la mise sur le marché, la mise en service et l’utilisation de systèmes d’IA dans l’Union. Ces règles sont directement applicables dans les États membres, à moins que ledit règlement n’en dispose expressément autrement.
2.4.La recommandation envisagée du Conseil de l’Europe sur l’égalité et l’intelligence artificielle
La recommandation met l’accent sur le potentiel qu’offre l’IA pour promouvoir l’égalité, y compris l’égalité de genre, et sur les risques qu’elle peut entraîner en matière de non-discrimination. Elle visera à compléter le cadre général établi par la convention-cadre du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit (STCE nº 225) et élaboré en étroite coopération avec le Comité sur l’intelligence artificielle (CAI).
La recommandation est fondée sur l’«Étude sur l’impact des systèmes d’intelligence artificielle, leur potentiel de promotion de l’égalité, y compris l’égalité de genre, et les risques qu’ils peuvent entraîner en matière de non-discrimination», adoptée par la GEC et le CDADI en 2023. L’étude a recensé quatre axes complémentaires d’intervention réglementaire et politique visant à garantir une approche solide et ancrée dans les droits humains pour les questions relatives à l’intelligence artificielle, à savoir 1) la prévention, la transparence et la responsabilité, 2) l’accès à la justice et les mécanismes de recours, 3) la diversité, l’inclusion, la représentation et la participation, 4) la participation démocratique, la sensibilisation de l’opinion publique et le renforcement des capacités.
Afin de recueillir les contributions des parties prenantes et du public intéressé, le Conseil de l’Europe a mené, du 10 mars au 28 avril 2025, une consultation publique sur le projet de recommandation.
Le projet de recommandation a été examiné lors des réunions du GEC/ADI-AI des 25 et 26 septembre 2024 et des 26 et 27 février 2025. Une dernière réunion du groupe d’experts devrait avoir lieu du 7 au 9 octobre 2025, afin de finaliser le projet de texte de la recommandation. Avant cette réunion, une cinquième version révisée de la recommandation a été diffusée à la fin du mois de juillet [référence GEC/ADI-AI(2024)7rev5]
Le projet de recommandation a également été examiné lors des réunions de la GEC et du CDADI de novembre 2024 et devrait être approuvé lors d’une session plénière conjointe de la GEC et du CDADI qui aura lieu du 18 au 20 novembre 2025, en vue de sa présentation au CM. Le CM entend adopter formellement la recommandation d’ici au printemps 2026.
L’objectif du projet de recommandation est d’«aider les États membres à promouvoir l’égalité, y compris l’égalité de genre, et à prévenir et à combattre toutes les formes de discrimination dans toutes les activités qu’ils mènent et celles menées par les acteurs du secteur public et du secteur privé dans le cadre du cycle de vie des systèmes d’IA».
La recommandation ne créerait pas d’effets ni d’obligations juridiquement contraignants et reposerait sur une application volontaire par les États membres du Conseil de l’Europe. Toutefois, en vertu de l’article 15, point b), du statut, le CM peut inviter les gouvernements des membres «à lui faire connaître la suite donnée par eux» aux recommandations.
3.Position à prendre au nom de l’Union
La position de l’Union qu’il est proposé d’adopter devrait consister à approuver l’adoption du projet de recommandation par le CM, pour autant qu’il assure la compatibilité avec l’acquis de l’Union, en particulier le règlement sur l’intelligence artificielle, et la cohérence avec la convention-cadre. Or le projet actuel de recommandation (révision nº 5 de juillet 2025) n’est pas encore pleinement compatible.
Plus précisément, l’Union ne devrait approuver l’adoption du projet de recommandation que si celle-ci respecte les exigences suivantes:
1.les mesures concernant les acteurs intervenant dans le cadre du cycle de vie des systèmes d’IA n’excèdent pas les obligations établies par le règlement sur l’IA, qui en principe harmonise complètement les règles relatives à l’IA dans l’Union, y compris dans le domaine de l’égalité.
En particulier, la recommandation devrait prévoir une flexibilité suffisante dans la mise en œuvre du règlement sur l’IA (conformément à l’approche de la convention-cadre), ce qui nécessiterait de modifier de manière appropriée les références à la nécessité de prendre des «mesures efficaces» aux paragraphes 7, 9, 10 et 36 du projet de recommandation;
·Les mesures proposées aux paragraphes 9, 10.1 et 18.2 du projet de recommandation devraient être modifiées de manière appropriée afin d’éviter de recommander l’introduction d’obligations positives supplémentaires en ce qui concerne la promotion de l’égalité par les fournisseurs et les déployeurs de systèmes d’IA;
·Les dispositions du paragraphe 5.1 du projet de recommandation devraient être adaptées de manière appropriée afin d’éviter d’établir une restriction illimitée à l’utilisation de l’IA qui soit incompatible avec l’approche de l’UE en matière de réglementation de l’IA et avec la politique de l’UE en matière d’innovation.
2.La formulation des mesures et des normes de la recommandation est clarifiée dans le texte afin d’assurer la compatibilité et l’interopérabilité avec le cadre juridique de l’Union, tant sur le plan terminologique que sur le fond.
·En particulier, il convient de modifier de manière appropriée, au paragraphe 18, la référence faite aux «normes uniformes», afin d’assurer une mise en œuvre suffisamment flexible, et les références aux «biais», afin que les mesures restent proportionnées et axées sur les préjudices.
3.Les garanties relatives aux procédures de demande d’un examen humain et aux procédures de recours (au paragraphe 16 bis) sont adaptées de manière appropriée et conforme au règlement sur l’intelligence artificielle et à la convention-cadre, assurant ainsi la cohérence entre les deux instruments tout en évitant l’introduction d’obligations spécifiques en matière d’IA pour les fournisseurs ou les déployeurs de systèmes d’IA qui ne sont pas prévues dans l’acquis de l’Union.
4.L’éventail de secteurs nécessitant une attention particulière, énumérés à la fin du paragraphe 36 du projet de recommandation, est modifié afin qu’il soit compatible avec les domaines à haut risque définis dans le règlement sur l’intelligence artificielle (annexes I et III) et qu’il n’excède pas ceux-ci, en évitant ainsi l’inclusion de secteurs qui ne sont pas énumérés dans celui-ci, ou, à défaut, en reformulant les références à ces secteurs en ce qui concerne les actions de suivi ou d’autres approches suffisamment souples.
4.Base juridique
4.1.Base juridique procédurale
4.1.1.Principes
L’article 218, paragraphe 9, du traité sur le fonctionnement de l’Union européenne (TFUE) prévoit des décisions établissant «les positions à prendre au nom de l’Union dans une instance créée par un accord, lorsque cette instance est appelée à adopter des actes ayant des effets juridiques, à l’exception des actes complétant ou modifiant le cadre institutionnel de l’accord».
L’article 218, paragraphe 9, TFUE s’applique, que l’Union soit ou non membre de l’instance concernée ou partie à l’accord.
La notion d’«actes ayant des effets juridiques» englobe les actes ayant des effets juridiques en vertu des règles de droit international régissant l’instance en question. Elle englobe également des instruments auxquels le droit international ne confère aucun effet contraignant, mais qui «ont vocation à influencer de manière déterminante le contenu de la réglementation adoptée par le législateur de l’Union».
4.1.2.Application en l’espèce
Comme il est indiqué à la section 2, la recommandation doit être adoptée par le CM, qui est une instance créée par un accord international, et pourrait donc produire des effets juridiques en influençant les modalités de mise en œuvre et d’application du règlement sur l’intelligence artificielle.
Plus précisément, certaines dispositions du règlement sur l’intelligence artificielle mentionnent expressément que les «approches internationales» et les «normes internationales» existantes devraient être prises en compte aux fins de la mise en œuvre dudit règlement. À titre d’exemple, l’article 40, paragraphe 3, du règlement sur l’intelligence artificielle prévoit que les participants au processus de normalisation tiennent compte des «normes internationales existantes dans le domaine de l’IA qui sont conformes aux valeurs et aux intérêts de l’Union». La recommandation formulera des orientations sur la promotion de l’égalité dans le cycle de vie des systèmes d’IA, qui pourrait constituer l’un des critères d’évaluation des normes harmonisées. Dans le même temps, l’article 56, paragraphe 1, du règlement sur l’intelligence artificielle impose au Bureau de l’IA de tenir compte des «approches internationales» lorsqu’il facilite l’élaboration de codes de bonnes pratiques au niveau de l’Union. La Commission a déjà finalisé le premier code de bonnes pratiques en matière d’IA à usage général et a estimé qu’il était approprié pour permettre aux fournisseurs de modèles d’IA à usage général de démontrer le respect des obligations pertinentes du règlement sur l’intelligence artificielle.
Conformément à l’article 56, paragraphe 6, premier alinéa, du règlement sur l’intelligence artificielle, le Bureau de l’IA et le Comité IA contrôlent et évaluent régulièrement la réalisation des objectifs des codes de bonne pratique par les participants et leur contribution à la bonne application dudit règlement.
Au moment envisagé pour l’adoption de la recommandation, les travaux sur les normes harmonisées auront progressé, le code de bonnes pratiques pour les modèles d’IA à usage général prévu par le règlement sur l’intelligence artificielle ayant quant à lui déjà été finalisé. La recommandation pourrait être utile aux futures mises à jour du code de bonnes pratiques et des normes.
En conséquence, la base juridique procédurale pour la décision proposée est l’article 218, paragraphe 9, du TFUE.
4.2.Base juridique matérielle
4.2.1.Principes
La base juridique matérielle d’une décision au titre de l’article 218, paragraphe 9, du TFUE dépend avant tout de l’objectif et du contenu de l’acte envisagé à propos duquel une position est prise au nom de l’Union. Si l’acte envisagé poursuit deux finalités ou comporte deux composantes et si l’une de ces finalités ou de ces composantes est la principale, tandis que l’autre n’est qu’accessoire, alors la décision au titre de l’article 218, paragraphe 9, du TFUE doit être fondée sur une seule base juridique matérielle, à savoir celle exigée par la finalité ou la composante principale ou prédominante.
4.2.2.Application en l’espèce
L’objectif déclaré du projet de recommandation est d’«aider les États membres à promouvoir l’égalité, y compris l’égalité de genre, et à prévenir et à combattre toutes les formes de discrimination dans toutes les activités qu’ils mènent et celles menées par les acteurs du secteur public et du secteur privé dans le cadre du cycle de vie des systèmes d’IA».
Cela est conforme à l’objectif du règlement sur l’IA, qui est d’«améliorer le fonctionnement du marché intérieur en établissant un cadre juridique uniforme, en particulier pour le développement, la mise sur le marché, la mise en service et l’utilisation de systèmes d’intelligence artificielle [...] dans l’Union, dans le respect des valeurs de l’Union, de promouvoir l’adoption de l’intelligence artificielle [...] axée sur l’humain et digne de confiance tout en garantissant un niveau élevé de protection de la santé, de la sécurité et des droits fondamentaux consacrés dans la Charte des droits fondamentaux de l’Union européenne [...], y compris la démocratie, l’état de droit et la protection de l’environnement, de protéger contre les effets néfastes des systèmes d’IA dans l’Union, et de soutenir l’innovation».
Le contenu de la recommandation coïncide principalement avec les dispositions du règlement sur l’intelligence artificielle, notamment pour les raisons suivantes:
·la recommandation vise à lutter contre les inégalités résultant de l’utilisation de l’IA, ce qui est similaire à l’objectif du règlement sur l’intelligence artificielle, à savoir garantir un niveau élevé de protection des droits fondamentaux consacrés dans la charte des droits fondamentaux de l’Union européenne, y compris les droits à l’égalité et à la non-discrimination, contre les effets néfastes des systèmes d’IA dans l’Union;
·le champ d’application personnel et matériel auquel le règlement sur l’intelligence artificielle et (les mesures contenues dans) la recommandation sont censés s’appliquer est sensiblement le même, à savoir les acteurs publics et privés qui développent ou déploient l’IA et les activités menées dans le cadre du cycle de vie des systèmes d’IA;
·une approche graduée et différenciée similaire des systèmes d’IA est adoptée tant dans le règlement sur l’intelligence artificielle que dans la recommandation, conformément à la convention-cadre;
·afin de détecter, de prévenir et de combattre les discriminations résultant d’activités menées dans le cadre du cycle de vie des systèmes d’IA, la recommandation établit des exigences de transparence et de contrôle (humain) qui sont similaires à celles prévues par le règlement sur l’intelligence artificielle, en particulier, entre autres, dans ses articles 13, 14, 49, 50 et 86;
·les exigences de la recommandation en matière de détection, d’évaluation, d’atténuation et de suivi des risques de discrimination sont similaires aux exigences et obligations prévues par le règlement sur l’intelligence artificielle à l’égard des fournisseurs ou déployeurs de systèmes d’IA à haut risque, en particulier, entre autres, à ses articles 9, 10, 17,26 et 27; des dispositions relatives aux normes sont également incluses dans la recommandation, qui s’apparentent à celles relatives aux normes harmonisées de l’Union prévues aux articles 40 à 49 du règlement sur l’intelligence artificielle.
·La recommandation contient des mesures relatives à la documentation, aux garanties procédurales et aux recours qui sont similaires à celles prévues par le règlement sur l’intelligence artificielle, en particulier ses articles 11, 12, 26, 53, 85 et 86); et
·la recommandation recense des secteurs cibles pour l’intégration de l’égalité, qui recoupent en partie la catégorisation à haut risque prévue par le règlement sur l’intelligence artificielle (article 6 et annexes I et III), et préconise de prendre des mesures lorsque les risques de discrimination sont particulièrement importants.
La recommandation couvre également des éléments communs à l’acquis de l’Union en matière de non-discrimination et d’égalité. Il s’agit, notamment, des directives relatives aux organismes pour l’égalité de traitement, adoptées sur la base des articles 19 et 157 du TFUE. Parmi les éléments pertinents de la recommandation figurent:
·l’obligation pour les États membres de doter les organismes pour l’égalité de traitement des ressources financières, humaines et techniques suffisantes et de coopérer avec eux lors de l’élaboration de la législation, des politiques et des cadres administratifs, réglementaires ou autres appropriés (aux fins des articles 3 et 4 des directives);
·des exigences de transparence et de surveillance, permettant aux organismes pour l’égalité de traitement de déterminer s’il y a eu discrimination et d’évaluer s’il y a lieu d’imposer un moratoire ou une interdiction aux systèmes d’IA concernés (aux fins des articles 8 et 9 des directives);
·l’obligation d’aider les victimes de discriminations résultant de l’utilisation de l’IA à faire valoir leurs droits, notamment en présentant des observations aux juridictions (aux fins des articles 6, 7, 8, 9, 10 et 11 des directives).
Si la recommandation vise à promouvoir l’égalité et à prévenir la discrimination, elle contient principalement des mesures législatives et politiques ciblant les acteurs intervenant dans le cadre du cycle de vie des systèmes d’IA (voir point 2 de la recommandation). Plus précisément, elle formule des recommandations sur les analyses d’impact sur l’égalité ainsi que sur la certification, la transparence, le suivi et la surveillance des systèmes d’IA, comme il est expliqué ci-dessus.
Au sein de l’Union, la majeure partie de la recommandation sera mise en œuvre non pas au moyen d’un acte législatif horizontal en matière d’égalité qui s’applique à tous les acteurs économiques, tel que les directives relatives aux organismes pour l’égalité de traitement, mais au moyen d’un acte spécifiquement destiné aux fournisseurs et déployeurs de systèmes d’IA, notamment le règlement sur l’intelligence artificielle et/ou ses mesures d’exécution. En effet, l’exposé des motifs reconnaît expressément que ledit règlement met déjà en œuvre les recommandations ou une partie de celles-ci (voir point 11 de l’exposé des motifs).
Il s’ensuit que le centre de gravité de la recommandation relève du domaine couvert par le règlement sur l’intelligence artificielle. La base juridique matérielle de la position à prendre au nom de l’Union au sujet de ces éléments de la recommandation devrait donc être l’article 114 du TFUE, qui constitue la base juridique principale du règlement sur l’intelligence artificielle.
La base juridique matérielle de la décision proposée est donc l’article 114 du TFUE.
4.3.Conclusion
La base juridique de la décision proposée devrait être l’article 114 du TFUE, en liaison avec l’article 218, paragraphe 9, du TFUE.
2025/0291 (NLE)
Proposition de
DÉCISION DU CONSEIL
relative à la position à prendre, au nom de l’Union européenne, sur le projet de recommandation du Comité des Ministres du Conseil de l’Europe sur l’égalité et l’intelligence artificielle
LE CONSEIL DE L’UNION EUROPÉENNE,
vu le traité sur le fonctionnement de l’Union européenne, et notamment son article 114, en liaison avec l’article 218, paragraphe 9,
vu la proposition de la Commission européenne,
considérant ce qui suit:
(1)Le Conseil de l’Europe entend adopter une recommandation (ci-après la «recommandation») afin de tenir compte de l’impact des systèmes d’intelligence artificielle (ci-après l’«IA»), de leur potentiel de promotion de l’égalité, y compris l’égalité de genre, et des risques qu’ils peuvent entraîner en matière de non-discrimination. La recommandation devrait être adoptée par la Commission pour l’égalité de genre (ci-après la «GEC») et par le Comité directeur sur l’anti-discrimination, la diversité et l’inclusion (ci-après le «CDADI») lors de leur session plénière conjointe, du 18 au 20 novembre 2025, et être formellement approuvée par le Comité des Ministres du Conseil de l’Europe.
(2)Elle vise à compléter la convention-cadre du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l'État de droit (ci-après la «convention-cadre»), qui a été signée par l’Union conformément à la décision (UE) 2024/2218 du Conseil, en ce qui concerne le principe d’égalité, en formulant des recommandations détaillées et spécifiques en matière d’égalité à l’intention des États membres.
(3)La convention-cadre établit les principes généraux et les obligations que ses parties devraient respecter pour garantir la protection des droits de l’homme, de la démocratie et de l’état de droit en ce qui concerne les activités relevant du cycle de vie des systèmes d’IA. La Commission a proposé que l’Union conclue la convention-cadre. La décision du Conseil relative à la conclusion de la convention-cadre est en cours d’adoption par le Conseil.
(4)Le 13 juin 2024, le Parlement européen et le Conseil ont adopté, sur la base des articles 16 et 114 du traité sur le fonctionnement de l’Union européenne (TFUE), le règlement (UE) 2024/1689, qui établit des règles harmonisées, en principe fondées sur une harmonisation complète, régissant la mise sur le marché, la mise en service et l’utilisation de systèmes d’IA dans l’Union. Ces règles sont directement applicables dans les États membres, à moins que ledit règlement n’en dispose expressément autrement.
(5)La convention-cadre doit être mise en œuvre dans l’Union exclusivement au moyen de la législation sur l’IA et d’autres acquis pertinents de l’Union, le cas échéant.
(6)Il convient d’établir la position à prendre sur la recommandation, au nom de l’Union, lors de la session plénière conjointe de la GEC et du CDADI, ainsi qu’au sein du Comité des Ministres, étant donné que la recommandation, bien que non contraignante, aura vocation à influencer de manière déterminante le contenu du droit de l’Union, à savoir le règlement (UE) 2024/1689 du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle.
(7)Le champ d’application personnel et matériel de la recommandation coïncide largement avec celui du règlement (UE) 2024/1689, qui prévoit des règles pour l’IA qui sont en principe fondées sur une harmonisation complète au sein de l’Union.
(8)L’adoption de la recommandation est susceptible d’affecter des règles communes de l’Union existantes et prévisibles ou d’en altérer la portée au sens de l’article 3, paragraphe 2, du TFUE. L’Union dispose donc d’une compétence externe exclusive pour prendre position en son propre nom en vue de l’adoption de la recommandation.
(9)L’Union devrait veiller à ce que la recommandation soit compatible avec le droit de l’Union et, pour tous les aspects harmonisés au niveau de l’Union, à ce qu’elle puisse être mise en œuvre dans l’ordre juridique de l’Union au moyen de l’acquis de l’Union existant, en particulier le règlement (UE) 2024/1689 et les directives (UE) 2024/1499 et 2024/1500. En ce qui concerne les recommandations spécifiques concernant le développement et l’utilisation de systèmes d’IA pleinement harmonisés dans l’Union, l’Union devrait avoir pour objectif que la recommandation soit compatible avec les dispositions du règlement sur l’IA et les principes énoncés dans la convention-cadre.
(10)Si ces conditions sont remplies, la recommandation pourra être approuvée au nom de l’Union lors de la session plénière conjointe de la GEC et du CDADI qui aura lieu du 18 au 20 novembre 2025 et lors d’une réunion ultérieure du Comité des Ministres.
(11)Étant donné que l’Union n’est pas membre du Conseil de l’Europe, mais que tous ses États membres le sont, la position de l’Union doit être exprimée par ses États membres, agissant conjointement.
A ADOPTÉ LA PRÉSENTE DÉCISION:
Article premier
La position à prendre au nom de l’Union lors de la session plénière conjointe de la GEC et du CDADI, ainsi que lors de la réunion du Comité des Ministres, consiste à ne pas s’opposer à l’adoption de la recommandation sur l’égalité et l’intelligence artificielle, pour autant que les conditions suivantes soient remplies:
1.les mesures concernant les acteurs intervenant dans le cadre du cycle de vie des systèmes d’IA n’excèdent pas les obligations établies par le règlement sur l’IA, qui en principe harmonise complètement les règles relatives à l’IA dans l’Union, y compris dans le domaine de l’égalité. En particulier, la recommandation devrait prévoir une flexibilité suffisante dans sa mise en œuvre, conformément à l’approche de la convention-cadre. Elle devrait également éviter de recommander l’introduction d’obligations positives supplémentaires en ce qui concerne la promotion de l’égalité par les fournisseurs et les déployeurs de systèmes d’IA, ainsi que d’imposer une restriction illimitée de l’utilisation de l’IA.
2.La formulation des mesures et des normes de la recommandation doit assurer la compatibilité et l’interopérabilité avec le cadre juridique de l’Union, tant sur le plan terminologique que sur le fond.
3.Les garanties relatives aux procédures de demande d’examen humain et aux procédures de recours doivent être compatibles avec le règlement sur l’intelligence artificielle et la convention-cadre, assurant ainsi la cohérence entre les deux instruments tout en évitant l’introduction d’obligations spécifiques en matière d’IA pour les fournisseurs ou les déployeurs de systèmes d’IA qui ne sont pas prévues dans l’acquis de l’Union.
4.L’éventail de domaines nécessitant une attention particulière, énumérés dans la recommandation, devrait être compatible avec les domaines à haut risque définis dans le règlement sur l’intelligence artificielle (annexes I et III) et ne pas excéder ceux-ci. À défaut, la recommandation devrait établir de manière appropriée une distinction de traitement entre les secteurs en ce qui concerne les actions de suivi ou d’autres approches suffisamment souples.
Article 2
La position visée à l’article 1er est exprimée par les États membres de l’Union qui sont membres du Conseil de l’Europe, agissant conjointement.
Article 3
Les États membres sont destinataires de la présente décision.
Fait à Bruxelles, le
Par le Conseil
Le président