EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52020AE1110

Avis du Comité économique et social européen sur le «Livre blanc sur l’intelligence artificielle — Une approche européenne axée sur l’excellence et la confiance» [COM(2020) 65 final]

EESC 2020/01110

JO C 364 du 28.10.2020, p. 87–93 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

28.10.2020   

FR

Journal officiel de l'Union européenne

C 364/87


Avis du Comité économique et social européen sur le «Livre blanc sur l’intelligence artificielle — Une approche européenne axée sur l’excellence et la confiance»

[COM(2020) 65 final]

(2020/C 364/12)

Rapporteure:

Catelijne MULLER

Consultation

Commission, 9.3.2020

Base juridique

Article 304 du traité sur le fonctionnement de l’Union européenne

Compétence

Section «Marché unique, production et consommation»

Adoption en section

25.6.2020

Adoption en session plénière

16.7.2020

Session plénière no

553

Résultat du vote

(pour/contre/abstentions)

207/0/6

1.   Conclusions et recommandations

1.1.

Le Comité économique et social européen (CESE) félicite la Commission de sa stratégie, exposée dans le Livre blanc sur l’intelligence artificielle, qui vise à encourager le recours aux technologies de l’intelligence artificielle (IA) tout en veillant à ce qu’elles soient conformes aux normes éthiques, aux exigences légales et aux valeurs sociales européennes.

1.2.

Le CESE se félicite également de l’objectif consistant à tirer parti des atouts de l’Europe sur les marchés industriels et professionnels, et souligne qu’il importe de renforcer les investissements, les infrastructures, l’innovation et les compétences afin que les entreprises, et notamment les PME, ainsi que la société dans son ensemble puissent se saisir des possibilités offertes par l’IA. Il convient d’encourager l’innovation dans le domaine de l’IA afin de tirer le meilleur parti des systèmes d’IA, tout en prévenant et en minimisant dans le même temps leurs risques.

1.3.

Toutefois, il estime que la focalisation sur la seule intelligence artificielle axée sur les données est trop restrictive pour que l’Union européenne devienne un véritable chef de file en matière d’IA de pointe, digne de confiance et compétitive. Le CESE demande instamment à la Commission de promouvoir également une nouvelle génération de systèmes d’IA fondés sur la connaissance et le raisonnement, qui défendent les valeurs et principes humains.

1.4.

Le CESE invite la Commission à: i) favoriser la pluridisciplinarité dans la recherche, en y associant d’autres disciplines, telles que le droit, l’éthique, la philosophie, la psychologie, les sciences du travail, les sciences humaines, l’économie, etc.; ii) associer les parties prenantes intéressées (syndicats, organisations professionnelles, d’entreprises ou de consommateurs, ONG) au débat sur l’intelligence artificielle et assurer leur participation en tant que partenaires égaux aux projets de recherche financés par l’Union et à d’autres projets comme le partenariat public-privé sur l’IA, les dialogues sectoriels, le programme consacré à l’adoption de l’IA dans le secteur public et le centre «phare»; iii) continuer à éduquer et à informer le grand public sur les possibilités qu’offre l’IA et les problèmes qu’elle pose.

1.5.

Le CESE demande instamment à la Commission d’examiner de manière plus approfondie l’incidence de l’IA sur l’ensemble des libertés et droits fondamentaux, notamment, mais pas uniquement, le droit à un procès équitable, le droit à des élections équitables et ouvertes, le droit de réunion et de manifestation, ainsi que le droit à la non-discrimination.

1.6.

Le CESE continue de s’opposer à l’introduction de toute forme de personnalité juridique pour l’intelligence artificielle. Les effets correctifs préventifs du droit de la responsabilité civile s’en trouveraient en effet vidés de leur substance et il en résulterait un risque grave d’aléa moral au niveau tant du développement que de l’utilisation de l’IA, où cela créerait des possibilités d’abus.

1.7.

Le CESE demande une approche socio-technique continue et systématique, consistant à examiner la technologie sous tous les angles et à travers différents prismes, plutôt qu’une évaluation préalable ponctuelle (ou même répétée à intervalles réguliers) de la conformité de l’IA à haut risque.

1.8.

Le CESE met en garde contre le fait que les exigences imposées aux secteurs «à haut risque» pourraient exclure de nombreuses applications et utilisations de l’intelligence artificielle qui présentent intrinsèquement un risque élevé, outre la reconnaissance biométrique et l’utilisation de l’IA dans les procédures de recrutement. Il recommande à la Commission de dresser une liste des caractéristiques communes aux applications ou aux utilisations de l’IA considérées comme à haut risque intrinsèque, quel que soit le secteur.

1.9.

Le CESE suggère avec insistance que tout recours à la reconnaissance biométrique ne soit autorisé que i) s’il existe un effet scientifiquement prouvé, ii) dans des environnements contrôlés et iii) dans des conditions strictes. L’utilisation généralisée de la reconnaissance biométrique fondée sur l’intelligence artificielle aux fins de la surveillance ou du suivi, de l’évaluation ou de la catégorisation des êtres humains, de leurs comportements ou de leurs émotions devrait être interdite.

1.10.

Le CESE plaide pour que les partenaires sociaux soient étroitement associés à un stade précoce lors de la mise en place des systèmes d’AI sur les lieux de travail, conformément aux règles et pratiques d’application dans chaque pays, afin de garantir que les systèmes soient utilisables et qu’ils respectent les droits des travailleurs et leurs conditions de travail.

1.11.

Le CESE plaide également pour que les travailleurs qui seront amenés, à terme, à travailler avec les systèmes d’IA, ainsi que ceux disposant d’une expertise juridique, éthique ou en sciences humaines soient étroitement associés à un stade précoce, s’agissant de la mise en place de systèmes d’IA, afin de garantir que ces systèmes s’alignent sur le droit et sur les exigences en matière d’éthique, mais aussi sur les besoins des travailleurs, de sorte que ces derniers conservent leur autonomie par rapport à leur travail et que les systèmes d’IA améliorent leurs compétences et leur satisfaction au travail.

1.12.

Les techniques et approches en matière d’IA utilisées pour lutter contre la pandémie de coronavirus devraient être solides, efficaces, transparentes et explicables. Elles devraient également respecter les droits de l’homme, les principes éthiques et la législation en vigueur, être équitables et inclusives, et reposer sur une base volontaire.

1.13.

Le CESE invite la Commission à jouer un rôle de chef de file afin d’assurer, en Europe, une meilleure coordination des solutions et approches relevant de l’IA appliquée qui sont utilisées pour lutter contre la pandémie de coronavirus.

2.   Livre blanc de l’Union européenne sur l’intelligence artificielle

2.1.

Le CESE note avec satisfaction que la Commission européenne reprend un grand nombre de recommandations formulées dans de précédents avis du Comité et par le groupe d’experts de haut niveau sur l’intelligence artificielle, encourageant le recours aux technologies de l’IA tout en garantissant leur conformité avec les normes éthiques, les exigences légales et les valeurs sociales européennes, sur la base de ce qu’elle appelle un «écosystème d’excellence et de confiance».

2.2.

Le CESE accueille favorablement les propositions visant à permettre aux entreprises, y compris les PME, et à la société dans son ensemble, de tirer parti des possibilités offertes par le développement et l’utilisation de l’IA. Le CESE souligne qu’il importe de renforcer les investissements, les infrastructures, l’innovation et les compétences afin d’améliorer la compétitivité de l’Union européenne au niveau mondial.

Une approche où l’humain reste aux commandes

2.3.

Cependant, le Livre blanc est légèrement teinté de «fatalisme» et donne à penser que l’IA «nous envahit», ne nous laissant pas d’autre choix que de réglementer son utilisation. Le CESE est réellement convaincu de l’engagement de l’Union européenne à veiller à ce que l’Europe n’accepte qu’une IA digne de confiance et devrait dès lors oser prendre une position beaucoup plus ferme à ce sujet. Le CESE demande donc instamment à la Commission de laisser ouverte à tout moment la possibilité de refuser totalement un certain type d’IA (ou son utilisation). C’est, selon le CESE, une approche de l’IA qui permet que «l’humain reste aux commandes», qu’il convient de cultiver.

Tirer parti de l’intelligence artificielle en Europe — une définition tournée vers l’avenir

2.4.

Selon sa définition pratique énoncée dans le Livre blanc, l’intelligence artificielle «associe des technologies qui combinent données, algorithmes et puissance de calcul». Plus loin dans le texte, les données et les algorithmes sont définis comme les principaux éléments dont se compose l’IA. Toutefois, cette définition couvrirait n’importe quel logiciel jamais écrit, et pas uniquement l’IA. Il n’existe encore aucune définition universellement acceptée de l’intelligence artificielle, qui est un terme générique désignant tout un éventail d’applications informatiques.

2.5.

La focalisation du Livre blanc sur la seule intelligence artificielle axée sur les données est trop restrictive pour que l’Union européenne devienne un véritable chef de file en matière d’IA de pointe, digne de confiance et compétitive. Le Livre blanc exclut la prise en compte, et donc la gouvernance et la réglementation, de nombreux systèmes prometteurs d’intelligence artificielle. Le CESE demande instamment à la Commission de promouvoir également une nouvelle génération de systèmes d’IA qui combinent à la fois des approches axées sur les données et des approches fondées sur la connaissance et le raisonnement, à savoir des systèmes dits hybrides. Le Livre blanc reconnaît la nécessité de disposer de systèmes hybrides à des fins d’explicabilité, mais les avantages de ces systèmes vont encore au-delà: ils peuvent accélérer et/ou freiner l’apprentissage, ainsi que valider et vérifier le modèle d’apprentissage automatique.

2.6.

Le Livre blanc se concentre uniquement sur les biais liés aux données, mais tous les biais ne résultent pas de données de mauvaise qualité ou en quantité limitée. La conception de tout outil est en soi une accumulation de choix biaisés à différents niveaux, allant de celui des apports envisagés à celui des objectifs fixés en vue d’une utilisation optimale. Tous ces choix sont, d’une manière ou d’une autre, influencés par les biais propres à la ou aux personnes qui les effectuent.

2.7.

Mais surtout, les systèmes d’intelligence artificielle représentent davantage que la simple somme de leurs composants logiciels. Les systèmes d’IA comprennent également le système socio-technique qui les entoure. Au moment d’envisager la gouvernance et la réglementation de l’intelligence artificielle, il conviendrait donc de mettre aussi l’accent sur les structures sociales environnantes: les organisations et les entreprises, les différentes professions et les personnes et les institutions qui créent, développent, déploient, utilisent et contrôlent l’IA, ainsi que tous ceux qui y sont confrontés, par exemple les citoyens dans leurs relations avec les gouvernements, les entreprises, les consommateurs, les travailleurs et même la société dans son ensemble.

2.8.

Il y a également lieu de noter que les définitions juridiques (aux fins de la gouvernance et de la réglementation) diffèrent des définitions purement scientifiques, étant donné qu’un certain nombre d’exigences différentes doivent être respectées, telles que l’inclusion, la précision, le caractère permanent, l’exhaustivité et la faisabilité. Certaines de ces exigences sont juridiquement contraignantes tandis que d’autres sont considérées comme des bonnes pratiques en matière de réglementation.

Unir toutes les forces

2.9.

Le CESE se félicite des efforts déployés pour lutter contre la fragmentation du domaine de l’IA en Europe en réunissant des chercheurs en intelligence artificielle, en accordant une attention particulière aux PME et en établissant des partenariats avec les secteurs privé et public. En outre, le CESE recommande: i) de favoriser la pluridisciplinarité dans la recherche, en y associant d’autres disciplines, telles que le droit, l’éthique, la philosophie, la psychologie, les sciences du travail, les sciences humaines, l’économie, etc.; ii) d’associer les parties prenantes intéressées (syndicats, organisations d’entreprises, organisations de consommateurs, ONG) au débat sur l’intelligence artificielle, mais aussi d’assurer leur participation en tant que partenaires égaux aux projets de recherche financés par l’Union et à d’autres projets comme le partenariat public-privé sur l’IA, les dialogues sectoriels, le programme consacré à l’adoption de l’IA dans le secteur public et le centre «phare»; iii) de continuer à éduquer et à informer le grand public sur les possibilités qu’offre l’intelligence artificielle et les problèmes qu’elle pose.

L’intelligence artificielle et le droit

2.10.

Le Livre blanc reconnaît que l’intelligence artificielle n’opère pas dans un monde sans loi. Le CESE salue tout particulièrement l’attention portée aux implications de l’IA pour les droits fondamentaux et recommande à la Commission d’examiner plus en détail les incidences de l’intelligence artificielle sur un large éventail de libertés et droits fondamentaux, tels que la liberté de parole et d’expression, ainsi que le droit au respect de la vie privée (qui va bien au-delà de la protection des données des citoyens), le droit à un procès équitable, le droit à des élections équitables et ouvertes, le droit de réunion et de manifestation, et le droit à la non-discrimination.

2.11.

Le CESE accueille favorablement la position claire adoptée dans le Livre blanc sur l’applicabilité à l’intelligence artificielle des régimes de responsabilité existants, ainsi que les efforts consentis pour se fonder sur ces régimes de manière à faire face aux nouveaux risques que l’IA peut créer, à combler les lacunes dans la mise en œuvre lorsqu’il est difficile de déterminer l’opérateur économique effectivement responsable et à rendre ces régimes adaptables à l’évolution des fonctionnalités des systèmes d’IA.

2.12.

La Commission devrait également reconnaître que l’IA ne connaît pas de frontières, et que les efforts en la matière ne peuvent et ne doivent donc pas se limiter à l’Europe. Il convient de parvenir à un consensus général dans le monde entier, en s’appuyant sur les discussions et les recherches menées par les experts juridiques dans le but de mettre en place un cadre juridique international commun.

2.13.

Dans tous les cas, le CESE continue de s’opposer fermement à l’introduction de toute forme de personnalité juridique pour l’intelligence artificielle. Les effets correctifs préventifs du droit de la responsabilité civile s’en trouveraient en effet vidés de leur substance et il en résulterait un risque grave d’aléa moral au niveau tant du développement que de l’utilisation de l’IA, où cela créerait des possibilités d’abus.

Réglementation de l’intelligence artificielle à haut risque

2.14.

Le CESE se félicite de l’approche fondée sur les risques qui vise à contrôler les effets de l’IA. La Commission annonce un cadre réglementaire pour «l’IA à haut risque», laquelle devra répondre à des exigences en matière de robustesse, de précision, de reproductibilité, de transparence, de contrôle humain et de gouvernance des données. Selon le Livre blanc, l’intelligence artificielle à haut risque remplit cumulativement deux critères: i) un secteur présentant des risques élevés et ii) l’utilisation à haut risque d’une application d’IA. Y sont cités deux exemples d’applications ou utilisations de l’IA qui pourraient être considérées comme à haut risque intrinsèque, c’est-à-dire indépendamment du secteur. La reconnaissance biométrique est également qualifiée d’application intrinsèquement à haut risque. La liste exhaustive des secteurs à haut risque (bien que faisant l’objet d’un examen périodique) comprend à ce jour les secteurs suivants comme potentiellement à haut risque: les soins de santé, les transports, l’énergie et certains pans du secteur public.

2.15.

Le deuxième critère, à savoir que l’application d’IA est utilisée de manière risquée, est plus vague, ce qui laisse à penser que différents niveaux de risque pourraient être envisagés. Le CESE propose d’ajouter la société et l’environnement parmi les domaines d’impact.

2.16.

Selon la logique du Livre blanc, une application d’IA à haut risque dans un secteur à faible risque ne sera en principe pas soumise au cadre réglementaire. Le CESE souligne que les effets néfastes indésirables de l’intelligence artificielle à haut risque dans un secteur à faible risque pourraient exclure les applications ou utilisations de l’IA de toute réglementation, offrant ainsi une possibilité de contourner les règles: prenons l’exemple de la publicité ciblée (secteur à faible risque), dont il a été démontré qu’elle pouvait entraîner des effets de ségrégation, de discrimination et de division, par exemple lors d’élections ou au moyen d’une tarification personnalisée (utilisation ou effet à haut risque). Le CESE recommande de dresser une liste des caractéristiques communes aux applications ou aux utilisations de l’IA devant être considérées comme à haut risque «en l’état», quel que soit le secteur dans lequel elles sont utilisées.

2.17.

Si le CESE reconnaît qu’il est nécessaire de procéder à des essais de conformité de l’intelligence artificielle, il craint qu’une évaluation préalable de la conformité à titre ponctuel (ou même à intervalles réguliers) ne suffise pas à garantir que l’IA soit développée, déployée et utilisée d’une manière durable, digne de confiance et axée sur le facteur humain. Une intelligence artificielle digne de confiance nécessite une approche socio-technique continue et systématique, consistant à examiner la technologie sous tous les angles et à travers différents prismes. Pour ce qui est de l’élaboration des politiques, elle requiert une approche pluridisciplinaire dans le cadre de laquelle les responsables politiques, les universitaires issus de différents domaines, les partenaires sociaux, les organisations professionnelles et les professionnels, les entreprises et les ONG coopèrent en permanence. En particulier en ce qui concerne les services d’intérêt général liés à la santé, à la sécurité et au bien-être des personnes qui reposent sur la confiance, il convient de garantir que les systèmes d’IA soient adaptés aux exigences pratiques et ne puissent passer outre la responsabilité humaine.

Reconnaissance biométrique

2.18.

Le CESE accueille favorablement l’invitation de la Commission à ouvrir un débat public sur l’utilisation de la reconnaissance biométrique fondée sur l’intelligence artificielle. La reconnaissance biométrique des micro-expressions, de la démarche, (du ton) de la voix, du rythme cardiaque, de la température, etc. est déjà utilisée pour évaluer ou même prévoir notre comportement, notre état mental et nos émotions, notamment dans les processus de recrutement. Soyons très clair, il n’existe aucune preuve scientifique tangible indiquant qu’il serait possible de «lire» avec précision les émotions intérieures ou l’état mental d’une personne à partir de l’expression de son visage, de sa démarche, de son rythme cardiaque, du ton de sa voix ou de sa température, et encore moins de prédire ainsi son futur comportement.

2.19.

Il convient également de noter que le règlement général sur la protection des données (RGPD) ne limite le traitement des données biométriques que dans une certaine mesure. Le RGPD définit les données biométriques comme des «données à caractère personnel résultant d’un traitement technique spécifique, relatives aux caractéristiques physiques, physiologiques ou comportementales d’une personne physique, qui permettent ou confirment son identification unique». Cependant, de nombreuses technologies de reconnaissance biométrique ne sont pas conçues afin d’identifier une personne de manière unique, mais seulement pour en évaluer le comportement ou les émotions. Ces utilisations pourraient ne pas relever de la définition (du traitement) des données biométriques énoncée dans le RGPD.

2.20.

La reconnaissance biométrique fondée sur l’intelligence artificielle nuit également à notre droit plus général au respect de la vie privée, à l’identité, à l’autonomie et à l’intégrité psychique, en ce qu’elle crée une situation dans laquelle nous sommes (en permanence) surveillés, suivis et identifiés. Il pourrait en résulter un effet psychologique «dissuasif», incitant les personnes à adapter leur comportement à une certaine norme. Cela constitue une atteinte à notre droit fondamental au respect de la vie privée (intégrité morale et psychique). En outre, la reconnaissance biométrique fondée sur l’intelligence artificielle pourrait remettre en cause d’autres libertés et droits fondamentaux, tels que la liberté de réunion et le droit à la non-discrimination.

2.21.

Le CESE recommande que tout recours à la reconnaissance biométrique ne soit autorisé que s’il existe un effet scientifiquement prouvé, dans des environnements contrôlés et dans des conditions strictes. L’utilisation généralisée de la reconnaissance biométrique fondée sur l’intelligence artificielle aux fins de la surveillance, du suivi, de l’évaluation ou de la catégorisation des êtres humains, de leurs comportements ou de leurs émotions ne devrait pas être autorisée.

Incidence de l’intelligence artificielle sur le travail et les compétences

2.22.

Le CESE note qu’une stratégie sur la manière de faire face aux conséquences de l’IA sur le travail fait défaut dans le Livre blanc, alors qu’il s’agissait d’un point précis énoncé dans la stratégie européenne en matière d’intelligence artificielle de 2018.

2.23.

Le CESE plaide pour que soient associés étroitement et à un stade précoce les travailleurs et les fournisseurs de services de tous types, y compris les travailleurs indépendants, les autoentrepreneurs et les travailleurs à la tâche, c’est-à-dire non seulement ceux qui conçoivent ou développent l’intelligence artificielle, mais aussi ceux qui achètent des systèmes d’IA, les mettent en place, les utilisent au travail ou y sont confrontés. Le dialogue social doit intervenir avant l’introduction des technologies d’IA sur le lieu de travail, conformément aux règles et pratiques applicables dans les différents pays. Sur le lieu de travail, l’accès aux données des travailleurs et leur gestion devraient être guidés par des principes et des règlements négociés par les partenaires sociaux.

2.24.

Le CESE souhaite tout particulièrement attirer l’attention sur l’utilisation de l’intelligence artificielle dans les procédures de recrutement, de licenciement et d’évaluation des travailleurs. Le Livre blanc mentionne l’utilisation de l’IA dans le recrutement comme un exemple d’application à haut risque qui serait soumise à la réglementation, indépendamment du secteur. Le CESE recommande d’élargir ce champ d’utilisation à l’usage de l’IA dans les procédures de licenciement et d’évaluation des travailleurs, mais aussi d’explorer les caractéristiques communes aux applications de l’IA qui constitueraient une utilisation à haut risque sur le lieu de travail, quel que soit le secteur. Les applications d’IA sans fondement scientifique, telles que la détection des émotions au moyen de la reconnaissance biométrique, ne devraient pas être autorisées dans les environnements de travail.

2.25.

Afin de permettre à chacun de s’adapter à l’évolution rapide de l’intelligence artificielle, il est indispensable d’entretenir les compétences en matière d’IA ou d’en favoriser l’acquisition. Toutefois, les politiques et moyens financiers devront également être axés sur l’enseignement et le développement de compétences dans des domaines qui ne seront pas menacés par les systèmes d’IA (comme les tâches où l’intervention humaine prime, telles que les services d’intérêt général liés à la santé, à la sécurité et au bien-être des personnes et qui reposent sur la confiance, celles où l’humain et la machine agissent de concert, ou celles que nous ne voulons pas confier à une machine).

3.   L’intelligence artificielle et le coronavirus

3.1.

L’IA peut contribuer à mieux comprendre le coronavirus et la COVID-19, à protéger des personnes contre l’exposition au virus ainsi qu’à rechercher un vaccin et à explorer des possibilités de traitement. Cependant, il importe toujours de faire preuve d’ouverture et de clarté quant à ce que l’IA peut faire et ne pas faire.

3.2.

S’agissant de la robustesse et de l’efficacité, l’utilisation de l’IA axée sur les données en vue de prévoir la propagation du coronavirus peut être problématique, car on dispose de trop peu de données en la matière pour que l’IA donne des résultats fiables. De plus, les rares données disponibles sont incomplètes et biaisées. L’utilisation de ces données dans des approches d’apprentissage automatique pourrait déboucher sur de nombreux faux négatifs et faux positifs.

3.3.

Il est primordial de garantir la transparence des données et des modèles utilisés, ainsi que l’explicabilité des résultats. Précisément en cette période, le monde ne peut se permettre de prendre des décisions fondées sur des «boîtes noires».

3.4.

Dans le recours à l’intelligence artificielle pour lutter contre cette pandémie, le respect des droits de l’homme, des principes éthiques et de la législation en vigueur est plus important que jamais. En particulier lorsque des outils d’IA sont susceptibles de porter atteinte aux droits de l’homme, leur utilisation doit être justifiée par un intérêt légitime et être strictement nécessaire, proportionnée et, surtout, limitée dans le temps.

3.5.

Enfin, il est nécessaire d’assurer l’équité et l’inclusion. Les systèmes d’IA en cours de développement pour lutter contre la pandémie devraient être exempts de tout biais et non discriminatoires. En outre, ils devraient être accessibles à tous et tenir compte des différences sociétales et culturelles des différents pays touchés.

Applications de suivi et de traçage, ainsi que de veille sanitaire

3.6.

D’après les virologues et les épidémiologistes, la réouverture de la société et de l’économie après le confinement passe par un suivi, un traçage, une surveillance et une protection efficaces de la santé des personnes. Actuellement, de nombreuses applications sont mises au point afin de permettre le suivi, le traçage et la réalisation de contrôles sanitaires, activités qui étaient habituellement (et historiquement) effectuées par des professionnels. À l’échelle mondiale, bon nombre de gouvernements se sont fiés dans une large mesure aux applications de suivi et de traçage comme un moyen pour lever les restrictions imposées aux populations.

3.7.

Le déploiement de ces types d’applications représente une mesure particulièrement radicale. Il importe donc d’étudier de manière critique l’utilité, la nécessité et l’efficacité des applications, de même que leur incidence sociétale et juridique, avant de prendre la décision de les utiliser. La possibilité de ne pas recourir à ces applications doit demeurer ouverte, et il convient d’accorder la priorité à des solutions moins invasives.

3.8.

L’efficacité et la fiabilité des applications de suivi et de traçage sont d’une extrême importance, car l’inefficacité et le manque de fiabilité peuvent déboucher sur de nombreux faux positifs et faux négatifs, ainsi que sur un faux sentiment de sécurité et, partant, un risque accru de contamination. Les premières simulations scientifiques soulèvent de sérieux doutes quant à un quelconque effet positif d’une application de suivi sur la propagation du virus, même avec un taux d’utilisation de 80 % ou 90 %. Par ailleurs, une application ne peut pas tenir compte de circonstances particulières, telles que la présence de plexiglas et de fenêtres ou le port d’équipements de protection individuelle.

3.9.

En outre, ces applications conduisent à l’aliénation (partielle) de divers droits et libertés de l’homme, puisqu’elles touchent à la liberté d’association ainsi qu’aux droits à la sécurité, à la non-discrimination et au respect de la vie privée.

3.10.

Quoique très important, le respect de la vie privée est bien loin de se limiter à nos données à caractère personnel et à l’anonymat. Il comprend aussi le droit de ne pas être suivi, tracé ou placé sous surveillance. Il a été prouvé scientifiquement que, lorsque des personnes savent qu’elles sont suivies, elles modifient leur comportement. Selon la Cour européenne des droits de l’homme, cet «effet dissuasif» est une atteinte à notre vie privée. Ce même concept général de respect de la vie privée devrait être inscrit au débat sur l’intelligence artificielle.

3.11.

Le risque existe que les données collectées (aujourd’hui ou à l’avenir) soient utilisées non seulement pour lutter contre la pandémie actuelle, mais aussi pour le profilage, la catégorisation et la notation des personnes à différentes fins. Dans un avenir plus lointain, il est même possible d’imaginer que le «détournement d’usage» pourrait entraîner des types de profilage indésirables en matière de contrôle et de surveillance, d’acceptation d’une assurance ou de prestations sociales, d’embauche ou de licenciement, etc. Les données collectées à l’aide de ces applications ne peuvent donc en aucun cas être utilisées à des fins de profilage, de notation des risques, de classification ou de prédiction.

3.12.

En outre, toute solution d’IA déployée dans le cadre de ces circonstances extraordinaires, même dans la meilleure des intentions, créera un précédent, que cela nous plaise ou non. Les crises précédentes ont montré que, malgré toutes les bonnes intentions, de telles mesures ne disparaîtront jamais dans la pratique.

3.13.

L’utilisation de l’intelligence artificielle durant cette pandémie devrait donc toujours être mesurée et évaluée au regard de plusieurs considérations, à savoir: i) est-ce efficace et fiable? ii) Existe-t-il des solutions moins invasives? iii) Ses avantages l’emportent-ils sur les préoccupations quant à la société, à l’éthique et aux droits fondamentaux? iv) Est-il possible de trouver un compromis responsable entre des libertés et des droits fondamentaux contradictoires? De plus, ces types de systèmes ne sauraient être déployés sous aucune forme d’obligation ou de contrainte.

3.14.

Le CESE invite instamment les responsables politiques à ne pas succomber trop hâtivement au «solutionnisme technologique». Étant donné la gravité de la situation, il recommande que les applications liées à des projets visant à contribuer à enrayer la pandémie se fondent sur des recherches solides en épidémiologie, sociologie, psychologie, droit, éthique et sciences des systèmes. Avant de décider de l’utilisation de ces systèmes, il est essentiel de procéder à des simulations et des analyses d’efficacité, de nécessité et de sensibilité.

Bruxelles, le 16 juillet 2020.

Le président du Comité économique et social européen

Luca JAHIER


Top