EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52016IE5369

Avis du Comité économique et social européen sur «L’intelligence artificielle: les retombées de l’intelligence artificielle pour le marché unique (numérique), la production, la consommation, l’emploi et la société» (avis d’initiative)

JO C 288 du 31.8.2017, p. 1–9 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

31.8.2017   

FR

Journal officiel de l'Union européenne

C 288/1


Avis du Comité économique et social européen sur «L’intelligence artificielle: les retombées de l’intelligence artificielle pour le marché unique (numérique), la production, la consommation, l’emploi et la société»

(avis d’initiative)

(2017/C 288/01)

Rapporteure:

Catelijne MULLER

Décision de l’assemblée plénière

22 septembre 2016

Base juridique

Article 29, paragraphe 2, du règlement intérieur

 

Avis d’initiative

 

 

Compétence

Section spécialisée «Marché unique, production et consommation»

Adoption en section spécialisée

4 mai 2017

Adoption en session plénière

31 mai 2017

Session plénière no

526

Résultat du vote

(pour/contre/abstentions)

159/3/14

1.   Conclusions et recommandations

1.1.

L’intelligence artificielle (IA) connaît actuellement un certain nombre d’évolutions majeures et trouve à un rythme soutenu des applications dans la société. Le marché de l’IA s’élève à environ 664 millions de dollars américains (USD) et devrait, selon les estimations, atteindre 38,8 milliards d’USD en 2025. Étant donné que l’IA peut influencer la société de manière aussi bien positive que négative, le CESE a entrepris de suivre attentivement les évolutions dans ce domaine, non seulement d’un point de vue technique, mais aussi sur le plan éthique, sociétal et de la sécurité.

1.2.

En tant que représentant de la société civile européenne, le CESE va, durant la période à venir, lancer, centraliser et susciter le débat de société sur l’IA et associer à cet exercice toutes les parties prenantes concernées: décideurs politiques, industrie, partenaires sociaux, consommateurs, ONG, établissements de soins et d’enseignement, ainsi qu’experts et universitaires de diverses disciplines, telles que l’IA, la sécurité, l’éthique, l’économie, les sciences du travail, le droit, les sciences du comportement, la psychologie et la philosophie.

1.3.

Aussi importantes soient-elles, les discussions relatives à la superintelligence dominent actuellement et éclipsent le débat sur l’incidence des applications actuelles de l’IA. Dès lors, la mission et l’objectif de ce processus seront notamment de développer et d’élargir les connaissances sur l’IA, et de contribuer ainsi à un débat éclairé et équilibré, en évitant les écueils des scénarios catastrophe ou de la relativisation à outrance. En outre, le CESE œuvrera à promouvoir le développement de l’IA au bénéfice de l’humanité. Néanmoins, ce processus aura également pour tâche importante et pour objectif de recenser, désigner et contrôler les évolutions de rupture dans le développement de l’IA et les domaines connexes, de manière à pouvoir les traiter de manière adéquate et en temps opportun. Cela renforcera l’engagement de la société ainsi que sa confiance et son soutien à l’égard de la poursuite du développement durable et du déploiement de l’IA.

1.4.

L’incidence de l’IA dépassant les frontières nationales, il conviendra également d’adopter des cadres stratégiques supranationaux. Le CESE recommande que l’UE joue un rôle moteur sur la scène mondiale dans l’adoption de cadres stratégiques clairs et universels en matière d’IA, qui respectent les valeurs de l’Europe et les droits fondamentaux. Il peut et souhaite apporter sa contribution à cet égard.

1.5.

Le CESE pointe actuellement onze domaines dans lesquels l’IA soulève des enjeux de société: l’éthique; la sécurité; la vie privée; la transparence et l’obligation de rendre des comptes; le travail; l’éducation et les compétences; l’(in)égalité et l’inclusion; la législation et la réglementation; la gouvernance et la démocratie; la guerre; la superintelligence. Le CESE formule ci-dessous un certain nombre de recommandations.

1.6.

Le CESE plaide en faveur d’une approche dite « human-in-command » de l’IA, dont les conditions seraient un développement responsable, sûr et utile de l’IA dans le cadre duquel les machines resteraient les machines, sous le contrôle permanent des humains.

1.7.

Le CESE préconise l’instauration d’un code de déontologie pour le développement, le déploiement et l’utilisation de l’IA, afin que les systèmes d’IA demeurent, tout au long de leur processus d’exploitation, compatibles avec les principes de dignité humaine, d’intégrité, de liberté, de respect de la vie privée, de diversité culturelle et d’égalité entre hommes et femmes, ainsi qu’avec les droits fondamentaux.

1.8.

Le CESE plaide pour la mise en place d’un système de normalisation pour la vérification, la validation et le contrôle des systèmes d’IA, fondé sur un large éventail de normes en matière de sécurité, de transparence, d’intelligibilité, d’obligation de rendre des comptes et de valeurs éthiques.

1.9.

Le CESE plaide pour une infrastructure d’IA européenne, composée de cadres d’apprentissage libres (open source) et respectueux de la vie privée, d’environnements d’essai en situation réelle (real life) et de séries de données de haute qualité pour le développement et la formation de systèmes d’IA. Il attire l’attention sur l’avantage (concurrentiel) que peuvent procurer à l’UE, sur le marché mondial, le développement et la promotion de «systèmes d’IA homologués au niveau européen», dans lesquels cette dernière ferait l’objet d’une certification et d’un étiquetage européens.

1.10.

L’UE, les autorités nationales et les partenaires sociaux devraient identifier conjointement quels secteurs du marché du travail seront influencés par l’IA, dans quelle mesure et dans quels délais, et trouver des solutions pour faire face aux conséquences de ce processus sur l’emploi, le contenu du travail, les régimes sociaux et l’(in)égalité. Il convient en outre d’investir dans les secteurs du marché du travail dans lesquels l’IA n’a que peu ou pas d’influence.

1.11.

Le CESE préconise que ces parties prenantes œuvrent ensemble en faveur de systèmes d’IA complémentaires et de leur mise en place conjointe sur le lieu de travail. L’on peut par exemple penser à des équipes homme-machine au sein desquelles l’IA compléterait et améliorerait les prestations humaines. Elles devraient également investir dans l’apprentissage formel et informel, l’enseignement et la formation pour tous afin de pouvoir travailler avec l’IA, mais également dans le but de développer les compétences qui ne seront pas ou ne pourront pas être assurées par l’IA.

1.12.

Il est d’ores et déjà nécessaire d’entreprendre une évaluation concrète de la législation et de la réglementation européennes dans les six domaines désignés par la STOA (Scientific Foresight Unit) susceptibles de faire l’objet d’une révision ou d’une adaptation. Le CESE peut et veut jouer un rôle dans ce processus d’évaluation. Il s’oppose à la mise en place d’une forme de personnalité juridique pour les robots ou l’IA. Les effets correctifs préventifs du droit de la responsabilité civile s’en trouveraient en effet vidés de leur substance. De plus, cela créerait des possibilités d’abus de même qu’un risque moral au niveau tant du développement que de l’utilisation de l’IA.

1.13.

Le développement d’applications d’IA qui bénéficient à la société, favorisent l’inclusion et améliorent la vie des gens doit être activement encouragé et promu, au niveau aussi bien public que privé. La Commission européenne devrait, dans le cadre de ses programmes, financer des travaux de recherche portant sur l’incidence sociale de l’IA ainsi que des innovations en matière d’IA financées par l’UE.

1.14.

Le CESE soutient l’appel à l’interdiction des systèmes d’armes autonomes lancé par Human Rights Watch et d’autres organisations. Il se félicite de la consultation annoncée sur ce sujet dans le cadre des Nations unies, mais estime que celle-ci devrait également porter sur les applications de l’IA dans le domaine de la «cyberguerre».

2.   L’intelligence artificielle

2.1.

Il n’existe pas de définition précise unique de l’IA. Il s’agit d’un concept qui englobe un grand nombre de (sous-)domaines, tels que l’informatique cognitive (cognitive computing: algorithmes qui raisonnent et apprennent à un niveau supérieur, c’est-à-dire plus humain), l’apprentissage automatique (machine learning: algorithmes qui apprennent de manière autonome à réaliser des tâches), l’intelligence augmentée (augmented intelligence: coopération entre l’homme et la machine) et la robotique intelligente (IA intégrée dans des robots). L’objectif principal de la recherche et du développement en matière d’IA est toutefois d’automatiser les comportements intelligents, entre autres la capacité de raisonner, de collecter des informations, de planifier, d’apprendre, de communiquer, de manipuler, de signaler et même de créer, de rêver et de percevoir.

2.2.

On distingue généralement deux types d’intelligence artificielle: l’IA étroite (narrow AI) et l’IA générale (general AI). L’IA étroite est capable d’effectuer des tâches spécifiques. L’IA générale est en mesure d’effectuer toutes les tâches intellectuelles qu’un être humain est capable d’exécuter.

2.3.

Ces derniers temps, de nombreux progrès ont été accomplis dans le domaine de l’IA étroite, notamment grâce à l’accroissement de la puissance de traitement des ordinateurs (computer processing power), à la mise à disposition de grandes quantités de données et au développement de l’apprentissage automatique. Dans le cadre de l’apprentissage automatique, des algorithmes peuvent apprendre à réaliser des tâches spécifiques de manière autonome, sans être programmés à cette fin. Cette méthode repose sur le traitement de données d’apprentissage sur la base desquelles l’algorithme apprend à reconnaître des modèles et à établir des règles. L’apprentissage profond (deep learning), qui est un type d’apprentissage automatique, utilise des structures (neuronal networks — réseaux neuronaux) inspirées de certaines fonctions du cerveau humain qui tirent leur apprentissage de l’expérience et du retour d’informations. Grâce à cette évolution, les systèmes d’IA peuvent désormais (au moyen d’algorithmes) être autonomes, adaptatifs et en mesure d’apprendre de manière automatique.

2.4.

Depuis un certain temps, la recherche et le développement dans le domaine de l’IA sont centrés sur le raisonnement, l’acquisition de connaissances, la planification, la communication et les perceptions (visuelles, auditives et sensorielles). Cela a permis de développer de nombreuses applications basées sur l’IA: assistants virtuels, voitures autonomes, agrégation automatique d’informations, reconnaissance vocale, logiciels de traduction, logiciels de synthèse texte-parole (text-to-speak), opérations financières automatisées, investigation électronique (e-discovery) dans le domaine judiciaire, etc.

2.5.

Le CESE fait remarquer que le nombre d’applications dans ce domaine et le volume des investissements consentis dans l’IA ont récemment augmenté de façon exponentielle. Le marché de l’IA s’élève actuellement à environ 664 millions d’USD et devrait, selon les estimations, atteindre 38,8 milliards d’USD en 2025.

3.   Perspectives positives et menaces liées à l’IA

3.1.

Presque personne ne conteste que l’IA peut présenter de nombreux avantages pour la société. Il suffit de penser aux applications destinées à obtenir une agriculture plus durable, une plus grande sécurité sur les routes, un système financier plus stable, des processus de production moins polluants, des avancées médicales, davantage de sécurité sur le lieu de travail, un enseignement plus personnalisé, une meilleure justice et une société plus sûre. Il se peut qu’elle contribue même à éradiquer la maladie et la pauvreté. L’IA peut également apporter une contribution importante à la croissance de l’industrie et au renforcement de la compétitivité de l’UE.

3.2.

Toutefois, comme toutes les technologies de rupture, l’IA apporte son lot de risques et de défis stratégiques complexes en matière de sécurité et de contrôlabilité, d’aspects socio-économiques, d’éthique et de protection de la vie privée, de fiabilité, etc.

3.3.

Nous sommes à une étape cruciale pour l’établissement des conditions (cadres) pour le développement et le déploiement actuels et à venir de l’IA. Ces avantages de l’IA ne peuvent être acquis à long terme que si l’on relève également de manière adéquate les défis liés à celle-ci. Il convient pour ce faire de procéder à des choix politiques.

a)

Éthique

3.4.

Le développement de l’IA soulève de nombreuses questions éthiques. Quelle est l’influence de l’IA autonome sur notre intégrité personnelle, notre autonomie, notre dignité, notre indépendance, notre égalité, notre sécurité et notre liberté de choix? Comment faire en sorte que nos normes fondamentales, nos valeurs et les droits de l’homme soient toujours respectés et garantis?

3.5.

Il convient à cet égard de noter qu’à l’heure actuelle, le développement de l’IA se déroule dans un environnement homogène, composé principalement de jeunes hommes blancs, ce qui contribue à ancrer (sciemment ou non) les disparités culturelles et de genre dans l’IA, notamment du fait que les systèmes d’IA apprennent sur la base de données de formation. Il importe que celles-ci soient correctes, mais également de qualité, diversifiées, suffisamment approfondies et objectives. L’on croit généralement que les données sont objectives par définition, mais il s’agit là d’une erreur. Elles sont faciles à manipuler et peuvent être tendancieuses, influencées par des préférences et préjugés culturels, de genre ou autres, ou encore être erronées.

3.6.

Les systèmes d’IA qui sont en cours de développement ne comportent pas de valeurs éthiques intégrées. C’est aux êtres humains qu’il incombe de les introduire dans les systèmes d’IA et l’environnement dans lequel ceux-ci sont déployés. Le développement, le déploiement et l’utilisation des systèmes d’IA (tant publics que commerciaux) doivent avoir lieu dans les limites de nos normes, valeurs et libertés fondamentales et des droits de l’homme. Le CESE appelle dès lors de ses vœux l’élaboration et l’établissement d’un code éthique uniforme applicable à l’échelle mondiale pour le développement, le déploiement et l’utilisation de l’IA.

b)

Sécurité

3.7.

L’utilisation de l’IA dans le monde réel soulève incontestablement des questions en matière de sécurité. Une distinction peut être établie entre sécurité interne et externe.

Sécurité interne: le système d’IA est-il suffisamment solide pour (continuer à) fonctionner correctement? L’algorithme a-t-il été programmé comme il se doit? Ne risque-t-il pas de cesser de fonctionner, d’être piraté? Est-il efficace? Est-il fiable?

Sécurité externe: l’utilisation du système d’IA au sein de la société se fait-elle en toute sécurité? Fonctionne-t-il en toute sécurité, non seulement dans une situation normale, mais également dans une situation inconnue, critique ou imprévisible? Quelle est l’incidence de la capacité d’auto-apprentissage sur la sécurité, y compris si le système continue à apprendre après sa mise en service?

3.8.

Le CESE estime que les systèmes d’IA ne peuvent être utilisés que s’ils répondent à des exigences spécifiques en matière de sécurité interne et externe. Ces exigences devraient être définies conjointement par les décideurs politiques, les spécialistes de l’IA et de la sécurité, les entreprises et les organisations de la société civile.

c)

Transparence, intelligibilité, contrôlabilité et capacité de rendre compte

3.9.

L’acceptation, ainsi que le développement et la mise en œuvre durables de l’IA vont de pair avec la possibilité de comprendre, de contrôler et d’expliquer le fonctionnement, les actions et les décisions des systèmes d’IA, notamment a posteriori.

3.10.

Les actions et les décisions des systèmes d’IA (résultant d’algorithmes intelligents) ont une influence croissante sur la vie des personnes. C’est par exemple le cas de l’utilisation de l’IA pour les travaux de police fondés sur l’information, pour l’évaluation des demandes de crédit hypothécaire ou pour les procédures d’acceptation de couverture dans le secteur des assurances. À cet égard, l’intelligibilité et la contrôlabilité du processus de prise de décision d’un système d’IA, ainsi que la capacité de rendre compte de ses actions, sont essentielles.

3.11.

D’ores et déjà, de nombreux systèmes d’IA sont très difficiles à comprendre pour les utilisateurs. Mais c’est aussi de plus en plus souvent le cas pour les concepteurs de ces systèmes. En particulier, les réseaux neuronaux sont souvent des boîtes noires (black boxes) dans lesquelles se déroulent des processus (de prise de décision) qui sont devenus incompréhensibles et pour lesquels aucun manuel explicatif n’est fourni.

3.12.

Le CESE plaide pour des systèmes d’IA transparents, compréhensibles et contrôlables dont le fonctionnement puisse également être expliqué a posteriori. Il convient par ailleurs de définir quels sont les processus décisionnels qui peuvent être confiés à des systèmes d’IA et quels sont ceux qui ne peuvent l’être, et quand une intervention humaine devrait être privilégiée ou exigée.

d)

Respect de la vie privée

3.13.

Le respect de la vie privée dans le cadre des systèmes d’IA est un sujet de préoccupation. De nombreux biens (de consommation) disposent déjà d’un système d’IA intégré: appareils électroménagers, jouets, voitures, montres et bracelets intelligents ou encore smartphones. Tous ces produits communiquent des données (souvent personnelles) aux plateformes en nuage des producteurs. Les inquiétudes liées à la question de savoir si la vie privée est suffisamment protégée sont d’autant plus vives que le commerce des données, c’est-à-dire la vente à des tiers des données recueillies par le fabricant, est en plein essor.

3.14.

De plus, l’IA est en mesure, grâce à l’analyse d’un très grand nombre de données (souvent) personnelles, d’influencer les choix des individus dans de nombreux domaines (des décisions commerciales aux élections et aux référendums). Les enfants constituent un groupe particulièrement vulnérable. Le CESE exprime sa préoccupation face aux applications d’IA qui visent explicitement à influencer le comportement et les souhaits des enfants.

3.15.

Il convient d’éviter que l’application de l’IA aux données personnelles ne restreigne la liberté réelle ou perçue des individus. Le règlement général de l’UE sur la protection des données prévoit une protection renforcée de la vie privée concernant les données personnelles transmises par voie numérique. Il convient de contrôler attentivement, à la lumière des évolutions dans le domaine de l’IA, si le droit des personnes au consentement éclairé et au libre choix lors de la transmission des données, mais aussi celui d’accéder aux données transmises, de les adapter et de les vérifier, sont suffisamment garantis dans la pratique.

e)

Normes et infrastructures

3.16.

Il convient de développer de nouvelles procédures de normalisation pour la vérification et la validation des systèmes d’IA, qui seraient fondées sur un large éventail de normes, afin de pouvoir évaluer et contrôler la sécurité, la transparence, l’intelligibilité, la capacité de rendre des comptes et la responsabilité éthique des systèmes d’IA.

3.17.

Le CESE préconise que l’UE développe sa propre infrastructure d’IA, composée de cadres d’apprentissage libres (open source) et respectueux de la vie privée et de séries de données de haute qualité pour le développement et la formation de systèmes d’IA. La promotion de systèmes d’IA homologués au niveau européen peut en outre procurer à l’UE un avantage (concurrentiel) sur le marché mondial. Le CESE recommande en la matière d’explorer les possibilités de certification et d’étiquetage européens des systèmes d’IA.

f)

Incidence sur le travail, l’emploi, les conditions de travail et les régimes sociaux

3.18.

Les avis divergent quant à la vitesse et la mesure dans laquelle cela se produira, mais il est évident que l’IA aura un impact sur le niveau de l’emploi, ainsi que sur la nature et le caractère de nombreux emplois et, partant, sur les régimes sociaux.

3.19.

Pour Brynjolfsson et McAfee (MIT), les avancées technologiques actuelles (y compris l’IA) constituent la seconde ère du machinisme. Il existe cependant deux différences majeures: (i) les «anciennes» machines ont essentiellement remplacé la force musculaire, alors qu’aujourd’hui les nouvelles machines se substituent aux prestations intellectuelles et aux compétences cognitives, ce qui a des répercussions non seulement sur les travailleurs peu qualifiés (blue collar workers), mais aussi sur les travailleurs diplômés (white collar workers), et (ii) l’IA constitue une technologie générique (general purpose technology) ayant un impact sur pratiquement tous les secteurs en même temps.

3.20.

L’IA peut présenter de réels avantages en cas d’activités dangereuses, pénibles, épuisantes, salissantes, désagréables, répétitives ou ennuyeuses. L’on notera toutefois que les tâches susceptibles d’être routinisées, le traitement et l’analyse de données ou encore les tâches consistant essentiellement à planifier et à prévoir, exécutées souvent par des personnes hautement qualifiées, peuvent de plus en plus être effectuées par des systèmes d’IA.

3.21.

Cependant, la plupart des emplois se déclinent en plusieurs activités différentes. Le risque de voir toutes les activités professionnelles d’une personne reprises par l’IA ou par des robots semble dès lors faible. Néanmoins, pratiquement tout le monde sera confronté à l’automatisation d’une partie de ses activités professionnelles. Le temps ainsi libéré peut être affecté à d’autres tâches, pour peu que les pouvoirs publics et les partenaires sociaux déploient les efforts nécessaires en ce sens. À cet égard, il faut tenir compte de l’incidence que peuvent avoir ces évolutions sur les travailleurs et les cadres dirigeants et promouvoir leur participation à ce processus, de façon à ce qu’ils en gardent la maîtrise et n’en deviennent pas les victimes.

3.22.

En outre, de nouveaux emplois verront également le jour. Toutefois, personne ne peut encore prédire en quoi ils consisteront, quel sera leur nombre ni à quelle vitesse cela se produira. Les entreprises comme Google et Facebook réussissent à générer une valeur considérable avec un nombre relativement réduit de travailleurs. Cependant, les nouveaux emplois créés ne sont pas toujours des emplois de qualité. Avec la poursuite du développement de l’IA, l’on peut se demander avec inquiétude s’il ne restera bientôt plus que des minitâches faiblement rémunérées pour un groupe de travailleurs flexibles de plus en plus important.

3.23.

L’IA aura une incidence non seulement sur le volume de travail, mais également sur la nature du travail réalisé. Les systèmes d’IA offrent de plus en plus de possibilités de suivre et surveiller les travailleurs, ce qui risque de porter atteinte à l’autonomie et au respect de la vie privée. Aujourd’hui déjà, le travail est souvent défini et réparti par des algorithmes, sans aucune intervention humaine. Cela a un impact sur la nature et les conditions de travail. L’utilisation des systèmes d’IA peut également entraîner un risque d’appauvrissement des activités et de perte de compétences majeures.

3.24.

Il n’en demeure pas moins que nous ne sommes pas soumis à la technologie. Les pouvoirs publics et les partenaires sociaux ont la possibilité de déterminer la manière dont l’IA poursuivra son développement et sera appliquée dans le cadre de l’activité professionnelle; ils doivent la saisir à bras-le-corps. Il importe à cet égard de ne pas se concentrer uniquement sur ce qui peut être réalisé grâce à l’IA, mais bien de se demander aussi ce que les hommes sont en mesure de faire (créativité, empathie, coopération) et quelles tâches nous voulons continuer à réaliser nous-mêmes, et de chercher des solutions permettant d’améliorer la coopération entre l’homme et la machine (complémentarité).

3.25.

L’intelligence augmentée (augmented intelligence — complémentarité), dans le cadre de laquelle l’homme et la machine coopèrent et se renforcent mutuellement, est l’application la plus intéressante de l’IA car il s’agit de l’homme avec la machine, par opposition à l’homme à la place de la machine. La cocréation revêt toutefois une grande importance: les travailleurs doivent être associés au développement de ces systèmes d’IA complémentaires, pour veiller à ce que les systèmes d’IA soient efficaces et que le travailleur conserve suffisamment d’autonomie et de contrôle (human-in-command), de satisfaction et de plaisir au travail.

g)

Éducation et compétences

3.26.

Si l’on veut permettre à chacun de s’adapter à l’évolution rapide de l’IA, il est indispensable d’entretenir les compétences numériques ou de permettre d’en acquérir de nouvelles. Avec sa Coalition pour les compétences et l’emploi numériques (Digital Skills and Jobs Coalition), la Commission européenne encourage fortement le développement des compétences numériques. Néanmoins, tout le monde ne sera pas intéressé par le métier d’encodeur ou de programmeur ou en mesure de le devenir. Les politiques et moyens financiers devront dès lors être aussi axés sur l’enseignement et le développement de compétences dans des domaines qui ne seront pas menacés par les systèmes d’IA (comme les tâches où l’intervention humaine prime, où l’homme et la machine agissent de concert, ou que nous ne voulons pas confier à une machine).

3.27.

Lorsque l’on mise sur la complémentarité de l’homme et de l’IA (intelligence augmentée), il est indispensable de prévoir pour tout le monde et dès le plus jeune âge une formation pour appréhender les rapports avec l’IA et son exploitation afin de pouvoir préserver l’autonomie et le contrôle des utilisateurs (human-in-command). Dans ce cadre, il importe également d’enseigner l’éthique et le respect de la vie privée, étant donné l’impact considérable de l’IA dans ces domaines.

h)

Accessibilité, (in)égalité sociale, inclusion et répartition

3.28.

La majeure partie du développement de l’IA et l’ensemble des éléments y afférents (plateformes de développement, données, connaissances, expertise) est entre les mains de cinq grandes entreprises technologiques (Amazon, Google, Apple, Facebook et Microsoft). Bien que ces entreprises soient favorables à un développement ouvert de l’IA, et que certaines parmi elles proposent leurs plateformes de développement de l’IA en open-source, cela ne suffit pas pour garantir l’accessibilité totale des systèmes d’IA. L’UE, les décideurs internationaux et les organisations de la société civile ont ici un rôle de premier plan à jouer en veillant à ce que ces systèmes soient accessibles à tous, mais aussi que leur développement ait lieu dans un environnement ouvert.

3.29.

Les évolutions technologiques financées par le capital, dans le cadre desquelles les innovations profitent surtout à leurs propriétaires, ont pour conséquence une détérioration de la position du travail par rapport à celle du capital. Les évolutions technologiques peuvent également entraîner des inégalités (de revenus) entre les individus (à l’échelon aussi bien local que régional et mondial). L’IA risque de renforcer ces tendances.

3.30.

Il importe de suivre attentivement ces tendances et d’y apporter les réponses appropriées. D’aucuns plaident déjà en faveur d’une imposition de l’IA, de dividendes de l’IA ou du partage de la propriété des systèmes d’IA entre les travailleurs et les employeurs. Est également de plus en plus souvent évoquée la nécessité d’un revenu de base inconditionnel.

3.31.

Le CESE a, dans un précédent avis (1), évoqué la possibilité de dividendes numériques et d’une répartition équitable de ceux-ci pour parvenir à des effets positifs sur la croissance. Le CESE accorde une grande importance à l’étude de telles solutions, dans le cadre de laquelle il convient de trouver le juste équilibre entre un développement de l’AI qui profite à l’homme et les éventuels effets négatifs de ces solutions. Il convient également d’éviter le risque moral d’un transfert de la responsabilité pour les systèmes d’IA à une entité qui, dans les faits, ne pourra être tenue responsable.

i)

Législation et réglementation

3.32.

Les retombées de l’IA sur les dispositions législatives et réglementaires existantes sont importantes. En juin 2016, la STOA du Parlement européen a publié un relevé des actes législatifs et réglementaires européens qui seront concernés par l’évolution de la situation dans le domaine de la robotique, des systèmes cyber-physiques et de l’intelligence artificielle. La STOA désigne six domaines (transports, systèmes de double utilisation, libertés civiles, sécurité, santé et énergie) dans lesquels l’UE est susceptible de devoir réviser ou adapter pas moins de 39 règlements, directives, déclarations et communications, ainsi que la charte européenne des droits fondamentaux. Cette évaluation devrait être menée rapidement et avec détermination, et le CESE peut et veut jouer un rôle dans ce processus.

3.33.

La question de savoir à qui sera imputée la responsabilité des préjudices causés par les systèmes d’IA fait l’objet de nombreux débats. D’autant plus dans le cas où le système est autonome et continue son auto-apprentissage après sa mise en service. Le Parlement européen a formulé des recommandations concernant des règles de droit civil sur la robotique, et notamment une proposition d’étudier la possibilité d’accorder aux robots une «personnalité électronique» (e-personality), laquelle impliquerait qu’ils pourraient être tenus pour civilement responsables des dommages qu’ils causeraient. Le CESE s’oppose à l’octroi d’une forme de personnalité juridique aux robots ou à l’IA et aux systèmes d’IA, en raison du risque moral inacceptable inhérent à une telle démarche. Si cette proposition se concrétise, les effets correctifs préventifs découlant du droit de la responsabilité civile disparaîtront dès lors que le fabriquant n’assumera plus le risque de responsabilité, celui-ci ayant été transféré au robot (ou au système d’IA). En outre, le risque d’utilisation impropre et d’abus d’une telle forme juridique existe. La comparaison avec la responsabilité limitée des sociétés ne tient pas la route dans la mesure où il y a toujours dans ce cas une personne physique responsable en dernier ressort. Il convient d’examiner à cet égard dans quelle mesure les législations, réglementations et jurisprudences nationales et européennes actuelles en matière de responsabilité (pour les produits et risques) et de faute propre apportent une réponse suffisante à cette question et, si ce n’est pas le cas, quelles sont les solutions envisageables sur le plan juridique.

3.34.

Pour pouvoir définir une approche législative et réglementaire adéquate en matière d’IA, il est en outre indispensable d’établir clairement ce que l’IA est en mesure de faire ou non, et ce qu’elle pourrait éventuellement faire à court, moyen et long terme.

3.35.

L’IA ne connaît pas de frontières. Il importe dès lors de se pencher sur la nécessité d’une réglementation mondiale, étant donné qu’une réglementation régionale ne suffira pas et aura même des effets indésirables. Compte tenu de son système éprouvé de normes portant sur les produits et la sécurité, des tentations protectionnistes qui se manifestent sur d’autres continents, du niveau élevé de connaissances en Europe, du système de droits fondamentaux et de valeurs sociales en vigueur en Europe ainsi que du dialogue social, le CESE recommande à l’UE de jouer un rôle moteur dans l’établissement de cadres stratégiques clairs et universels en matière d’IA et de stimuler ce processus au niveau mondial.

j)

Gouvernance et démocratie

3.36.

Les applications d’IA peuvent contribuer à une meilleure participation des citoyens à la gestion publique et à une plus grande transparence de la prise de décisions politiques. Le CESE invite l’UE et les autorités nationales à utiliser l’IA à cette fin.

3.37.

Le CESE s’inquiète de l’utilisation ciblée de systèmes d’IA (sous la forme d’algorithmes intelligents) pour l’agrégation des informations, par exemple sur les médias sociaux, qui semble avoir entraîné une limitation de l’information et un renforcement du clivage de la société (pensons aux filter bubbles ou bulles de filtrage et aux fausses informations publiées sur Twitter et Facebook lors des élections américaines).

3.38.

Il est également préoccupé par les indications selon lesquelles des systèmes d’IA auraient été utilisés pour influencer les comportements (de vote) des citoyens. Des algorithmes intelligents auraient permis de prévoir les préférences et le comportement des gens et de les orienter. Il s’agit d’une menace pour une démocratie ouverte et équitable. Dans le contexte actuel de polarisation et de démantèlement des institutions internationales, ce type de technologie de propagande précise et puissante pourrait rapidement perturber encore davantage notre société. C’est l’une des raisons pour lesquelles il est nécessaire de développer des normes pour la transparence et la contrôlabilité des algorithmes (intelligents).

k)

Situations de guerre

3.39.

La Convention des Nations unies sur certaines armes classiques a décidé d’organiser en 2017 des discussions entre experts sur les implications des armes autonomes. Le CESE s’en félicite et soutient l’appel à l’interdiction des systèmes d’armes autonomes lancé par Human Rights Watch et d’autres organisations. Il est d’avis qu’une telle interdiction doit être examinée et envisagée sérieusement. Apporter une réponse adéquate aux possibilités d’application de l’IA dans les situations de guerre et de conflit n’est toutefois pas suffisant. Il importe que cette consultation des Nations unies porte également sur les applications de l’IA dans la cyberguerre.

3.40.

En outre, il convient d’éviter que l’IA ne parvienne entre les mains de personnes ou de régimes susceptibles de l’utiliser à des fins terroristes.

l)

Superintelligence

3.41.

Enfin se pose la question des perspectives et des risques liés au développement de la superintelligence. Selon Stephen Hawking, la mise au point de l’IA générale représentera déjà la fin de l’humanité. À ce stade, l’IA continuera selon lui à évoluer à un rythme que les hommes ne pourront pas suivre. Certains spécialistes préconisent dès lors la création d’un disjoncteur (kill-switch) ou bouton de réinitialisation (reset-button), permettant de désactiver ou de réinitialiser un système d’IA superintelligent ou qui s’est emballé.

3.42.

Le CESE plaide en faveur d’une approche dite «human-in-command» dont les conditions seraient un développement et une utilisation responsables et sûrs de l’IA, dans le cadre de laquelle les machines resteraient les machines, sous le contrôle permanent des humains. Le débat sur la superintelligence est donc important, mais à l’heure actuelle, il éclipse celui consacré à l’incidence des applications actuelles de l’IA.

4.   L’IA au service de l’humanité

4.1.

Les grands acteurs commerciaux (tels qu’OpenAI) ont déjà pris diverses initiatives en vue de développer l’IA de manière ouverte, sûre et responsable socialement. Les décideurs politiques ne peuvent toutefois pas laisser les entreprises jouer ce rôle et doivent prendre leurs responsabilités. Il faut prévoir des mesures et un soutien ciblés en faveur de la recherche sur les défis de société liés à l’IA et sur le développement de systèmes d’IA sûrs et solides.

4.2.

Les programmes de l’UE, dont Horizon 2020, sont tout désignés pour relever ce défi. Le CESE a constaté que le financement relevant notamment du pilier des «Défis sociétaux» du programme Horizon 2020 est à la traîne par rapport à celui des deux autres piliers, «Excellence scientifique» et «Primauté industrielle», et qu’il a été révisé à la baisse. Le CESE insiste pour qu’une grande attention soit accordée à la recherche portant sur les grands défis sociétaux, ainsi que sur les applications sociales de l’IA dans le cadre du pilier «Défis sociétaux».

4.3.

Par ailleurs, il convient de traiter les éventuels effets transversaux de l’IA. Outre le développement des innovations de rupture dans le domaine de l’IA, il convient de financer la recherche relative à l’impact de ces innovations sur la société ainsi que les moyens d’y faire face.

4.4.

La recherche et le développement d’une IA au service de l’humanité requièrent également tout un éventail de données d’apprentissage et de test spécialisées accessibles au grand public et des environnements d’essai en situation réelle (real life). Jusqu’à présent, les infrastructures d’IA et bon nombre de données spécifiques ne sont disponibles que chez et pour un nombre limité d’acteurs privés et des obstacles entravent la mise à l’essai de l’IA dans la sphère publique, ce qui freine l’application de l’IA dans d’autres domaines. Le développement de données spécialisées accessibles à tous et d’une infrastructure d’IA européenne jouent un rôle crucial dans la mise au point d’une IA sûre, solide et utile.

5.   Contrôler et agir

5.1.

Le large impact de l’IA sur la société ne peut pas encore être pleinement évalué. Tout le monde s’accorde toutefois pour dire que cet impact sera majeur. Aujourd’hui, les avancées en matière d’IA se succèdent rapidement, ce qui rend un contrôle critique et global nécessaire pour pouvoir appréhender de manière adéquate et opportune les évolutions décisives et de rupture, de nature tant technique que sociale, susceptibles de changer la donne dans le développement de l’IA ou autour de celui-ci.

5.2.

Ces évolutions décisives sur le plan technique peuvent être définies comme des avancées notables ou significatives dans le développement de compétences d’IA, qui pourraient constituer des éléments précurseurs d’une IA générale. Les évolutions décisives sur le plan social peuvent être associées à une perte massive d’emplois sans perspective d’emplois de substitution, à des situations précaires, des défaillances du système, une évolution inattendue sur le plan international, etc.

5.3.

Les décideurs politiques, l’industrie, les partenaires sociaux, les consommateurs, les ONG, les établissements de soins et d’enseignement, ainsi que les universitaires et experts de diverses disciplines (y compris l’IA, appliquée ou non, l’éthique, la sécurité, l’économie, les sciences du travail, le droit, les sciences du comportement, la psychologie et la philosophie) doivent assurer conjointement un suivi attentif des développements en matière d’IA et recenser régulièrement ces éléments qui changent la donne de manière à pouvoir prendre le moment venu les mesures appropriées, sous la forme de politiques, de législation et de réglementation, d’autorégulation et de dialogue social.

5.4.

En tant que représentant de la société civile européenne, le CESE s’attellera, au cours de la période à venir, à lancer, centraliser et susciter ce débat entre de multiples parties prenantes sur le thème de l’IA.

Bruxelles, le 31 mai 2017.

Le président du Comité économique et social européen

Georges DASSIS


(1)  JO C 13 du 15.1.2016, p. 161.


Top