This document is an excerpt from the EUR-Lex website
Document 52018IE1473
Opinion of the European Economic and Social Committee on ‘Artificial intelligence: anticipating its impact on work to ensure a fair transition’ (own-initiative opinion)
Avis du Comité économique et social européen sur «L’intelligence artificielle: anticiper ses impacts sur le travail pour assurer une transition équitable» (avis d’initiative)
Avis du Comité économique et social européen sur «L’intelligence artificielle: anticiper ses impacts sur le travail pour assurer une transition équitable» (avis d’initiative)
EESC 2018/01473
JO C 440 du 6.12.2018, p. 1–7
(BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)
6.12.2018 |
FR |
Journal officiel de l'Union européenne |
C 440/1 |
Avis du Comité économique et social européen sur «L’intelligence artificielle: anticiper ses impacts sur le travail pour assurer une transition équitable»
(avis d’initiative)
(2018/C 440/01)
Rapporteure: |
Franca SALIS-MADINIER |
Décision de l’assemblée plénière |
15.2.2018 |
Base juridique |
Article 29, paragraphe 2, du règlement intérieur |
Compétence |
Section spécialisée «Marché unique, production et consommation» |
Adoption en section spécialisée |
4.9.2018 |
Adoption en session plénière |
19.9.2018 |
Session plénière no |
537 |
Résultat du vote (pour/contre/abstentions) |
183/1/2 |
1. Conclusions et recommandations
1.1. |
L’intelligence artificielle (IA) et la robotique vont élargir et amplifier les effets de la digitalisation de l’économie sur les marchés du travail (1). De tout temps, le progrès technique a eu une influence sur le travail et l’emploi, nécessitant des formes nouvelles d’encadrement social et sociétal. Le CESE est persuadé que le développement technologique peut contribuer au progrès économique et social. Mais il estime qu’il serait erroné d’en négliger les effets globaux sur la société. Dans le monde du travail, l’IA va élargir et amplifier la portée de l’automatisation des emplois (2). C’est pourquoi le CESE souhaite contribuer à la préparation des transformations sociales qui accompagneront l’essor de l’IA et de la robotique par un renforcement et un renouvellement du modèle social européen. |
1.2. |
Le CESE tient à souligner les potentialités de l’IA et de ses applications, en particulier dans les domaines des soins de santé, de la sécurité dans les transports et l’énergie, de la lutte contre le changement climatique, de l’anticipation des menaces en matière de cybersécurité. L’Union européenne, les gouvernements et les organisations de la société civile ont un rôle important à jouer pour exploiter pleinement les bénéfices que l’IA peut apporter, en particulier aux personnes porteuses de handicap, à mobilité réduite, ainsi qu’aux personnes âgées et aux malades chroniques. |
1.3. |
Cependant, l’Union européenne manque de données sur l’économie numérique et la transformation sociale qui en résulte. Le CESE recommande d’améliorer les outils statistiques et la recherche, en particulier sur l’IA, l’utilisation des robots industriels et de services, l’internet des objets, ainsi que sur les nouveaux modèles économiques (l’économie de plateforme, les nouvelles formes d’emploi et de travail). |
1.4. |
Le CESE demande que la Commission européenne promeuve et soutienne la réalisation d’études au niveau des comités de dialogue social sectoriel européens sur les impacts sectoriels de l’IA et de la robotique et, plus largement, de la numérisation de l’économie. |
1.5. |
Il est admis que l’IA et la robotique vont déplacer et transformer des emplois, en supprimer certains et en créer d’autres. Dans tous les cas, l’Union européenne doit garantir l’accès de tous les travailleurs, salariés et indépendants ou faux indépendants, à la protection sociale, conformément au socle européen des droits sociaux. |
1.6. |
La Commission a proposé de renforcer le Fonds européen d’ajustement à la mondialisation afin d’en faire bénéficier notamment les salariés qui perdent leur emploi et les indépendants en cessation d’activité en raison de la numérisation de l’économie (3). Le CESE y voit une étape vers la mise en place d’un véritable Fonds européen de transition qui contribuerait à la gestion socialement responsable de la transformation numérique. |
1.7. |
Le CESE recommande d’appliquer et de renforcer les principes, engagements et obligations énoncés dans les textes existants adoptés par les institutions européennes, ainsi que par les partenaires sociaux, sur l’information et la consultation des travailleurs (4), en particulier lors de l’introduction de nouvelles technologies dont l’IA et la robotique. Le CESE appelle de ses vœux un programme européen inclusif de l’IA bâti sur ces textes et sur le socle européen des droits sociaux, impliquant toutes les parties prenantes. |
1.8. |
Le CESE recommande que les lignes directrices en matière d’éthique sur l’IA que la Commission va élaborer, formulent une frontière claire dans l’interaction travailleurs-machines intelligentes, afin que l’humain ne devienne jamais l’exécutant de la machine. Dans l’esprit d’une IA inclusive, ces lignes directrices doivent établir des principes de participation, de responsabilité, d’appropriation des processus de production afin que, comme le souligne la constitution de l’OIT, le travail procure à ceux qui l’exercent la satisfaction de donner toute la mesure de leur habileté et de leurs connaissances et de contribuer le mieux au bien-être commun. |
1.9. |
Le CESE recommande également que ces lignes directrices incluent des principes de transparence dans l’utilisation des systèmes d’IA pour le recrutement, l’évaluation et le contrôle managérial des travailleurs, ainsi que des principes de santé-sécurité et d’amélioration des conditions de travail. Enfin, elles doivent assurer la protection des droits et libertés concernant le traitement des données des travailleurs, dans le respect des principes de non-discrimination. |
1.10. |
La mise en œuvre des lignes directrices en matière d’éthique dans le domaine de l’IA doit faire l’objet d’un suivi. Un Observatoire européen pour l’éthique dans les systèmes d’IA pourrait se voir attribuer ce rôle de veille ou de vigilance, y compris en entreprise. |
1.11. |
Le CESE recommande de former à l’éthique les ingénieurs et concepteurs de machines intelligentes afin d’éviter de mettre en place de nouvelles formes de «taylorisme numérique», où l’humain serait relégué à l’exécution des consignes des machines. La diffusion de bonnes pratiques et les échanges d’expériences en ce domaine sont à promouvoir. |
1.12. |
Le CESE demande de clarifier le principe de responsabilité légale. Dans la relation entre l’homme et la machine, les risques émergents en matière de santé et de sécurité doivent faire l’objet d’une approche plus ambitieuse dans le cadre de la directive sur la responsabilité des produits (5). |
1.13. |
Face au risque de polarisation sociale dans la transformation numérique, le CESE appelle les institutions de l’Union européenne à lancer le débat sur la question du financement des budgets publics et des systèmes de protection sociale, dans une économie où croît la densité robotique (6), alors même que l’impôt sur le travail reste la principale source de recettes fiscales en Europe. Pour appliquer le principe d’équité, ce débat devrait utilement inclure la question de la redistribution des bénéfices de la numérisation. |
2. Introduction
2.1. |
L’IA a connu des développements inégaux depuis l’apparition de ce concept en 1956, et tout au long de la seconde moitié du XXe siècle. Elle a suscité tour à tour de grands espoirs et de grandes désillusions. Mais elle connaît depuis quelques années un nouvel essor important rendu possible grâce à la collecte, à l’organisation et au stockage d’une quantité inédite de données («big data») dans l’histoire de l’humanité et à l’augmentation exponentielle de la puissance de calcul des ordinateurs et des capacités des algorithmes. |
2.2. |
Le CESE a élaboré un avis sur l’IA en 2017 (7), où de nombreux enjeux sont abordés. Comme souligné dans cet avis, il n’existe pas de définition précise de l’IA. Pour les besoins du présent avis, nous considérons l’IA comme une discipline visant à utiliser les technologies numériques pour créer des systèmes capables de reproduire de manière autonome les fonctions cognitives humaines, incluant en particulier l’appréhension de données, une forme de compréhension et d’adaptation (résolution de problèmes, raisonnements et apprentissage automatiques). |
2.3. |
Les systèmes d’IA sont aujourd’hui à même de résoudre des problèmes complexes, parfois hors d’atteinte de l’intelligence humaine. Les applications semblent potentiellement innombrables, tant dans les secteurs de la banque, des assurances, des transports, des soins de santé, de l’éducation, de l’énergie, du marketing, de la défense, que dans les secteurs de l’industrie, de la construction, de l’agriculture, de l’artisanat, etc. (8). On attend de l’IA une amélioration de l’efficience des processus de production de biens et de services, une stimulation de la rentabilité des entreprises et une contribution à la croissance économique. |
2.4. |
Ce nouvel essor de l’IA fait aussi resurgir de nombreuses questions quant à son rôle potentiel dans la société, son degré d’autonomie et son interaction avec l’être humain. Comme souligné dans l’avis du CESE sur l’IA adopté en 2017 (9), ces questions portent notamment sur l’éthique, la sécurité, la transparence, la vie privée et les normes du travail, l’éducation, l’accessibilité, la législation et la réglementation, la gouvernance et la démocratie. |
2.5. |
Il convient de croiser les différentes approches dans la discussion sur l’IA pour sortir ce débat de l’ornière économique dans lequel il s’enlise parfois. Un tel cadre multidisciplinaire serait utile dans l’analyse des impacts de l’IA sur le monde du travail, car celui-ci est l’un des principaux lieux d’interaction entre l’humain et la machine. De tout temps, le travail a été impacté par la technique. Les effets de l’IA sur l’emploi et le travail requièrent dès lors une attention particulière au niveau politique car les institutions ont notamment pour rôle de rendre les processus de transformation économique socialement soutenables (10). |
2.6. |
L’objectif du présent avis d’initiative est de mettre en évidence les enjeux de l’IA sur le travail, y compris sur sa nature, sur les conditions de travail et sur son organisation. Comme déjà souligné par le CESE (11), il convient d’améliorer les statistiques et la recherche pour pouvoir établir des prévisions précises quant à l’évolution des marchés du travail, ainsi que des indicateurs clairs concernant certaines tendances relatives notamment à la qualité du travail, à la polarisation des emplois et des revenus, aux conditions de travail dans la transformation numérique. L’Union européenne manque de données sur l’économie dite «collaborative», les plateformes de travail à la demande, les nouveaux modèles de sous-traitance en ligne, ainsi que sur l’utilisation des robots industriels et de services à la personne, sur l’internet des objets, sur l’usage et la diffusion des systèmes d’IA. |
3. IA et évolution du volume de l’emploi
3.1. |
La question de l’impact sur le volume de l’emploi de l’introduction de l’IA et de la robotique dans les processus de production est controversée. Nombre d’études ont tenté de répondre à cette question sans parvenir à un consensus scientifique. La diversité de leurs résultats (allant de 9 % à 54 % d’emplois menacés (12)) reflète la complexité des choix méthodologiques et leurs impacts déterminants sur les résultats de la recherche. |
3.2. |
Les prévisions sont incertaines car d’autres facteurs que le potentiel technique d’automatisation interviennent: évolutions politiques, réglementaires, économiques, démographiques, ainsi que l’acceptabilité sociale. Il ne suffit pas que la technologie soit au point pour en garantir l’usage et la diffusion. |
3.3. |
Enfin, il demeure impossible de prédire un bilan net des emplois automatisables dans chaque secteur sans tenir compte de la transformation des métiers et du rythme de création de nouveaux emplois. Le développement des systèmes de l’IA nécessitera en effet de nouveaux emplois en ingénierie, informatique et télécommunication (ingénieurs, techniciens et opérateurs), ainsi qu’en mégadonnées («big data»): délégués aux données, analystes de données, explorateurs de données, etc. |
3.4. |
Le rôle des institutions publiques sera d’assurer la soutenabilité sociale de cette transformation numérique, qui pourra affecter à la fois la quantité et la qualité des emplois (13). L’un des risques soulignés par les experts est celui d’une polarisation des emplois entre les «superstars» d’un côté, qui possèdent les qualifications utiles à l’économie numérique, et les «perdants» de l’autre, dont les qualifications, l’expérience et le savoir-faire seront progressivement rendus obsolètes par cette transformation. Dans sa récente communication (14), la Commission européenne propose une réponse à ce défi portant pour l’essentiel sur les efforts d’éducation, de formation, d’amélioration des compétences de base en écriture, lecture et calcul, ainsi que des compétences numériques. Cette réponse mérite le soutien des acteurs économiques et sociaux, notamment dans le cadre du dialogue social national, européen, interprofessionnel et sectoriel (15). |
3.5. |
Le CESE considère cependant que de tels efforts ne suffiront pas à répondre à l’ensemble des enjeux, en particulier à l’incertitude dans l’évolution des emplois. Trois pistes complémentaires méritent d’être développées: celle d’une IA «inclusive», celle de l’anticipation des changements, et enfin celle, lorsque des plans sociaux sont rendus inévitables, des restructurations socialement responsables et encadrées. |
4. IA et robotisation inclusives et intelligentes
4.1. |
Le CESE soutient le principe d’un programme d’IA et de robotisation inclusives. Cela signifie que lorsque, dans les entreprises, on introduit de nouveaux processus faisant appel aux nouvelles technologies, il serait utile d’impliquer les travailleurs dans les modalités de fonctionnement de ces processus. Comme le note le WRR (16), l’introduction «inclusive et intelligente» de nouvelles technologies, où les travailleurs restent au centre des processus et participent à leur amélioration, peut contribuer à favoriser l’amélioration des processus de production (17). |
4.2. |
Étant donné le rôle que les algorithmes jouent sur les conditions de recrutement, de travail et d’évaluation professionnelle, le CESE appuie le principe de transparence algorithmique, qui ne consiste pas à dévoiler les codes mais à rendre intelligibles les paramètres et critères des décisions qui sont prises. Le recours humain doit toujours être possible. |
4.3. |
Une IA qui met au centre le travailleur prend en compte les avis des personnes qui seront appelées à travailler dans le cadre des nouveaux processus technologiques, définit clairement les tâches et les responsabilités qui resteront aux mains des travailleurs, maintient des formes d’appropriation du travail par les travailleurs afin que ceux-ci ne deviennent pas de simples exécutants. |
4.4. |
Le principe de responsabilité légale doit être clarifié. Les robots industriels ou de services collaborent de plus en plus avec l’humain. L’IA permet aux robots de «sortir de leur cages», et des accidents peuvent survenir (18). C’est pourquoi les responsabilités des systèmes autonomes en cas d’accident doivent être clairement établies; et les risques en matière de santé et sécurité encourus par les travailleurs doivent pouvoir être couverts. La Commission européenne amorce une réflexion sur ces risques émergents dans le cadre de la directive sur la responsabilité des produits (19). En ce qui concerne la sécurité au travail, cette approche doit se montrer plus ambitieuse. |
4.5. |
Le principe d’équité appliqué au monde du travail consiste à ne pas déposséder le travailleur de son travail. Certains experts soulignent le risque que l’IA contribue à une forme de déqualification des travailleurs. C’est pourquoi il faut veiller à ce que, selon les termes de la constitution de l’OIT, le travail procure à ceux qui l’exercent la satisfaction de donner toute la mesure de leur habileté et de leurs connaissances et de contribuer le mieux au bien-être commun. D’un point de vue managérial, c’est aussi une manière de maintenir la motivation au travail |
5. Anticipation du changement
5.1. |
De nombreuses études ont noté au cours de ces dernières années un affaiblissement du dialogue social européen, et parfois national, et ce malgré la volonté de «relance» exprimée par la Commission et le Conseil européen. Ce dialogue social est pourtant l’un des outils les plus adaptés pour faire face aux défis sociaux de la numérisation. C’est pourquoi le CESE plaide avec force pour que dans les entreprises et à tous les niveaux pertinents, ce dialogue soit une pratique constante en vue de préparer les transformations d’une manière socialement acceptable. Le CESE rappelle que le dialogue social est l’un des meilleurs garants de la paix sociale et de la réduction des inégalités. Au-delà des déclarations politiques de relance, les institutions de l’Union européenne ont une responsabilité forte d’encourager et d’alimenter ce dialogue social. |
5.2. |
En particulier lorsqu’il s’agit de l’introduction de ces technologies, ce dialogue doit permettre de connaître les perspectives de transformation des processus de production au niveau des entreprises et des secteurs et d’apprécier les nouveaux besoins en termes de qualifications et de formation, mais aussi de réfléchir en amont à l’utilisation de l’IA pour améliorer les processus organisationnels et de production, augmenter les qualifications des travailleurs et optimiser les ressources dégagées par l’IA pour développer de nouveaux produits et services, ou pour améliorer la qualité du service client. |
5.3. |
Restructurations socialement responsables |
5.4. |
Dans le cas où des plans sociaux sont jugés inévitables, les enjeux portent sur la gestion sociale de ces restructurations. Comme l’ont souligné les partenaires sociaux européens dans leurs «Orientations de référence pour gérer le changement et ses conséquences sociales» (20), de nombreuses études de cas soulignent l’importance de rechercher toutes les alternatives possibles aux licenciements telles que la formation, la reconversion, le soutien à la création d’entreprises. |
5.5. |
En cas de restructurations, l’information et la consultation des travailleurs doivent permettre, conformément aux directives européennes y afférentes (21), de favoriser l’anticipation des risques, de faciliter l’accès des travailleurs à la formation au sein de l’entreprise, de rendre l’organisation du travail plus flexible tout en préservant la sécurité, de promouvoir l’association des travailleurs à la marche et à l’avenir de l’entreprise. |
5.6. |
Enfin, comme le souligne très justement la Commission européenne, l’Union européenne doit garantir l’accès de tous les citoyens, y compris des salariés et des travailleurs indépendants ou des faux-indépendants, à la protection sociale«quels que soient le type et la durée de la relation de travail», conformément au socle européen des droits sociaux (22). |
6. IA et évolution des conditions de travail
6.1. |
Le 25 avril 2018, la Commission européenne a proposé une «approche européenne» pour promouvoir des politiques d’investissement dans le développement de l’IA et mettre en place des lignes directrices en matière d’éthique. Elle souligne le potentiel de transformation de nos sociétés par les technologies de l’IA surtout dans les secteurs du transport, des soins de santé et de l’industrie manufacturière. |
6.2. |
Ce potentiel de transformation s’exprime dans les processus de production et a également un impact sur le contenu du travail. Cet impact peut se révéler positif, en particulier dans la manière dont l’IA peut améliorer ces processus et la qualité du travail. Les mêmes effets positifs peuvent rejaillir sur les organisations de travail «flexibles» où le partage du pouvoir de décision est plus important, ainsi que l’autonomie des équipes, la polyvalence, l’organisation horizontale, les pratiques innovantes et participatives (23). |
6.3. |
Comme le soulignent le CESE (24) et la Commission elle-même, l’IA peut aider les travailleurs dans des tâches répétitives, ardues, voire dangereuses, et certaines applications de l’IA peuvent améliorer le bien-être des salariés et faciliter leur quotidien. |
6.4. |
Mais cette vision s’accompagne de nouvelles questions, en particulier en ce qui concerne l’interaction entre l’IA et le travailleur, et l’évolution du contenu du travail. Dans les usines, les entreprises et les bureaux, jusqu’à quel point les machines intelligentes seront-elles autonomes et quelles seront les formes de complémentarité avec le travail humain? Le CESE souligne que dans le nouveau monde du travail, la définition de la relation de l’homme avec la machine est primordiale. Une approche centrée sur le contrôle de l’homme sur la machine est fondamentale (25). |
6.5. |
A priori, il n’est pas éthiquement acceptable qu’un être humain soit contraint par l’IA ou qu’il soit considéré comme un exécutant de la machine qui lui dicterait les tâches à accomplir, la manière de les accomplir et les délais dans lesquels ces tâches doivent être exécutées. Pourtant, cette frontière éthique semble parfois dépassée (26). C’est pourquoi il convient de formuler clairement cette frontière éthique dans les lignes directrices de l’IA en matière d’éthique. |
6.6. |
Éviter de reproduire aujourd’hui de nouvelles formes de «taylorisme numérique» orchestré par les développeurs des machines intelligentes, doit être une priorité pour l’Union européenne. C’est pourquoi, comme l’a récemment affirmé le CESE, les chercheurs, ingénieurs, concepteurs et entrepreneurs européens qui contribuent au développement et à la commercialisation de systèmes d’IA, doivent agir selon des critères de responsabilité éthique et sociale. L’intégration de l’éthique et des sciences humaines dans le cursus de formation d’ingénieur peut être une bonne réponse face à cet impératif (27). |
6.7. |
Une autre question concerne la surveillance et le contrôle managérial. Tout le monde s’accorde sur la nécessité d’une surveillance raisonnée des processus de production et donc aussi du travail effectué. Aujourd’hui, de nouveaux outils technologiques permettent, potentiellement, de mettre en place des systèmes intelligents de contrôle total en temps réel des travailleurs, avec le risque d’une surveillance et d’un contrôle qui deviendraient disproportionnés. |
6.8. |
La question du caractère raisonnable et proportionné du contrôle de l’exécution du travail et des indicateurs de performance, de la relation de confiance entre manager et managé, est un sujet qui mérite également de figurer à l’ordre du jour du dialogue social national, européen, interprofessionnel et sectoriel. |
6.9. |
La question des biais des algorithmes et des données d’apprentissage et les possibles effets pervers de discrimination, demeurent controversés. Pour certains, les algorithmes et autres logiciels de recrutement prédictifs peuvent réduire les discriminations à l’embauche et favoriser des recrutements plus «intelligents». Pour d’autres, les logiciels de recrutement risquent toujours de refléter, même involontairement, les biais des programmeurs de ces robots-recruteurs. Selon certains experts, les modèles algorithmiques ne seraient jamais que des opinions enrobées dans des mathématiques (28). C’est pourquoi il faut à la fois veiller à ce qu’un recours humain soit possible (en lien avec le principe de transparence développé ci-dessus: droit de demander les critères de décision), et veiller à ce que la collecte des données et leur traitement répondent aux principes de proportionnalité et de finalité. Dans tous les cas, les données ne peuvent être utilisées à d’autres fins que celles pour lesquelles elles ont été collectées (29). |
6.10. |
La possibilité offerte par le règlement général sur la protection des données aux États membres de prévoir, par la loi ou au moyen de conventions collectives, des règles plus spécifiques pour assurer la protection des droits et libertés en ce qui concerne le traitement des données à caractère personnel des employés dans le cadre des relations de travail, est un véritable levier dont les États et les partenaires sociaux doivent se saisir (30). |
6.11. |
Il convient de noter ici que les risques ne concernent pas seulement les travailleurs salariés. Le développement de la sous-traitance en ligne, du travail sur plateforme, des différentes formes de travail participatif s’accompagne lui aussi de nouveaux systèmes de management automatisé des performances et de l’assiduité, dont les limites éthiques semblent parfois franchies (activation de la webcam du travailleur par la plateforme, capture d’écran à distance, etc.). |
6.12. |
Souvent, les algorithmes de ces plateformes, qui définissent entre autres les rémunérations du travailleur indépendant, sa réputation numérique, ses possibilités d’accès aux tâches, sont opaques. Leurs modes de fonctionnement ne sont pas expliqués aux travailleurs qui n’ont pas accès aux critères de fonctionnement qui leur sont appliqués. |
7. Préparer une transition juste
7.1. |
À moyen terme, le risque de polarisation sociale souligné par de nombreux experts appelle une réflexion de fond sur l’avenir de nos modèles sociaux, y compris de leur financement. Le CESE demande à la Commission de lancer un débat sur la question de l’impôt et du financement des budgets publics et des systèmes collectifs de protection sociale dans une économie où la densité robotique s’accroît rapidement (31), alors même que l’impôt sur le travail reste la principale source de recettes fiscales en Europe. Ce débat devrait inclure la question de la redistribution des dividendes de la numérisation. |
7.2. |
La Commission propose de renforcer le Fonds européen d’ajustement à la mondialisation (FEM) et, entre autres, d’en faire bénéficier les travailleurs salariés qui verraient leur emploi disparaître ainsi que les indépendants en cessation d’activité en raison de la digitalisation de l’économie (numérisation, automatisation) (32). Le CESE y voit une étape vers la mise en place d’un véritable Fonds européen de transition contribuant à l’anticipation et la gestion socialement responsable de la transformation numérique et des restructurations qu’elle impliquera. |
7.3. |
Les aspects sociaux et, plus largement, sociétaux de l’IA font de plus en plus l’objet de débats nationaux. Les discussions récentes au Parlement britannique (33) et au Sénat français ont mis en évidence la nécessité de promouvoir une approche éthique de l’IA, qui serait fondée sur un certain nombre de principes tels que la loyauté, la transparence et l’explicabilité des systèmes algorithmiques, l’éthique et la responsabilité des applications de l’IA, la sensibilisation des chercheurs, experts et spécialistes à la potentielle mauvaise utilisation des résultats de leurs recherches. En France, le rapport Villani se présente comme voulant «donner un sens» à l’IA (34). De nombreux experts des universités de Yale, de Stanford, de Cambridge et d’Oxford mettent en garde contre les «vulnérabilités non résolues» de l’IA et font valoir l’impérative nécessité de les prévoir, de les prévenir et de les atténuer (35). De même, les Fonds de recherche du Québec (FRQ), en partenariat avec l’Université de Montréal, se penchent depuis quelques mois sur un projet d’Observatoire mondial sur les impacts sociétaux de l’IA et du numérique (36). |
7.4. |
Toutes ces initiatives montrent la nécessité de sortir le débat sur l’IA de ses ornières économiques et techniques, et d’étendre les délibérations publiques sur le rôle de l’IA que la société veut voir jouer, y compris dans le monde du travail. De telles délibérations permettront d’échapper au piège de la «fausse dichotomie» entre une vision totalement naïve et optimiste de l’IA et de ses effets, et une vision catastrophiste (37). Que ces débats soient lancés au niveau national est une première étape utile mais l’Union européenne a également un rôle à jouer, en particulier par la définition de lignes directrices en matière d’éthique, comme la Commission a commencé de le faire. |
7.5. |
La question de la mise en œuvre de ces lignes directrices devra être confiée à un Observatoire dédié à l’éthique des systèmes d’IA. Il s’agit de mettre l’IA et ses applications au service du bien-être et de l’émancipation des citoyens et des travailleurs, dans le cadre du respect des droits fondamentaux, et d’éviter qu’elles ne contribuent directement ou indirectement à des processus de désappropriation, de désapprentissage et de déqualification et de perte d’autonomie. Le principe de «l’humain aux commandes» dans tous les contextes, dont celui du travail, doit trouver des applications concrètes. |
7.6. |
Ce principe doit également s’appliquer à d’autres secteurs d’activité, comme les professionnels de santé, qui fournissent des services étroitement liés à la vie, à la santé, à la sécurité et à la qualité de vie des êtres humains. Seules des règles éthiques strictes seront en mesure de garantir que non seulement les travailleurs, mais aussi les consommateurs, les patients, les clients et les autres prestataires de services, pourront pleinement bénéficier des nouvelles applications d’IA. |
Bruxelles, le 19 septembre 2018.
Le président du Comité économique et social européen
Luca JAHIER
(1) Acemoglu, D., Restrepo, P. (2018), «Artificial Intelligence, Automation and Work», NBER Working Paper 24196, January 2018. Voir aussi: Conseil d’orientation pour l’emploi (2017), Automatisation, numérisation et emploi. (Tome 1) (www.coe.gouv.fr).
(2) Acemoglu, D., op.cit.; Conseil d’orientation pour l’emploi (2017), op. cit.
(3) COM(2018) 380 final.
(4) Directive 2002/14/CE; Déclaration commune d’intention UNICE-CES-CEEP sur le dialogue social et les nouvelles technologies, 1985; Avis commun des partenaires sociaux sur les nouvelles technologies, l’organisation du travail et l’adaptabilité du marché du travail, 1991; Orientations de référence pour gérer le changement et ses conséquences sociales, 2003.
(5) COM(2018) 246 final.
(6) https://ifr.org/ifr-press-releases/news/robots-double-worldwide-by-2020
(7) JO C 288 du 31.8.2017, p. 1.
(8) Voir notamment: https://www.techemergence.com
(9) JO C 288 du 31.8.2017, p. 1.
(10) Eurofound (2018), Automation, digitalisation and platforms: Implications for work and employment, Office des publications de l’Union européenne, Luxembourg.
(11) JO C 13 du 15.1.2016, p. 161.
(12) Frey et Osborne, 2013; Bowles, 2014; Arntz, Gregory et Zierahn, 2016; Le Ru, 2016; McKinsey, 2016; OCDE, 2017; voir aussi l’avis exploratoire CCMI/136, JO C 13 du 15.1.2016, p. 161.
(13) http://www.oecd.org/fr/emploi/avenir-du-travail/
(14) COM(2018) 237 final.
(15) JO C 367 du 10.10.2018, p. 15.
(16) Conseil scientifique néerlandais pour la politique gouvernementale.
(17) https://english.wrr.nl/latest/news/2015/12/08/wrr-calls-for-inclusive-robot-agenda
(18) Voir les travaux sur les «risques émergents» de l’Agence européenne pour la sécurité et la santé au travail (https://osha.europa.eu/fr/emerging-risks). Selon l’Agence, «les approches et les normes techniques actuelles visant à protéger les employés contre les risques du travail avec des robots collaboratifs devront être revues dans la perspective de ces évolutions».
(19) COM(2018) 246 final.
(20) Texte conjoint UNICE, CEEP, UEAPME et CES, 16.10.2003.
(21) Directive 2002/14/CE établissant un cadre général relatif à l’information et la consultation des travailleurs dans l’Union européenne.
(22) JO C 303 du 19.8.2016, p. 54; JO C 173 du 31.5.2017, p. 15; JO C 129 du 11.4.2018, p. 7; JO C 434 du 15.12.2017, p. 30.
(23) JO C 434 du 15.12.2017, p. 30.
(24) JO C 367 du 10.10.2018, p. 15.
(25) JO C 288 du 31.8.2017, p. 1; JO C 367 du 10.10.2018, p. 15.
(26) Plusieurs médias européens se sont fait l’écho des conditions de travail dans certains centres logistiques où les travailleurs sont entièrement sous la coupe d’algorithmes qui leur indiquent les tâches à accomplir dans des temps déterminés, et où leurs performances sont mesurées en temps réels.
(27) JO C 367 du 10.10.2018, p. 15.
(28) Cathy O’Neil, Harvard PhD and data scientist, «Models are opinions embedded in mathematics» (https://www.theguardian.com/books/2016/oct/27/cathy-oneil-weapons-of-math-destruction-algorithms-big-data).
(29) Voir notamment les travaux de la CNIL en France («Comment permettre à l’homme de garder la main? Les enjeux éthiques des algorithmes et de l’intelligence artificielle»,
https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_main_web.pdf).
(30) Règlement (UE) 2016/679 (article 88).
(31) https://ifr.org/ifr-press-releases/news/robots-double-worldwide-by-2020
(32) COM(2018) 380 final.
(33) https://www.parliament.uk/ai-committee
(34) http://www.enseignementsup-recherche.gouv.fr/cid128577/rapport-de-cedric-villani-donner-un-sens-a-l-intelligence-artificielle-ia.html
(35) https://www.eff.org/files/2018/02/20/malicious_ai_report_final.pdf
(36) http://nouvelles.umontreal.ca/article/2018/03/29/le-quebec-jette-les-bases-d-un-observatoire-mondial-sur-les-impacts-societaux-de-l-ia/
(37) Acemoglu, D., op.cit. Voir aussi Eurofound 2018, Automation, digitalisation and platforms: Implications for work and employment, Publications Office of the European Union, Luxembourg, p. 23: «The risks comprise unwarranted optimism, undue pessimism and mistargeted insights».