Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52018IE1473

    Parecer do Comité Económico e Social Europeu sobre «Inteligência artificial: antecipar o seu impacto no trabalho para assegurar uma transição justa» (parecer de iniciativa)

    EESC 2018/01473

    JO C 440 de 6.12.2018, p. 1–7 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    6.12.2018   

    PT

    Jornal Oficial da União Europeia

    C 440/1


    Parecer do Comité Económico e Social Europeu sobre «Inteligência artificial: antecipar o seu impacto no trabalho para assegurar uma transição justa»

    (parecer de iniciativa)

    (2018/C 440/01)

    Relatora:

    Franca SALIS-MADINIER

    Decisão da plenária

    15.2.2018

    Base jurídica

    Artigo 29.o, n.o 2, do Regimento

    Competência

    Secção Especializada do Mercado Único, Produção e Consumo

    Adoção em secção

    4.9.2018

    Adoção em plenária

    19.9.2018

    Reunião plenária n.o

    537

    Resultado da votação

    (votos a favor/votos contra/abstenções)

    183/1/2

    1.   Conclusões e recomendações

    1.1.

    A inteligência artificial (IA) e a robótica vão alargar e amplificar os efeitos da digitalização da economia nos mercados de trabalho (1). O progresso técnico tem tido, desde sempre, uma influência no trabalho e no emprego, obrigando a desenvolver novas formas de enquadramento social e societal. O CESE está convicto de que o desenvolvimento tecnológico pode contribuir para o progresso económico e social, mas considera que seria um erro negligenciar o seu impacto global na sociedade. No mundo do trabalho, a IA vai alargar e amplificar o grau de automatização dos postos de trabalho (2). Por este motivo, o CESE deseja contribuir para a preparação para as transformações sociais que acompanharão o crescimento da IA e da robótica mediante um reforço e a renovação do modelo social europeu.

    1.2.

    O CESE faz questão de sublinhar o potencial da IA e das suas aplicações, em especial nos domínios dos cuidados de saúde, da segurança nos transportes, da energia, da luta contra as alterações climáticas e da antecipação dos riscos em matéria de cibersegurança. A União Europeia, os governos e as organizações da sociedade civil têm um importante papel a desempenhar para tirar pleno partido dos benefícios potenciais da IA, em especial para as pessoas com deficiência ou com mobilidade reduzida, assim como para os idosos e para os doentes crónicos.

    1.3.

    A UE carece de dados sobre a economia digital e a transformação social que dela resulta. O CESE recomenda que sejam melhorados os instrumentos estatísticos e a investigação, em especial nos domínios da IA, da utilização dos robôs industriais e de serviços, da Internet das coisas, bem como dos novos modelos económicos (economia de plataformas, novas formas de emprego e de trabalho).

    1.4.

    O CESE solicita à Comissão Europeia que promova e apoie a realização de estudos ao nível dos comités europeus de diálogo social setorial sobre os impactos setoriais da IA e da robótica e, mais amplamente, da digitalização da economia.

    1.5.

    É sabido que a IA e a robótica vão deslocar e transformar determinados postos de trabalho, suprimir alguns e criar outros. Em qualquer dos casos, a UE deve garantir que todos os trabalhadores, os trabalhadores por conta de outrem e por conta própria ou os falsos trabalhadores independentes têm acesso à proteção social, em conformidade com o Pilar Europeu dos Direitos Sociais.

    1.6.

    A Comissão propôs o reforço do Fundo Europeu de Ajustamento à Globalização para que este possa beneficiar, em particular, os trabalhadores despedidos e os trabalhadores por conta própria cuja atividade tenha cessado devido à digitalização da economia (3). Para o CESE, esta é uma etapa no sentido da criação de um verdadeiro fundo europeu de transição, que contribua para a gestão socialmente responsável da transformação digital.

    1.7.

    O CESE recomenda que sejam aplicados e reforçados os princípios, os compromissos e as obrigações previstos nos textos existentes adotados pelas instituições europeias, bem como pelos parceiros sociais, sobre a informação e a consulta dos trabalhadores (4), em particular na introdução de novas tecnologias, como a IA e a robótica. O CESE apela para o lançamento de um programa europeu abrangente para a IA assente nesses textos e no Pilar Europeu dos Direitos Sociais que associe todas as partes interessadas.

    1.8.

    O CESE recomenda que as orientações que a Comissão tenciona elaborar em matéria de ética para a IA estabeleçam limites claros nas interações entre os trabalhadores e as máquinas inteligentes, para que os seres humanos nunca estejam ao serviço das máquinas. No espírito de uma IA inclusiva, essas orientações devem definir princípios para a participação, a responsabilidade e a apropriação dos processos de produção, para que, como salienta a Constituição da OIT, o trabalho proporcione a quem o exerce a satisfação de demonstrar todas as suas capacidades e todos os seus conhecimentos e de contribuir da melhor maneira para o bem comum.

    1.9.

    O CESE recomenda igualmente que essas orientações incluam princípios de transparência na utilização de sistemas de IA para o recrutamento, a avaliação e a gestão administrativa dos trabalhadores, assim como princípios em matéria de saúde, segurança e melhoria das condições de trabalho. Por último, devem assegurar a proteção dos deveres e das liberdades relativas ao tratamento dos dados dos trabalhadores, no respeito dos princípios da não discriminação.

    1.10.

    A aplicação das orientações sobre as questões de ética no domínio da IA deve ser acompanhada, e esse papel de acompanhamento ou de vigilância poderá ser atribuído a um observatório europeu para a ética nos sistemas de IA, inclusivamente nas empresas.

    1.11.

    O CESE recomenda igualmente que os engenheiros e os criadores de máquinas inteligentes recebam formação no domínio da ética, para evitar que surjam novas formas de «taylorismo digital» em que o ser humano fique relegado para a execução das instruções das máquinas. Devem ser promovidas a divulgação de boas práticas e a partilha de experiências neste domínio.

    1.12.

    O CESE solicita que seja clarificado o princípio da responsabilidade jurídica. Nas relações entre o ser humano e a máquina, os riscos emergentes em matéria de saúde e de segurança devem ser objeto de uma abordagem mais ambiciosa no âmbito da Diretiva em matéria de responsabilidade decorrente dos produtos (5).

    1.13.

    Face ao risco de polarização social na transformação digital, o CESE convida as instituições da UE a lançar o debate sobre a questão do financiamento dos orçamentos públicos e dos sistemas de proteção social numa economia em que a densidade robótica está em crescimento (6), ao passo que os impostos sobre o trabalho continuam a ser a principal fonte de receita fiscal na Europa. Para aplicar o princípio da equidade, este debate deveria incluir a questão da redistribuição dos benefícios da digitalização.

    2.   Introdução

    2.1.

    A IA tem conhecido uma evolução desigual desde o surgimento deste conceito, em 1956, e durante a segunda metade do século XX. Tem alternadamente suscitado grandes esperanças e grandes desilusões. Todavia, nos últimos anos, tem conhecido um novo crescimento significativo, possibilitado pela recolha, pela organização e pelo armazenamento de uma quantidade de dados inédita (megadados) na história da humanidade, bem como pelo aumento exponencial do poder computacional dos computadores e da capacidade dos algoritmos.

    2.2.

    O CESE elaborou um parecer sobre a IA em 2017 (7) no qual são examinados vários desafios. Como sublinhado nesse parecer, não existe uma definição unívoca e consensual de IA. Para efeitos do presente parecer, consideraremos a «IA» como uma disciplina que visa a utilização de tecnologias digitais para criar sistemas capazes de reproduzir, de forma autónoma, as funções cognitivas humanas, nomeadamente a apreensão de dados, uma forma de compreensão e de adaptação (resolução de problemas, raciocínio e aprendizagem automática).

    2.3.

    Os sistemas de IA são atualmente capazes de resolver problemas complexos, por vezes inacessíveis à inteligência humana. As aplicações parecem potencialmente ilimitadas, tanto nos setores da banca, dos seguros, do transporte, dos cuidados de saúde, da educação, da energia, do marketing, da defesa, como nos setores da indústria, da construção, da agricultura, do artesanato, etc. (8). Espera-se que a IA proporcione um aumento da eficiência dos processos de produção de bens e serviços, estimule a rentabilidade das empresas e contribua para o crescimento económico.

    2.4.

    Este novo crescimento da IA levanta de novo várias questões relativas ao seu potencial papel na sociedade, ao seu nível de autonomia e à sua interação com os seres humanos. Como sublinhado no parecer do CESE sobre a IA adotado em 2017 (9), essas questões incidem nomeadamente na ética, na segurança, na transparência, na privacidade e nas normas laborais, na educação, na acessibilidade, na legislação e regulamentação, na governação e na democracia.

    2.5.

    Importa que as várias abordagens sejam comparadas no debate sobre a IA, para libertar esse debate do atoleiro económico de que por vezes fica prisioneiro. Um quadro multidisciplinar seria útil na análise dos impactos da IA no mundo do trabalho, visto que este é um dos principais locais de interação entre o ser humano e a máquina. Desde sempre que o trabalho tem sido afetado pela tecnologia. Os efeitos da IA no emprego e no trabalho requerem, por conseguinte, uma especial atenção a nível político, dado que as instituições têm nomeadamente a obrigação de tornar os processos de transformação económica socialmente sustentáveis (10).

    2.6.

    O objetivo do presente parecer de iniciativa é evidenciar os desafios criados pela IA no domínio do trabalho, incluindo na sua natureza, nas condições de trabalho e na sua organização. Como sublinhado pelo CESE (11), são ainda necessárias melhores estatísticas e uma melhor investigação, a fim de elaborar prognósticos precisos sobre a evolução dos mercados de trabalho, bem como indicadores claros de certas tendências relativas nomeadamente à qualidade do trabalho, à polarização do emprego e dos rendimentos e às condições de trabalho na transformação digital. A UE carece de dados sobre a designada «economia colaborativa», as plataformas de trabalho à chamada, os novos modelos de subcontratação em linha, bem como sobre a utilização de robôs industriais e de serviços à pessoa, sobre a Internet das coisas e sobre a utilização e difusão dos sistemas de IA.

    3.   A IA e a evolução do volume de emprego

    3.1.

    A questão do impacto que a introdução da IA e da robótica nos processos de produção terá no volume de emprego é alvo de controvérsia. Vários estudos tentaram responder a esta questão sem que tenham conseguido alcançar um consenso científico. A diversidade dos seus resultados (que apontam para uma percentagem de postos de trabalho ameaçados que vai de 9 % a 54 %) (12) reflete a complexidade das escolhas metodológicas e os seus impactos determinantes nos resultados da investigação.

    3.2.

    Os prognósticos são incertos porque entram em jogo outros fatores além da potencial técnica de automação: a evolução política, regulamentar, económica, demográfica, bem como a aceitabilidade social. Não basta que a tecnologia esteja pronta para que a sua utilização e disseminação estejam asseguradas.

    3.3.

    Por último, é ainda impossível prever um balanço líquido dos empregos suscetíveis de serem automatizados em cada setor sem ter em conta a transformação das profissões e o ritmo de criação de novos postos de trabalho. O desenvolvimento dos sistemas de IA tornará necessários, com efeito, novos postos de trabalho nos setores da engenharia, da informática e das telecomunicações (engenheiros, técnicos e operadores), assim como no dos megadados: encarregados de dados, analistas de dados, exploradores de dados, etc.

    3.4.

    O papel das instituições públicas será o de assegurar a sustentabilidade social dessa transformação digital, que poderá afetar tanto a quantidade como a qualidade do emprego (13). Um dos riscos assinalados pelos peritos é o de uma polarização do emprego entre, por um lado, as «superestrelas», que têm qualificações úteis à economia digital, e os «perdedores», por outro lado, cujas qualificações, experiência e saber-fazer serão tornados progressivamente obsoletos por esta transformação. Numa sua comunicação recente (14), a Comissão Europeia propõe uma resposta a este desafio, concentrando-se principalmente nos esforços em matéria de educação, de formação, de melhoria dos níveis básicos de literacia, numeracia e competências digitais. Esta resposta merece o apoio dos intervenientes económicos e sociais, nomeadamente no quadro do diálogo social nacional, europeu, interprofissional e setorial (15).

    3.5.

    Contudo, o CESE considera que esses esforços não serão suficientes para dar resposta ao conjunto dos desafios, em especial à incerteza na evolução do emprego. Existem três vias complementares que merecem ser desenvolvidas: a de uma IA «inclusiva», a da antecipação da mudança e, finalmente, quando os planos sociais se tornarem inevitáveis, a das reestruturações socialmente responsáveis e enquadradas.

    4.   IA e robotização inclusivas e inteligentes

    4.1.

    O CESE apoia o princípio de um programa de IA e de robotização inclusivas. Isso quer dizer que quando são introduzidos nas empresas novos processos com recurso às novas tecnologias, seria conveniente associar os trabalhadores às modalidades de funcionamento desses processos. Como constata o WRR (16), a introdução «inclusiva e inteligente» de novas tecnologias, em que os trabalhadores permanecem no centro dos processos e participam no seu aperfeiçoamento, pode contribuir para promover a constante melhoria dos processos de produção (17).

    4.2.

    Dado o papel dos algoritmos nas condições de recrutamento, de trabalho e de avaliação profissional, o CESE apoia o princípio da transparência algorítmica, que consiste não em revelar os códigos, mas sim em tornar compreensíveis os parâmetros e os critérios das decisões tomadas. O recurso ao ser humano deve ser sempre possível.

    4.3.

    Uma IA centrada no trabalhador tem em conta os pontos de vista das pessoas que serão chamadas a trabalhar no quadro dos novos processos tecnológicos, define claramente as tarefas e as responsabilidades que serão mantidas nas mãos dos trabalhadores e conserva formas de apropriação do trabalho pelos trabalhadores, para que estes não se tornem meros executantes.

    4.4.

    O princípio da responsabilidade jurídica deve ser clarificado. Os robôs industriais ou de serviços colaboram cada vez mais com o ser humano. A IA permite aos robôs «saírem das suas jaulas», podendo provocar acidentes (18). Como tal, a responsabilidade dos sistemas autónomos em caso de acidente deve ser claramente estabelecida e os riscos para a saúde e segurança em que os trabalhadores incorrem devem poder ser cobertos. A Comissão Europeia está a lançar uma reflexão sobre estes riscos emergentes no quadro da Diretiva em matéria de responsabilidade decorrente dos produtos (19). Esta abordagem deve ser mais ambiciosa no que diz respeito à segurança no trabalho.

    4.5.

    O princípio de equidade aplicado no mundo do trabalho consiste em não privar o trabalhador do seu trabalho. Alguns peritos salientam o risco de que a IA contribua para uma forma de desqualificação dos trabalhadores. É por isso que importa assegurar que, nos termos da Constituição da OIT, o trabalho proporcione a quem o exerce a satisfação de demonstrar todas as suas capacidades e todos os seus conhecimentos e de contribuir da melhor maneira para o bem comum. De um ponto de vista administrativo, é também uma forma de manter a motivação no local de trabalho.

    5.   Antecipar a mudança

    5.1.

    Vários estudos têm constatado, nos últimos anos, um enfraquecimento do diálogo social europeu, e por vezes nacional, não obstante a vontade de «relançamento» expressa pela Comissão e pelo Conselho Europeu. Este diálogo social é, contudo, um dos instrumentos mais adaptados para dar resposta aos desafios sociais da digitalização. Por conseguinte, o CESE apela energicamente para que, nas empresas e em todos os níveis pertinentes, esse diálogo seja uma prática constante, com vista a preparar as transformações de modo socialmente aceitável. O CESE recorda que o diálogo social é um dos maiores garantes da paz social e da redução das desigualdades. Além das declarações políticas de relançamento, as instituições da UE têm a grande responsabilidade de encorajar e fomentar este diálogo social.

    5.2.

    Em especial quando se trata da introdução dessas tecnologias, este diálogo deve permitir conhecer as perspetivas de transformação dos processos de produção a nível das empresas e dos setores e avaliar as novas necessidades em termos de qualificações e de formação, e também refletir, a montante, sobre a utilização da IA para melhorar os processos organizacionais e de produção, aumentar as qualificações dos trabalhadores e otimizar os recursos libertados pela IA para desenvolver novos produtos e novos serviços ou para melhorar a qualidade do serviço ao cliente.

    5.3.

    Reestruturações socialmente responsáveis

    5.4.

    Caso se considere que os planos sociais são inevitáveis, os desafios dizem respeito à gestão social destas reestruturações. Como salientaram os parceiros sociais europeus no documento «Orientations de référence pour gérer le changement et ses conséquences sociales» (Orientações de referência para gerir a mudança e as suas consequências sociais) (20), vários estudos de caso realçam a importância de investigar todas as alternativas possíveis ao despedimento, tais como a formação, a reconversão e o apoio à criação de empresas.

    5.5.

    Em caso de reestruturações, a informação e a consulta dos trabalhadores deve permitir, em conformidade com as diretivas europeias e pertinentes (21), favorecer a antecipação dos riscos, facilitar o acesso dos trabalhadores à formação na empresa, desenvolver a flexibilidade da organização do trabalho num quadro de segurança e promover a associação dos trabalhadores ao funcionamento e ao futuro da empresa.

    5.6.

    Como salienta justamente a Comissão Europeia, a UE deve garantir o acesso de todos os cidadãos, incluindo os trabalhadores por conta de outrem e por conta própria ou os falsos trabalhadores independentes, à proteção social, independentemente do tipo e da duração da relação de trabalho, em conformidade com o Pilar Europeu dos Direitos Sociais (22).

    6.   A IA e a evolução das condições de trabalho

    6.1.

    Em 25 de abril de 2018, a Comissão Europeia propôs uma «abordagem europeia» para promover as políticas de investimento no desenvolvimento da IA e aplicar as orientações em matéria de ética. Chama a atenção para a potencial transformação das nossas sociedades pelas tecnologias de IA, em especial nos setores do transporte, dos cuidados de saúde e da indústria manufatureira.

    6.2.

    Esta potencialidade de transformação manifesta-se no processo de produção e tem igualmente um impacto no conteúdo do trabalho. Esse impacto poderá ser positivo, em especial no modo como a IA pode melhorar esses processos e a qualidade do trabalho. Os mesmos efeitos positivos podem refletir-se nas organizações de trabalho «flexíveis», em que a partilha do poder de decisão é mais importante, bem como na autonomia das equipas, na polivalência, na organização horizontal e nas práticas inovadoras e participativas (23).

    6.3.

    Como salientam o CESE (24) e a própria Comissão, a IA pode apoiar os trabalhadores nas tarefas repetitivas, árduas ou perigosas, e determinadas aplicações da IA podem melhorar o bem-estar dos trabalhadores por conta de outrem e facilitar o seu quotidiano.

    6.4.

    Contudo, esta visão levanta novas questões, em especial no que respeita à interação entre a IA e o trabalhador e a evolução do conteúdo do trabalho. Até que ponto as máquinas inteligentes serão autónomas e quais serão as formas de complementaridade do trabalho dos seres humanos nas instalações fabris, nas empresas e nos escritórios? O CESE frisa que, no novo mundo do trabalho, é fundamental definir a relação entre o ser humano e a máquina. É essencial uma abordagem centrada no controlo do ser humano sobre a máquina (25).

    6.5.

    A priori, não é eticamente aceitável que um ser humano seja constrangido pela IA ou que seja considerado um mero executante da máquina, que lhe ditaria as tarefas a cumprir, o modo de as cumprir e os prazos em que as mesmas devem ser executadas. Contudo, essa fronteira ética parece, por vezes, ter sido ultrapassada (26). É por isso que importa definir claramente esta fronteira nas orientações da IA em matéria de ética.

    6.6.

    Deve ser uma prioridade da UE evitar reproduzir atualmente novas formas de «taylorismo digital» introduzidas pelos criadores das máquinas inteligentes. Por este motivo, como o CESE afirmou recentemente, os investigadores, engenheiros criadores e empresários europeus que contribuem para o desenvolvimento e a comercialização de sistemas de IA devem agir de acordo com critérios de responsabilidade ética e social. A integração da ética e das ciências humanas no programa curricular dos cursos de engenharia pode ser uma boa resposta a este imperativo (27).

    6.7.

    Uma outra questão diz respeito à supervisão e ao controlo administrativo. Há um amplo consenso sobre a necessidade de uma supervisão razoável dos processos de produção e, portanto, também do trabalho efetuado. Atualmente, novos instrumentos tecnológicos permitem, potencialmente, implementar sistemas inteligentes de controlo total em tempo real dos trabalhadores, acarretando o risco de uma supervisão e de um controlo que se tornariam desproporcionados.

    6.8.

    A questão da razoabilidade e proporcionalidade do controlo da execução do trabalho e dos indicadores de desempenho e da relação de confiança entre o administrador e o administrado é um tema que merece igualmente estar na ordem do dia do diálogo social nacional, europeu, interprofissional e setorial.

    6.9.

    A questão da imparcialidade dos algoritmos e dos dados da aprendizagem e os possíveis efeitos nocivos da discriminação continuam a gerar controvérsia. Para alguns, os algoritmos e outros programas preditivos de recrutamento podem reduzir as discriminações na contratação e favorecer contratações mais «inteligentes». Para outros, os programas de recrutamento podem sempre refletir, mesmo que involuntariamente, as tendências dos programadores desses robôs recrutadores. De acordo com alguns peritos, os modelos algorítmicos nunca serão mais do que opiniões revestidas de matemática (28). Por conseguinte, é necessário simultaneamente garantir que a intervenção humana é possível (conjugada com o princípio da transparência acima focado: o dever de exigir os critérios de decisão) e que a recolha dos dados e o seu tratamento cumprem os princípios de proporcionalidade e de finalidade. Em todo o caso, os dados não podem ser utilizados para fins diferentes daqueles para os quais foram recolhidos (29)

    6.10.

    A possibilidade oferecida aos Estados-Membros pelo Regulamento Geral sobre a Proteção de Dados de estabelecer, no seu ordenamento jurídico ou em convenções coletivas, normas mais específicas para garantir a defesa dos direitos e liberdades no que respeita ao tratamento de dados pessoais dos trabalhadores no contexto laboral é uma verdadeira oportunidade, que os Estados e os parceiros sociais devem aproveitar (30).

    6.11.

    Cabe observar que os riscos não afetam apenas os trabalhadores por conta de outrem. O desenvolvimento da subcontratação em linha, do trabalho em plataforma e das diferentes formas de trabalho participativo é acompanhado de novos sistemas de administração automatizada do desempenho e da assiduidade, cujos limites éticos parecem, por vezes, ser ultrapassados (ativação da câmara Web do trabalhador pela plataforma, captura do ecrã à distância, etc.).

    6.12.

    Os algoritmos dessas plataformas, que definem, nomeadamente, a remuneração do trabalhador por conta própria, a sua reputação digital e a possibilidade de acesso às tarefas, são, frequentemente, opacos. Os modos de funcionamento destas não são explicados aos trabalhadores, que não têm acesso aos critérios de funcionamento que lhes são aplicados.

    7.   Preparar uma transição justa

    7.1.

    A meio termo, o risco de polarização social salientado por vários peritos exige uma reflexão de fundo sobre o futuro dos nossos modelos sociais, incluindo do seu financiamento. O CESE solicita à Comissão que lance um debate sobre a questão da tributação e do financiamento dos orçamentos públicos e dos sistemas coletivos de proteção social numa economia em que a densidade robótica está em rápido crescimento (31), ao passo que os impostos sobre o trabalho continuam a ser a principal fonte de receita fiscal na Europa. Esse debate deve incluir a questão da redistribuição dos dividendos da digitalização.

    7.2.

    A Comissão propõe o reforço do Fundo Europeu de Ajustamento à Globalização (FEG) e, entre outras coisas, que este possa beneficiar os trabalhadores despedidos e os trabalhadores por conta própria cuja atividade tenha cessado devido à digitalização da economia (informatização, automação) (32). Para o CESE, esta é uma etapa no sentido da criação de um verdadeiro fundo europeu de transição, que contribua para preparar e gerir de forma socialmente responsável a transformação digital e as reestruturações que dela resultarão.

    7.3.

    Os aspetos sociais e, mais amplamente, societais da IA são cada vez mais objeto de debate a nível nacional. Os debates recentes no Parlamento britânico (33) e no Senado francês revelaram a necessidade de promover uma abordagem ética da IA, a qual assentaria num conjunto de princípios como a lealdade, a transparência, a explicabilidade dos sistemas algorítmicos, a ética e a responsabilidade das aplicações de IA e a sensibilização dos investigadores, peritos e especialistas para a potencial utilização indevida dos resultados das suas descobertas. Em França, o relatório Villani afirma pretender «dar um sentido» à IA (34). Vários peritos das universidades de Yale, Stanford, Cambridge e Oxford chamam a atenção para as «vulnerabilidades não resolvidas» da IA e defendem a necessidade imperativa de as prever, prevenir e atenuar (35). De igual modo, o Fonds de recherche du Québec [Fundo de investigação do Quebeque] (FRQ), em parceria com a Universidade de Montreal, tem trabalhado há alguns meses num projeto de observatório mundial para os impactos societais da IA e da vertente digital (36).

    7.4.

    Todas estas iniciativas demonstram a necessidade de libertar o debate sobre a IA dos seus limites económicos e técnicos e alargar o debate público sobre o papel que a sociedade quer que a IA desempenhe, incluindo no mundo do trabalho. Esses debates permitirão escapar à armadilha da «falsa dicotomia» entre uma visão totalmente ingénua e otimista da IA e dos seus efeitos e uma visão catastrófica (37). O lançamento desses debates a nível nacional é uma primeira etapa útil, mas a UE tem também um papel a desempenhar, em especial na definição de orientações em matéria de ética, como a Comissão começou a fazer.

    7.5.

    A questão da aplicação dessas orientações deverá ser confiada a um observatório dedicado à ética nos sistemas de IA. É vital colocar a IA e as suas aplicações ao serviço do bem-estar e da emancipação dos cidadãos e dos trabalhadores, no contexto do respeito pelos direitos fundamentais, e evitar que estas contribuam direta ou indiretamente para processos de desapropriação, de desaprendizagem, de desqualificação e de perda de autonomia. O princípio do «ser humano no comando» em todos os contextos, e, portanto, no do trabalho, deve ser aplicado de forma concreta.

    7.6.

    Este princípio deve aplicar-se igualmente a outros setores de atividade, como os profissionais da saúde, que prestam serviços estreitamente ligados à vida, à saúde, à segurança e à qualidade de vida dos seres humanos. Apenas regras éticas rigorosas poderão garantir que não só os trabalhadores mas também os consumidores, os pacientes, os clientes e os outros prestadores de serviços possam beneficiar plenamente das novas aplicações da IA.

    Bruxelas, 19 de setembro de 2018.

    O Presidente do Comité Económico e Social Europeu

    Luca JAHIER


    (1)  Acemoglu, D., Restrepo, P. (2018), «Artificial Intelligence, Automation and Work» (A inteligência artificial, a automação e o trabalho), Documento de Trabalho n.o 24196 do National Bureau of Economic Research (NBER) (Serviço Nacional de Investigação Económica), janeiro de 2018. Ver também: Conseil d’orientation pour l’emploi (Conselho consultivo para o emprego) (2017), Automatisation, numérisation et emploi (A automação, a digitalização e o emprego), volume 1 (www.coe.gouv.fr).

    (2)  Acemoglu, D., op.cit.; Conseil d’orientation pour l’emploi [Conselho consultivo para o emprego] (2017), op.cit.

    (3)  COM(2018) 380 final.

    (4)  Diretiva 2002/14/CE; «Déclaration commune d’intention UNICE-CES-CEEP sur le dialogue social et les nouvelles technologies» (Declaração conjunta de intenções da UNICE, da CES e do CEEP sobre o diálogo social e as novas tecnologias), 1985; «Avis commun des partenaires sociaux sur les nouvelles technologies, l’organisation du travail et l’adaptabilité du marché du travail» (Parecer conjunto dos parceiros sociais sobre as novas tecnologias, a organização do trabalho e a adaptabilidade do mercado de trabalho), 1991; «Orientations de référence pour gérer le changement et ses conséquences sociales» (Orientações de referência para gerir a mudança e as suas consequências sociais), 2003.

    (5)  COM(2018) 246 final.

    (6)  https://ifr.org/ifr-press-releases/news/robots-double-worldwide-by-2020.

    (7)  JO C 288 de 31.8.2017, p. 1.

    (8)  Ver nomeadamente https://www.techemergence.com.

    (9)  JO C 288 de 31.8.2017, p. 1.

    (10)  Eurofound (2018), Automation, digitalisation and platforms: Implications for work and employment (A automação, a digitalização e as plataformas: Implicações para o trabalho e o emprego), Serviço das Publicações da União Europeia, Luxemburgo.

    (11)  JO C 13 de 15.1.2016, p. 161.

    (12)  Frey e Osborne, 2013; Bowles, 2014; Arntz, Gregory e Zierahn, 2016; Le Ru, 2016; McKinsey, 2016; OCDE, 2017; ver igualmente o parecer exploratório CCMI/136 (JO C 13 de 15.1.2016, p. 161).

    (13)  http://www.oecd.org/fr/emploi/avenir-du-travail/.

    (14)  COM(2018) 237 final.

    (15)  JO C 367 de 10.10.2018, p. 15.

    (16)  Conselho científico neerlandês para a política governamental.

    (17)  https://english.wrr.nl/latest/news/2015/12/08/wrr-calls-for-inclusive-robot-agenda.

    (18)  Ver os trabalhos da Agência Europeia para a Segurança e a Saúde no Trabalho (https://osha.europa.eu/fr/emerging-risks) sobre os «riscos emergentes». De acordo com a Agência, as abordagens e as normas técnicas atuais que visam proteger os trabalhadores contra os riscos no trabalho através de robôs colaborativos devem ser revistas tendo em conta essa evolução.

    (19)  COM(2018) 246 final.

    (20)  Texto conjunto da UNICE, do CEEP, da UEAPME e da CES, 16.10.2003.

    (21)  Diretiva 2002/14/CE que estabelece um quadro geral relativo à informação e à consulta dos trabalhadores na Comunidade Europeia.

    (22)  JO C 303 de 19.8.2016, p. 54; JO C 173 de 31.5.2017, p. 15; JO C 129 de 11.4.2018, p. 7; JO C 434 de 15.12.2017, p. 30

    (23)  JO C 434 de 15.12.2017, p. 30.

    (24)  JO C 367 de 10.10.2018, p. 15.

    (25)  JO C 288 de 31.8.2017, p. 1. JO C 367 de 10.10.2018, p. 15

    (26)  Vários meios de comunicação social europeus têm alertado para as condições de trabalho em determinados centros logísticos onde os trabalhadores estão completamente à mercê dos algoritmos, que lhes indicam as tarefas a cumprir em determinado prazo, e onde o desempenho é medido em tempo real.

    (27)  JO C 367 de 10.10.2018, p. 15.

    (28)  Cathy O’Neil, doutorada na Universidade de Harvard e investigadora no domínio da Ciência dos Dados, «Models are opinions embedded in mathematics» (Os modelos são opiniões embutidas na Matemática) (https://www.theguardian.com/books/2016/oct/27/cathy-oneil-weapons-of-math-destruction-algorithms-big-data).

    (29)  Ver, entre outros, os trabalhos da CNIL em França («Comment permettre à l’homme de garder la main? Les enjeux éthiques des algorithmes et de l’intelligence artificielle» (Como permitir que o ser humano mantenha a primazia? Desafios éticos dos algoritmos e da inteligência artificial»), https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_main_web.pdf).

    .

    (30)  Regulamento (UE) 2016/679 (artigo 88.o).

    (31)  https://ifr.org/ifr-press-releases/news/robots-double-worldwide-by-2020.

    (32)  COM(2018) 380 final.

    (33)  https://www.parliament.uk/ai-committee.

    (34)  http://www.enseignementsup-recherche.gouv.fr/cid128577/rapport-de-cedric-villani-donner-un-sens-a-l-intelligence-artificielle-ia.html.

    (35)  https://www.eff.org/files/2018/02/20/malicious_ai_report_final.pdf.

    (36)  http://nouvelles.umontreal.ca/article/2018/03/29/le-quebec-jette-les-bases-d-un-observatoire-mondial-sur-les-impacts-societaux-de-l-ia/.

    (37)  Acemoglu, D., op.cit. Ver igualmente: Eurofound (2018), Automation, digitalisation and platforms: Implications for work and employment (A automação, a digitalização e as plataformas: Implicações para o trabalho e o emprego), Serviço das Publicações da União Europeia, Luxemburgo, p. 23: «The risks comprise unwarranted optimism, undue pessimism and mistargeted insights» (Os riscos incluem o otimismo infundado, o pessimismo indevido e as perceções erróneas).


    Top