28.10.2020 |
PT |
Jornal Oficial da União Europeia |
C 364/87 |
Parecer do Comité Económico e Social Europeu — Livro Branco sobre a inteligência artificial — Uma abordagem europeia virada para a excelência e a confiança
[COM(2020) 65 final]
(2020/C 364/12)
Relatora: |
Catelijne MULLER |
Consulta |
Comissão, 9.3.2020 |
Base jurídica |
Artigo 304.o do Tratado sobre o Funcionamento da União Europeia |
Competência |
Secção do Mercado Único, Produção e Consumo |
Adoção em secção |
25.6.2020 |
Adoção em plenária |
16.7.2020 |
Reunião plenária n.o |
553 |
Resultado da votação (votos a favor/votos contra/abstenções) |
207/0/6 |
1. Conclusões e recomendações
1.1. |
O Comité Económico e Social Europeu (CESE) saúda a Comissão pela sua estratégia, apresentada no Livro Branco sobre a inteligência artificial, que visa incentivar a adoção de tecnologias de inteligência artificial (IA), assegurando, simultaneamente, a sua conformidade com as normas éticas, os requisitos legais e os valores sociais europeus. |
1.2. |
O CESE saúda igualmente o objetivo de tirar partido dos pontos fortes da Europa nos mercados industriais e profissionais e salienta a importância de reforçar o investimento, as infraestruturas, a inovação e as competências, de modo que as empresas, incluindo as PME, e a sociedade no seu conjunto possam aproveitar as oportunidades em matéria de IA. A inovação no domínio da IA deve ser fomentada no sentido de maximizar os benefícios dos sistemas de IA e, ao mesmo tempo, prevenir e minimizar os seus riscos. |
1.3. |
No entanto, o CESE considera que colocar a ênfase numa IA baseada apenas em dados não é suficiente para fazer da União Europeia (UE) um verdadeiro líder no contexto de uma IA inovadora, fiável e competitiva. O CESE exorta a Comissão a promover igualmente uma nova geração de sistemas de IA baseados no conhecimento e no raciocínio e que respeitem os valores e princípios humanos. |
1.4. |
O CESE exorta a Comissão a: i) promover a multidisciplinaridade na investigação, incluindo disciplinas como o direito, a ética, a filosofia, a psicologia, as ciências do trabalho, as ciências humanas, a economia, etc.; ii) integrar as partes interessadas pertinentes (sindicatos, organizações profissionais, empresariais e de consumidores e organizações não governamentais) no debate sobre a IA e enquanto parceiros de pleno direito na investigação financiada pela UE e noutros projetos, como a parceria público-privada no domínio da IA, os diálogos setoriais, o programa «Adoção de IA» no setor público e o centro-farol; e iii) continuar a educar e a informar os cidadãos em geral sobre as oportunidades e os desafios em matéria de IA. |
1.5. |
O CESE exorta a Comissão a analisar de forma mais aprofundada o impacto da IA em todos os direitos e liberdades fundamentais, incluindo — entre outros — o direito a um processo judicial equitativo, o direito a eleições justas e abertas, o direito de reunião e de manifestação, bem como o direito à não discriminação. |
1.6. |
O CESE continua a opor-se a qualquer forma de personalidade jurídica para a IA, o que comprometeria o efeito preventivo e corretivo da responsabilidade civil, criaria um importante risco moral no desenvolvimento e na utilização da IA e abriria a porta a utilizações abusivas. |
1.7. |
O CESE solicita uma abordagem sociotécnica contínua e sistemática, que analise a tecnologia de todos os pontos de vista e sob diversos prismas, em vez de se limitar a uma avaliação de conformidade prévia da IA de alto risco realizada uma única vez (ou mesmo periodicamente). |
1.8. |
O CESE adverte que o critério do «setor de alto risco» poderá deixar de fora muitas aplicações e utilizações de IA que são intrinsecamente de alto risco, além do reconhecimento biométrico e da IA utilizada para fins de recrutamento. O CESE recomenda que a Comissão elabore uma lista de características comuns de aplicações ou utilizações de IA consideradas como intrinsecamente de alto risco, independentemente do setor. |
1.9. |
O CESE recomenda vivamente que a utilização do reconhecimento biométrico apenas seja autorizada i) se existir um efeito cientificamente comprovado, ii) em ambientes controlados e iii) em condições estritas. A utilização generalizada do reconhecimento biométrico baseado na IA para efeitos de vigilância ou de seguimento, avaliação ou categorização de seres humanos ou dos seus comportamentos e emoções deve ser proibida. |
1.10. |
O CESE defende que os parceiros sociais devem ser associados precocemente e de perto à introdução de sistemas de IA no local de trabalho, em conformidade com a regulamentação e as práticas nacionais aplicáveis, a fim de assegurar que os sistemas são funcionais e respeitam as condições de trabalho e os direitos dos trabalhadores. |
1.11. |
O CESE defende igualmente uma participação precoce e estreita dos trabalhadores que, em última instância, trabalharão com o sistema de IA, bem como dos trabalhadores com conhecimentos especializados em questões jurídicas, éticas e humanas, quando da introdução de sistemas de IA, a fim de assegurar que os sistemas estão em consonância com a legislação e os requisitos éticos, mas também com as necessidades dos trabalhadores, de modo que os trabalhadores conservem a autonomia no seu trabalho e que os sistemas de IA reforcem as competências e a satisfação dos trabalhadores. |
1.12. |
As técnicas e abordagens de IA utilizadas para combater a pandemia de COVID-19 devem ser robustas, eficazes, transparentes e explicáveis. Além disso, devem respeitar os direitos humanos, os princípios éticos e a legislação em vigor, bem como ser equitativas, inclusivas e voluntárias. |
1.13. |
O CESE insta a Comissão a assumir um papel de liderança, de modo a assegurar uma coordenação mais eficaz a nível europeu das soluções e abordagens de IA utilizadas para combater a pandemia de COVID-19. |
2. Livro Branco da UE sobre a IA
2.1. |
O CESE observa com agrado que a Comissão Europeia adotou muitas das recomendações formuladas pelo CESE em pareceres anteriores e pelo Grupo de Peritos de Alto Nível em Inteligência Artificial, incentivando a adoção de tecnologias de IA e assegurando simultaneamente a sua conformidade com as normas éticas, os requisitos legais e os valores sociais europeus, com base no que designa por «ecossistema de excelência e de confiança». |
2.2. |
O CESE congratula-se com as propostas destinadas às empresas, incluindo as PME, e à sociedade no seu conjunto para que aproveitem as oportunidades ligadas ao desenvolvimento e à utilização da IA. O CESE salienta a importância de reforçar o investimento, as infraestruturas, a inovação e as competências com vista a melhorar o sucesso competitivo da UE ao nível mundial. |
Abordagem de detenção do controlo por humanos
2.3. |
O tom do Livro Branco é, todavia, ligeiramente «fatalista», sugerindo que a IA nos ultrapassa e não nos deixa outra alternativa a não ser regulamentar a sua utilização. O CESE manifesta plena convicção no compromisso da UE de assegurar que a Europa só aceita a IA digna de confiança, pelo que deve ousar adotar uma posição muito mais firme neste contexto. Por conseguinte, o CESE insta a Comissão a salvaguardar, em permanência, a opção de, a qualquer momento, recusar um determinado tipo de (utilização de) IA. Trata-se da abordagem que o CESE tem vindo a designar por «detenção do controlo por humanos» em matéria de IA, que é necessário cultivar. |
Tirar partido da IA na Europa — uma definição orientada para o futuro
2.4. |
O Livro Branco apresenta uma definição funcional da IA como «um conjunto de tecnologias que combinam dados, algoritmos e capacidade computacional». No mesmo documento, os dados e os algoritmos são definidos como os principais elementos da IA. Contudo, esta definição abrangeria qualquer código de software alguma vez criado, e não apenas a IA. Ainda não existe uma definição universalmente aceite de IA, que é um termo genérico que designa uma série de aplicações informáticas. |
2.5. |
O enfoque limitado do Livro Branco numa IA baseada em dados não é suficiente para que a UE assuma a liderança no contexto de uma IA inovadora, fiável e competitiva. O Livro Branco não abrange diversos sistemas de IA prometedores, impedindo assim a sua governação e regulamentação. O CESE insta a Comissão a promover igualmente uma nova geração de sistemas de IA que associam abordagens baseadas em dados a abordagens baseadas no conhecimento e no raciocínio — os chamados sistemas híbridos. O Livro Branco reconhece, efetivamente, a necessidade de sistemas híbridos para efeitos de explicabilidade, mas estes sistemas têm outras vantagens: podem acelerar e/ou limitar a aprendizagem, bem como validar e verificar o modelo de aprendizagem automática. |
2.6. |
O Livro Branco centra-se apenas na distorção relacionada com os dados, mas nem todas as distorções resultam de uma quantidade ou qualidade insuficiente dos dados. A conceção de qualquer produto é, em si mesma, o resultado de um conjunto de escolhas subjetivas, desde as fontes utilizadas aos objetivos definidos de otimização. Todas estas escolhas são, de uma forma ou de outra, motivadas pelos preconceitos inerentes das pessoas responsáveis por elas. |
2.7. |
No entanto, o mais importante é ter presente que os sistemas de IA não são apenas a soma dos seus componentes de software. Estes sistemas fazem igualmente parte do sistema sociotécnico que os envolve. Por conseguinte, ao analisar a governação e a regulamentação da IA, devem igualmente ter-se em conta as estruturas sociais envolventes: as organizações e as empresas, as diversas profissões e as pessoas e instituições que criam, desenvolvem, implantam, utilizam e controlam a IA, bem como as pessoas por ela afetadas, nomeadamente os cidadãos nas suas interações com o Estado, as empresas, os consumidores, os trabalhadores e a sociedade em geral. |
2.8. |
Importa igualmente assinalar que as definições legais (para efeitos de governação e regulamentação) diferem das definições estritamente científicas, na medida em que aplicam requisitos distintos, como a inclusão, a precisão, a permanência, a exaustividade e a aplicabilidade. Alguns destes requisitos são juridicamente vinculativos e outros são tratados como boas práticas regulamentares. |
Unir todas as forças
2.9. |
O CESE saúda os esforços para combater a fragmentação da IA na Europa, reunindo investigadores no domínio da IA, centrando-se nas PME e criando parcerias com os setores privado e público. Além disso, recomenda as seguintes medidas: i) promover a multidisciplinaridade na investigação, incluindo disciplinas como o direito, a ética, a filosofia, a psicologia, as ciências do trabalho, as ciências humanas, a economia, etc.; ii) integrar as partes interessadas pertinentes (sindicatos, organizações empresariais e de consumidores e organizações não governamentais) no debate sobre a IA e enquanto parceiros de pleno direito na investigação financiada pela UE e noutros projetos, como a parceria público-privada em matéria de IA, os diálogos setoriais, o programa «Adoção de IA» no setor público e o centro-farol; e iii) continuar a educar e a informar os cidadãos em geral sobre as oportunidades e os desafios em matéria de IA. |
A inteligência artificial e o direito
2.10. |
O Livro Branco reconhece que a IA não opera à margem da lei. O CESE saúda, em particular, a tónica colocada nas implicações da IA para os direitos fundamentais e recomenda que a Comissão analise de forma mais aprofundada o impacto da IA num amplo conjunto de direitos e liberdades fundamentais, como a liberdade de opinião e de expressão e o direito ao respeito pela vida privada (que vai muito além da proteção dos dados pessoais), o direito a um processo judicial equitativo, o direito a eleições justas e abertas e o direito de reunião e de manifestação, bem como o direito à não discriminação. |
2.11. |
O CESE congratula-se com a posição clara assumida no Livro Branco em relação à aplicabilidade dos atuais regimes de responsabilidade à IA e com os esforços no sentido de desenvolver esses regimes para dar resposta aos novos riscos que a IA pode criar, colmatando lacunas de execução nos casos em que é difícil determinar o operador económico efetivamente responsável e tornando os regimes adaptáveis à constante evolução dos sistemas de IA. |
2.12. |
A Comissão deve igualmente reconhecer que a IA não conhece fronteiras e que os esforços não podem nem devem limitar-se à Europa. Deve alcançar-se um consenso geral a nível mundial, com base em debates e na investigação realizada por peritos jurídicos, de forma a estabelecer um quadro jurídico internacional comum. |
2.13. |
Em todo o caso, o CESE continua a opor-se veementemente a qualquer forma de personalidade jurídica para a IA, o que comprometeria o efeito preventivo e corretivo da responsabilidade civil, criaria um importante risco moral no desenvolvimento e na utilização da IA e abriria a porta a utilizações abusivas. |
Regulamentação da IA de alto risco
2.14. |
O CESE congratula-se com a abordagem baseada no risco para controlar o impacto da IA. A Comissão anuncia um quadro regulamentar para a «IA de alto risco», sujeitando-a a requisitos de robustez, exatidão, reprodutibilidade, transparência, supervisão humana e governação dos dados. Segundo o Livro Branco, a IA de alto risco implica a presença de dois elementos cumulativos: i) um setor de alto risco e ii) uma utilização de alto risco de uma aplicação de IA. O Livro Branco acrescenta dois exemplos de aplicações ou utilizações de IA que podem ser consideradas como intrinsecamente de alto risco, ou seja, independentemente do setor. Além disso, qualifica o reconhecimento biométrico como uma aplicação intrinsecamente de alto risco. A lista exaustiva de setores de alto risco (embora periodicamente revista) identifica, atualmente, os seguintes setores como sendo de alto risco: cuidados de saúde, transportes, energia e partes do setor público. |
2.15. |
O segundo critério — a saber, uma utilização de risco de uma aplicação de IA — é mais vago, o que sugere que poderão ser considerados diferentes níveis de risco. O CESE propõe que a sociedade e o ambiente sejam acrescentados como áreas de impacto a este respeito. |
2.16. |
Seguindo a lógica do Livro Branco, uma aplicação de IA de alto risco utilizada num setor de baixo risco não será, em princípio, abrangida pelo quadro regulamentar. O CESE salienta que a utilização de uma IA de alto risco, com efeitos negativos indesejáveis, num setor de baixo risco pode permitir que algumas aplicações ou utilizações de IA escapem à regulamentação, criando uma lacuna que permite contornar as regras: por exemplo, a publicidade direcionada (um setor de baixo risco), que comprovadamente pode ter efeitos de segregação, discriminação e polarização, nomeadamente em períodos eleitorais ou em matéria de personalização dos preços (uma utilização ou efeito de alto risco). O CESE recomenda que se elenquem as aplicações ou utilizações de IA que devem ser consideradas como intrinsecamente de alto risco, independentemente do setor em questão. |
2.17. |
O CESE reconhece a necessidade de testes de conformidade da IA, mas receia que uma avaliação de conformidade prévia realizada uma única vez (ou mesmo periodicamente) não seja suficiente para garantir o desenvolvimento, a implantação e a utilização da IA de forma sustentável, fiável e centrada no ser humano. Uma IA fiável requer uma abordagem sociotécnica contínua e sistemática, que analise a tecnologia de todos os pontos de vista e sob vários prismas. No contexto da elaboração de políticas, tal exige uma abordagem multidisciplinar no âmbito da qual decisores políticos, académicos de diversas áreas, parceiros sociais, organizações profissionais, trabalhadores, empresas e organizações não governamentais cooperam de forma contínua. Em particular no caso de serviços de interesse público relacionados com a saúde, a segurança e o bem-estar das pessoas e baseados na confiança, cumpre assegurar que os sistemas de IA estão adaptados aos requisitos práticos e não podem suplantar a responsabilidade humana. |
Reconhecimento biométrico
2.18. |
O CESE saúda a intenção da Comissão de abrir um debate público sobre a utilização do reconhecimento biométrico baseado na IA. O reconhecimento biométrico de microexpressões, forma de caminhar, (tom de) voz, frequência cardíaca, temperatura, etc., já é utilizado para avaliar, ou mesmo prever, o comportamento, o estado mental e as emoções das pessoas, incluindo em processos de recrutamento. Deve ficar muito claro que não existem provas científicas sólidas de que seja possível «ler» com precisão as emoções ou o estado mental de uma pessoa através da expressão facial, da forma de caminhar, da frequência cardíaca, do tom de voz ou da temperatura e, muito menos, prever desta forma o seu comportamento futuro. |
2.19. |
Importa assinalar igualmente que o Regulamento Geral sobre a Proteção de Dados limita apenas parcialmente o tratamento de dados biométricos. O regulamento define dados biométricos como «dados pessoais resultantes de um tratamento técnico específico relativo às características físicas, fisiológicas ou comportamentais de uma pessoa singular que permitam ou confirmem a identificação única dessa pessoa singular». Contudo, muitas tecnologias de reconhecimento biométrico não se destinam apenas à identificação das pessoas, mas também à avaliação do seu comportamento ou das suas emoções. Estas utilizações podem não se enquadrar na definição de (tratamento) de dados biométricos ao abrigo do Regulamento Geral sobre a Proteção de Dados. |
2.20. |
O reconhecimento biométrico baseado na IA também afeta o nosso direito geral ao respeito pela vida privada, à identidade, à autonomia e à integridade psicológica, criando uma situação em que somos (permanentemente) observados, seguidos e identificados. Esta situação pode ter um «efeito inibidor» a nível psicológico, que pode levar as pessoas a ajustarem o seu comportamento a uma determinada norma. Tal é contrário ao nosso direito fundamental à privacidade (integridade moral e psicológica). Além disso, o reconhecimento biométrico baseado na IA pode afetar outros direitos e liberdades fundamentais, como a liberdade de reunião e o direito à não discriminação. |
2.21. |
O CESE recomenda que a utilização do reconhecimento biométrico apenas seja permitida se existir um efeito cientificamente comprovado, em ambientes controlados e em condições estritas. A utilização generalizada do reconhecimento biométrico baseado na IA para efeitos de vigilância, localização, avaliação ou categorização de seres humanos ou dos seus comportamentos ou emoções não deve ser permitida. |
Impacto da IA no trabalho e nas competências
2.22. |
O CESE observa que o Livro Branco carece de uma estratégia para fazer face ao impacto da IA no trabalho, apesar de este elemento ser explicitamente mencionado na Estratégia Europeia para a Inteligência Artificial, de 2018. |
2.23. |
O CESE defende que os trabalhadores e os prestadores de serviços de todos os tipos, incluindo trabalhadores independentes, por conta própria e pontuais, devem ser associados precocemente e de perto — não apenas os que concebem ou desenvolvem IA, mas também os que adquirem, implantam e trabalham com sistemas de IA ou são afetados por tais sistemas. O diálogo social deve realizar-se previamente à introdução de tecnologias de IA no local de trabalho, em conformidade com a regulamentação e as práticas nacionais aplicáveis. No local de trabalho, o acesso aos dados dos trabalhadores e a governação desses dados devem pautar-se pelos princípios e normas negociados pelos parceiros sociais. |
2.24. |
O CESE chama a atenção, em particular, para a IA utilizada na contratação, no despedimento e nos processos de avaliação e notação dos trabalhadores. O Livro Branco menciona a IA utilizada no recrutamento como um exemplo de aplicação de alto risco que estaria sempre sujeita a regulamentação, independentemente do setor. O CESE recomenda o alargamento do âmbito de aplicação no sentido de incluir a IA utilizada para fins de despedimento, avaliação e notação dos trabalhadores, bem como uma análise das características comuns das aplicações de IA que impliquem uma utilização de alto risco no local de trabalho, independentemente do setor. As aplicações de IA que não têm uma base científica, como a deteção de emoções por reconhecimento biométrico, não devem ser permitidas no local de trabalho. |
2.25. |
A manutenção ou aprendizagem de competências em matéria de IA é necessária para permitir que as pessoas se adaptem à rápida evolução no domínio da IA. No entanto, os recursos políticos e financeiros deverão igualmente ser orientados para a educação e o desenvolvimento de competências em domínios que não são ameaçados por sistemas de IA (por exemplo, tarefas para as quais a interação humana é essencial, como serviços públicos no domínio da saúde, da segurança e do bem-estar e baseados na confiança, no âmbito dos quais seres humanos e máquinas trabalham em conjunto, ou tarefas que desejamos que sejam executadas por seres humanos). |
3. Inteligência artificial e coronavírus
3.1. |
A IA pode contribuir para uma melhor compreensão do novo coronavírus e da COVID-19, bem como para a proteção das pessoas contra a exposição ao vírus, o desenvolvimento de uma vacina e a avaliação de opções terapêuticas, mas continua a ser importante manter a abertura e a clareza a respeito do que a IA pode ou não fazer. |
3.2. |
Robustez e eficácia: a IA baseada em dados para prever a propagação do novo coronavírus pode ser problemática, uma vez que os dados sobre o vírus são demasiado escassos para permitir que a IA produza resultados fiáveis. Além disso, os escassos dados entretanto disponibilizados são incompletos e subjetivos. A utilização destes dados em abordagens de aprendizagem automática pode conduzir a muitos falsos negativos e falsos positivos. |
3.3. |
A transparência dos dados e modelos utilizados, bem como a explicabilidade dos resultados, são fundamentais. Neste período, em particular, o mundo não pode correr o risco de tomar decisões baseadas em «caixas negras». |
3.4. |
No contexto da utilização da IA para combater esta pandemia, o respeito pelos direitos humanos, pelos princípios éticos e pela legislação existente é mais importante do que nunca. Principalmente nos casos em que as ferramentas de IA podem ser contrárias aos direitos humanos, a sua utilização deve ter um interesse legítimo e ser estritamente necessária, proporcionada e, acima de tudo, limitada no tempo. |
3.5. |
Por último, é necessário assegurar a equidade e a inclusão. Os sistemas de IA que estão a ser desenvolvidos para combater a pandemia não devem estar sujeitos a preconceitos nem ser discriminatórios. Além disso, devem estar disponíveis para todos e ter em consideração as diferenças sociais e culturais dos diferentes países em questão. |
Aplicações de seguimento e rastreio e de vigilância da saúde
3.6. |
De acordo com os virólogos e epidemiologistas, a abertura da sociedade e da economia na sequência do período de confinamento exige eficácia no seguimento, no rastreio, no controlo e na proteção da saúde das pessoas. Atualmente, estão a ser desenvolvidas diversas aplicações para fins de seguimento, rastreio e verificação do estado de saúde, atividades normalmente (e historicamente) realizadas por profissionais. Muitos governos em todo o mundo depositaram grande confiança nas aplicações de seguimento e rastreio como forma de reabrir as sociedades. |
3.7. |
A implantação deste tipo de aplicações constitui um passo muito radical. Por conseguinte, é importante examinar de forma crítica a utilidade, a necessidade e a eficácia das aplicações, bem como o seu impacto social e jurídico, antes de decidir utilizá-las. Deve salvaguardar-se a opção de não utilizar as aplicações e dar-se prioridade a soluções menos invasivas. |
3.8. |
A eficácia e fiabilidade das aplicações de seguimento e rastreio são um aspeto extremamente importante, uma vez que estas aplicações, se forem ineficazes e pouco fiáveis, podem conduzir a muitos falsos positivos e falsos negativos, a um sentimento ilusório de segurança e, consequentemente, a um maior risco de contaminação. As simulações científicas iniciais levantam sérias dúvidas quanto à capacidade de uma aplicação de seguimento ter qualquer efeito positivo na propagação do vírus, mesmo com uma utilização de 80 % ou 90 %. Além disso, uma aplicação não consegue registar circunstâncias específicas, como a presença de divisórias e janelas ou o uso de equipamentos de proteção individual. |
3.9. |
Acresce ainda que estas aplicações conduzem a uma suspensão (parcial) de vários direitos humanos e liberdades, uma vez que interferem com a liberdade de associação e o direito à segurança, à não discriminação e à privacidade. |
3.10. |
Embora sejam muito importantes, os nossos dados pessoais e o anonimato não são os únicos elementos da nossa privacidade, que também inclui o direito de não ser seguido, localizado e colocado sob vigilância. Está cientificamente provado que as pessoas se comportam de maneira diferente quando sabem que estão a ser seguidas. Segundo o Tribunal Europeu dos Direitos Humanos, este «efeito inibidor» constitui uma invasão da privacidade. O mesmo conceito alargado de privacidade deve ser incluído no debate sobre a IA. |
3.11. |
Corre-se o risco de os dados recolhidos (agora ou no futuro) serem utilizados não apenas para combater a atual pandemia, mas também para estabelecer perfis, categorias e classificações das pessoas para diferentes finalidades. Num futuro mais distante, é concebível que o «desvirtuamento da função» possa conduzir a formas indesejadas de definição de perfis para fins de supervisão e vigilância, concessão de seguros ou de prestações sociais, contratação ou despedimento, etc. Por conseguinte, os dados recolhidos por tais aplicações não poderão, em circunstância alguma, ser utilizados para fins de definição de perfis, atribuição de graus de risco, classificação ou previsão. |
3.12. |
Além disso, quer queiramos quer não, qualquer solução de IA implantada nestas circunstâncias extraordinárias, mesmo com a melhor das intenções, criará um precedente. Em crises anteriores ficou demonstrado que, apesar das boas intenções, as medidas deste tipo, na prática, nunca desaparecem. |
3.13. |
Por conseguinte, a utilização da IA durante esta pandemia deve ser sempre analisada e ponderada com base em várias considerações, nomeadamente: i) É eficaz e fiável? ii) Existem soluções menos invasivas? iii) Os seus benefícios sobrepõem-se a preocupações de ordem social e ética e em matéria de direitos fundamentais? iv) É possível alcançar um compromisso responsável em caso de conflito entre direitos e liberdades fundamentais? Além disso, estes tipos de sistemas não podem ser implantados sob qualquer forma de obrigação ou coação. |
3.14. |
O CESE insta os responsáveis políticos a não cederem com demasiada facilidade a soluções tecnológicas. Tendo em conta a gravidade da situação, o CESE recomenda que as aplicações ligadas a projetos que visam ajudar a controlar a pandemia se baseiem em investigação de qualidade nos domínios da epidemiologia, da sociologia, da psicologia, do direito, da ética e das ciências dos sistemas. Antes de tomar decisões sobre a utilização destes sistemas, é igualmente necessário realizar análises e simulações da sua eficácia, necessidade e sensibilidade. |
Bruxelas, 16 de julho de 2020.
O Presidente do Comité Económico e Social Europeu
Luca JAHIER