This document is an excerpt from the EUR-Lex website
Document 52019AE1830
Opinion of the European Economic and Social Committee on ‘Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions — Building trust in human-centric artificial intelligence’ (COM(2019) 168 final)
Yttrande av Europeiska ekonomiska och sociala kommittén om Meddelande från kommissionen till Europaparlamentet, rådet, Europeiska ekonomiska och sociala kommittén samt Regionkommittén – Att skapa förtroende för människocentrerad artificiell intelligens[COM(2019) 168 final]
Yttrande av Europeiska ekonomiska och sociala kommittén om Meddelande från kommissionen till Europaparlamentet, rådet, Europeiska ekonomiska och sociala kommittén samt Regionkommittén – Att skapa förtroende för människocentrerad artificiell intelligens[COM(2019) 168 final]
EESC 2019/01830
EUT C 47, 11.2.2020, p. 64–68
(BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)
11.2.2020 |
SV |
Europeiska unionens officiella tidning |
C 47/64 |
Yttrande av Europeiska ekonomiska och sociala kommittén om Meddelande från kommissionen till Europaparlamentet, rådet, Europeiska ekonomiska och sociala kommittén samt Regionkommittén – Att skapa förtroende för människocentrerad artificiell intelligens
[COM(2019) 168 final]
(2020/C 47/09)
Föredragande: Franca SALIS-MADINIER
Remiss |
Europeiska kommissionen, 3.6.2019 |
Rättslig grund |
Artikel 304 i fördraget om Europeiska unionens funktionssätt |
Ansvarig sektion |
Sektionen för inre marknaden, produktion och konsumtion |
Antagande av sektionen |
18.10.2019 |
Antagande vid plenarsessionen |
30.10.2019 |
Plenarsession nr |
547 |
Resultat av omröstningen (för/emot/nedlagda röster) |
198/1/4 |
1. Slutsatser och rekommendationer
1.1 |
Artificiell intelligens är inte ett självändamål utan ett verktyg som kan förändra vår värld radikalt till det bättre, men också medföra risker. Därför måste dess användning regleras. |
1.2 |
Kommissionen bör vidta åtgärder för att förutse, förebygga och förbjuda missbruk av AI och maskininlärning, och reglera marknadsföringen av produkter med ont uppsåt bättre. |
1.3 |
EU bör i synnerhet främja utvecklingen av AI-system som är inriktade mot konkreta tillämpningar för att påskynda den ekologiska och klimatmässiga omställningen. |
1.4 |
Det bör fastställas vilka utmaningar som kan hanteras med etiska koder, självreglering och frivilliga åtaganden, och vilka som måste bemötas genom reglering och lagstiftning i kombination med tillsyn, samt, om reglerna inte följs, med påföljder. Under alla omständigheter måste AI-systemen följa befintlig lagstiftning. |
1.5 |
AI kräver en strategi som omfattar både de tekniska aspekterna och de samhälleliga och etiska aspekterna. EESK välkomnar EU:s vilja att ta fram en strategi för människocentrerad AI som respekterar unionens grundläggande värden: respekt för människans värdighet, frihet, demokrati, jämlikhet samt icke-diskriminering, rättsstatsprincipen och respekt för de mänskliga rättigheterna. |
1.6 |
EESK framhåller återigen (1) att det är nödvändigt att hålla samråd med och informera arbetstagare och deras företrädare vid införande av AI-system som skulle kunna medföra ändringar av arbetsorganisationen, dess tillsyn och kontroll samt utvärderings- och rekryteringssystemen för arbetstagare. Kommissionen bör främja dialogen mellan arbetsmarknadens parter i syfte att göra arbetstagarna delaktiga i användningen av AI-system. |
1.7 |
EESK betonar (2) att en tillförlitlig AI förutsätter mänsklig tillsyn över maskinen och information till medborgarna om hur den används. AI-systemen bör kunna förklaras. När så inte är möjligt, bör medborgarna och konsumenterna i stället informeras om systemens begränsningar och risker. |
1.8 |
EU bör ta itu med de framväxande riskerna (3) på arbetsmiljöområdet. Standarder bör utarbetas för att undvika att autonoma system skapar nackdelar för eller inverkar skadligt på människor. Arbetstagare bör utbildas för att arbeta med maskiner och stoppa dem i en nödsituation. |
1.9 |
EESK efterlyser att ett tillförlitligt certifieringssystem utvecklas byggt på testförfaranden som gör det möjligt för företag att verifiera att deras AI-system är pålitliga och säkra. Den algoritmbaserade beslutsprocessens transparens, spårbarhet och förklarbarhet är en teknisk utmaning och bör understödjas av EU-instrument såsom programmet Horisont Europa. |
1.10 |
Integritet och dataskydd kommer att avgöra hur stort förtroende medborgarna och konsumenterna hyser för AI. Datatillsyn, äganderätt till data samt företags och organisationers dataanvändning är frågor som fortfarande till största delen kvarstår att reglera (särskilt i samband med sakernas internet). EESK uppmanar kommissionen att regelbundet se över den allmänna dataskyddsförordningen (4) och närliggande förordningar mot bakgrund av den tekniska utvecklingen. |
1.11 |
EESK anser att man måste fråga sig hur AI-systemen kan bidra till att minska växthusgasutsläppen, särskilt inom industrin, transportsektorn, energisektorn, byggbranschen och jordbruket. Kommittén förespråkar att klimatomställningen och den digitala omställningen kopplas samman. |
1.12 |
EESK anser att kontrollen av AI-systemen kanske inte räcker för att fastställa ansvar och bygga upp förtroende. EESK rekommenderar att man prioriterar att ta fram tydliga regler för hur fysiska och juridiska personer ska hållas ansvariga i händelse av överträdelser. EESK uppmanar också kommissionen att som en prioriterad fråga undersöka den grundläggande möjligheten att försäkra AI-system. |
1.13 |
EESK föreslår att ett ”europeiskt certifikat för tillförlitliga AI-företag” utvecklas baserat på bland annat den bedömningslista som föreslagits av AI-expertgruppen (högnivågrupp). |
1.14 |
Genom att främja insatser på detta område inom G7, G20 och de bilaterala dialogerna bör EU sträva efter att säkerställa att regleringen av AI sträcker sig utanför EU:s gränser. Vi behöver skapa ett internationellt avtal om ett tillförlitligt AI som gör det möjligt att utveckla internationella standarder och regelbundet kontrollera deras relevans. |
2. Sammanfattning av kommissionens förslag
2.1 |
Detta meddelande bygger på arbete genomfört av den högnivågrupp som kommissionen utsåg i juni 2018. I meddelandet fastställer kommissionen sju centrala krav för att uppnå en tillförlitlig AI. En förteckning över dessa finns i punkt 4. |
2.2 |
Kommissionen har inlett en pilotfas med många olika berörda parter. Den inriktas i synnerhet på den bedömningslista som högnivågruppen har utarbetat för vart och ett av de centrala kraven. I början av 2020 kommer högnivågruppen att se över och uppdatera bedömningslistan och kommissionen kommer, vid behov, att föreslå nya åtgärder. |
2.3 |
Kommissionen vill införa sin AI-strategi på den internationella scenen och kommer att fortsätta att spela en aktiv roll, bland annat inom G7 och G20. |
3. Allmänna kommentarer
3.1 |
Människocentrerad AI kräver en strategi som både omfattar de tekniska aspekterna och de samhälleliga och etiska aspekterna. EESK välkomnar EU-institutionernas vilja att ta fram en strategi för människocentrerad AI som är i linje med unionens grundläggande värden: respekt för människans värdighet, frihet, demokrati, jämlikhet och icke-diskriminering samt rättsstatsprincipen och respekt för de mänskliga rättigheterna. Såsom kommissionen framhåller (5) är AI inte ett självändamål utan ett verktyg som kan förändra vår värld radikalt till det bättre. Liksom alla verktyg skapar AI både möjligheter och risker. Därför bör EU fastställa ramarna för dess användning och tydligt definiera vem som ansvarar för vad. |
3.2 |
Förtroendet för människocentrerad AI kommer att uppstå genom respekt för värden och principer, ett väletablerat regelverk samt etiska riktlinjer som omfattar centrala krav. |
3.3 |
AI innebär många utmaningar, och det bör, tillsammans med de berörda parterna, fastställas vilka av dessa som bör bemötas med reglering och lagstiftning i kombination med regleringsmekanismer för tillsyn samt, om reglerna inte följs, påföljder, och vilka som skulle kunna bemötas med etiska koder, självreglering och frivilliga åtaganden. EESK välkomnar att kommissionen införlivat principer som ursprungligen fördes fram av EESK, men beklagar att den för närvarande inte föreslår någon specifik åtgärd för att ta itu med legitima farhågor på områdena konsumenträtt, systemens säkerhet och ansvarsskyldighet. |
3.4 |
AI-systemen måste följa befintliga regelverk, i synnerhet vad gäller skydd av personuppgifter, produktansvar, konsumentskydd, icke-diskriminering, yrkeskvalifikationer samt information till och samråd med arbetstagare på arbetsplatsen. Man måste se till att lagstiftningen anpassas till de nya utmaningarna med digitalisering och AI. |
3.5 |
Såsom kommissionen noterar bör ”processer […] införas för att klargöra och bedöma de potentiella riskerna med användningen av AI-system inom olika tillämpningsområden” (6). EESK anser det vara av allra största vikt vilka framtida metoder som används för denna bedömning samt att skapa indikatorer som skulle kunna beaktas inför bedömningen. Den bedömningslista som föreslagits av högnivågruppen är en utgångspunkt för genomförandet av sådana processer. |
3.6 |
Det gäller också frågan om rättvis fördelning av AI-systemens förväntade mervärde. EESK anser att de positiva förändringar som AI för med sig i form av ekonomisk utveckling, hållbara produktions- och konsumtionsprocesser (särskilt för energi) och förbättrad resursanvändning bör gynna alla länder och alla medborgare. |
4. Särskilda kommentarer
4.1 Mänskligt agentskap och mänsklig tillsyn
4.1.1 |
Kommissionen vill se till att användningen av AI-systemen under inga omständigheter får undergräva människors självständighet eller orsaka negativa effekter. EESK stöder denna strategi för mänsklig tillsyn över maskinerna, vilket kommittén redan har framhållit i sina tidigare yttranden. |
4.1.2 |
Detta förutsätter även att medborgarna ges korrekt information om användningen av dessa system och att systemen är förklarbara eller, när detta inte är möjligt (t.ex. vid användning av s.k. djupinlärning), att användarna informeras om systemets begränsningar och risker. I alla händelser bör medborgarna kunna behålla sin frihet att fatta andra beslut än AI-systemet. |
4.1.3 |
Inom företag och offentliga myndigheter bör arbetstagarna och deras företrädare informeras och tillfrågas när AI-system införs som skulle kunna ändra arbetsorganisationen och påverka dem vad gäller kontroll, övervakning, utvärdering och rekrytering. Kommissionen bör främja en dialog mellan arbetsmarknadens parter i syfte att göra arbetstagarna delaktiga i användningen av AI-system. |
4.1.4 |
När det gäller mänskliga resurser bör man särskilt vara uppmärksam på att AI-system skulle kunna missbrukas genom till exempel gränslös övervakning, insamling av personuppgifter och hälsoinformation samt förmedling av dessa uppgifter till tredje part liksom även på de framväxande riskerna i fråga om hälsa och säkerhet på arbetsplatsen (7). Tydliga standarder bör utarbetas för att undvika att samarbetet mellan människa och maskin inte inverkar skadligt på människor. Den standard som tagits fram av Internationella standardiseringsorganisationen (ISO) för samarbetande robotar (8), vilken vänder sig till tillverkare, utvecklare och användare, innehåller riktlinjer för utformning och organisation av arbetsplatsen och minskning av de risker som människor kan utsättas för. Arbetstagarna bör utbildas i användning av AI och robotteknik, i hur man arbetar med dem, samt, i synnerhet, hur man stänger ner dem i en nödsituation (”nödbromsprincipen”). |
4.2 Teknisk robusthet och säkerhet
4.2.1 |
EESK efterlyser att europeiska säkerhetsstandarder införs och att ett tillförlitligt certifieringssystem utvecklas byggt på testförfaranden som gör det möjligt för företag att verifiera att deras AI-system är pålitliga. EESK betonar även vikten av möjligheten att försäkra AI-system. |
4.2.2 |
Kommissionen tar knappt upp frågan om att förutse, förebygga och förbjuda missbruk av AI och maskininlärning, vilket är något som många forskare varnar för (9). Man skulle göra klokt i att lyssna på dessa forskares rekommendationer, särskilt de som gäller dubbel användning av denna teknik, som kan bli aktuell på områden såsom digital säkerhet (ökat antal cyberattacker, utnyttjande av människors och AI:s sårbarhet, spridning av skadliga data), fysisk säkerhet (kapning av autonoma system, däribland självkörande fordon, drönare och automatiska vapen) eller politisk säkerhet (massiv insamling av personuppgifter, målinriktad propaganda, videomanipulering osv.). Forskare, ingenjörer och offentliga myndigheter bör samarbeta nära för att förebygga dessa risker. Experter och andra berörda parter, t.ex. användare och konsumenter, bör i sin tur kunna delta i diskussionerna om dessa utmaningar. |
4.3 Integritet och dataförvaltning
4.3.1 |
Kommissionen förespråkar ”tillräcklig reglering och kontroll av åtkomsten till data” (10). EESK anser att det krävs mer än allmänna uttalanden. Den nivå av förtroende som medborgare känner inför AI-system kommer också att vara avgörande för AI:s framtida utveckling. Datatillsyn, äganderätt till data samt företags samt organisationers dataanvändning är frågor som fortfarande till största delen kvarstår att reglera. Mängden data som överförs från till exempel bilar till biltillverkare liksom typen av data som överförs manar till eftertanke (11). Trots att uppkopplade föremål enligt den allmänna dataskyddsförordningen ska ha så kallat inbyggt integritetsskydd, kan det konstateras att konsumenterna har tillgång till mycket lite, eller ingen, information om detta, samt att de inte har någon kontroll över sina uppgifter. Därför uppmanar EESK kommissionen att se över den allmänna dataskyddsförordningen och närliggande förordningar mot bakgrund av den tekniska utvecklingen (12). |
4.4 Transparens
4.4.1 |
EESK anser att den algoritmbaserade beslutsprocessen måste kunna förklaras för att det ska gå att förstå, om inte själva mekanismerna så i alla fall beslutsprocessens underliggande logik samt det sätt på vilket denna påverkas av AI-systemen. Utvecklingen av standardförfaranden för testning av maskininlärningssystem är en teknisk utmaning som bör få stöd från EU-instrument såsom programmet Horisont Europa. |
4.4.2 |
EESK delar kommissionens åsikt att AI-system bör kunna identifieras som sådana ”så att användarna vet att de interagerar med ett AI-system” (13), bland annat när det gäller relationer mellan patienter och hälso- och sjukvårdspersonal, vårdrelaterade professionella tjänster och medborgarnas välfärd. EESK betonar också att användaren eller konsumenten även måste kunna informeras om de tjänster som tillhandahålls av människor. I själva verket ingår stora mängder mänskligt arbete i många AI-system, men detta är ofta dolt för slutanvändarna (14). Bakom denna fråga ligger utmaningen med den bristande insynen för användare och konsumenter av tjänster, men också utmaningen med en form av användning av ett dolt och icke erkänt arbete. |
4.4.3 |
EESK anser även att konsumenter alltid bör informeras när AI-system ingår i de produkter som de köper, samt att de alltid bör ha tillgång till och kontroll över sina personuppgifter. |
4.5 Mångfald, icke-diskriminering och rättvisa
4.5.1 |
Risken för diskriminering är stor i samband med vissa AI-tillämpningar som gör det möjligt att profilera medborgare, användare och konsumenter (t.ex. för rekrytering, uthyrning av fastigheter, vissa samhällsbaserade vårdtjänster osv.). EU har ett regelverk för likabehandling och icke-diskriminering (15). AI-systemen måste följa detta. Men denna lagstiftning måste även anpassas och, vid behov, stärkas (inbegripet kontrollen av dess efterlevnad) för att bemöta nya metoder. Det finns en påtaglig risk för att algoritmisk profilering blir ett nytt kraftfullt verktyg för diskriminering. EU måste förebygga denna risk. |
4.5.2 |
Enligt direktivet om likabehandling av personer oavsett deras ras eller etniska ursprung (16) och direktivet om likabehandling av kvinnor och män utanför arbetsmarknaden (17) ska det inrättas särskilda behöriga organ för främjande av likabehandling av kvinnor och män. EESK uppmanar dessa organ att ta en aktiv del i att övervaka och utöva tillsyn över AI-system när det gäller risken för direkt eller indirekt diskriminering. |
4.6 Samhällets och miljöns välbefinnande
4.6.1 |
Kommissionen lägger inte fram några detaljerade förslag om hur man ska koppla samman klimatomställningen och den digitala omställningen, särskilt vad gäller användningen av AI-system. Det är viktigt att reflektera över hur AI-systemen kan bidra till att minska växthusgasutsläppen, särskilt inom industrin, transportsektorn, energisektorn, byggbranschen och jordbruket. |
4.6.2 |
Kommissionen hävdar att AI-system kan användas för att öka de sociala färdigheterna, men att de också kan bidra till att de försämras. EESK anser att EU måste göra mer för att ta itu med vissa samhällsutmaningar. Studier har till exempel visat att vissa applikationer som innehåller AI-system är utformade för att hålla användarna anslutna så länge som möjligt till onlinetjänster (sociala nätverk, spel, videor osv.). Målet är att kunna samla in så mycket data som möjligt om deras beteende, och de strategier som används går från ständigt uppdaterade algoritmbaserade rekommendationer till påminnelser och notiser, spel och så vidare. Man har studerat vilka effekter detta överflöd av uppkoppling och förslag har på barn (18) och resultaten visar på ökad oro och aggressivitet, sömnbrist samt inverkan på skolgång, sociala relationer, hälsa och välbefinnande. För att skapa en tillförlitlig AI bör EU beakta sådana effekter och förebygga dem. |
4.6.3 |
Slutligen hänger en av faktorerna för samhälleligt välbefinnande samman med känslan av trygghet på arbetsplatsen. Digitaliseringens effekter kan dock skapa osäkerhet och stress (19). Därför är det lämpligt att ta fram strategier för hur förändringarna ska bemötas innan eventuella omstruktureringar äger rum samt för fortsatt yrkesutbildning för samtliga arbetstagare. För detta är det nödvändigt att föra en högkvalitativ social dialog mellan arbetsgivare och företrädare för arbetstagare inom företag, som bl.a. kan göra det möjligt att införa ny teknik på ett inkluderande sätt, särskilt AI och robotteknik. För att stärka förtroendet mellan ledningen och arbetstagarna måste AI-systemen för ledning, utvärdering och övervakning av arbetstagare kunna förklaras, ha kända parametrar och fungera på ett transparent sätt. |
4.7 Ansvarsskyldighet
4.7.1 |
De beslut som fattas av maskininlärningssystem kan inte förklaras på ett enkelt sätt och uppdateras dessutom regelbundet. EESK anser att kontrollen av AI-systemen kanske inte räcker för att fastställa ansvar och bygga upp förtroende. Därför rekommenderar EESK att regler tas fram för hur fysiska och juridiska personer ska hållas ansvariga i händelse av överträdelser. EESK rekommenderar att man förlitar sig mer på tillförlitliga företag eller yrkesverksamma än på algoritmer och föreslår att ett ”europeiskt certifikat för tillförlitliga AI-företag” utvecklas baserat på bland annat den bedömningslista som föreslagits av högnivågruppen. |
4.7.2 |
I direktivet om produktansvar (20) fastställs principen om strikt ansvar för de europeiska tillverkarna: om en produkt med säkerhetsbrister leder till skada för en konsument kan tillverkaren hållas ansvarig även om denna inte har gjort sig skyldig till ett fel eller en försummelse. Med tanke på att AI-system i allt högre grad utarbetas, sprids och används måste EU anta anpassade regler om ansvarsskyldighet för situationer där produkter med digitalt innehåll och tjänster som erbjuds konsumenter kan vara farliga eller ha skadlig inverkan. Konsumenterna bör ha tillgång till rättslig prövning i händelse av skada som orsakats av ett AI-system. |
5. Behovet av reglering på internationell nivå
5.1 |
I en globaliserad värld måste regleringen av AI nå utanför Europas gränser. EU bör verka för ett omfattande avtal om AI inom G7 och G20 och fortsätta de bilaterala dialogerna så att en majoritet av länderna kan delta i processen för standardisering av AI, och regelbundet se över dess relevans. |
Bryssel den 30 oktober 2019.
Luca JAHIER
Europeiska ekonomiska och sociala kommitténs
ordförande
(1) EUT C 440, 6.12.2018, s. 1.
(2) EUT C 288, 31.8.2017, s. 1, EUT C 440, 6.12.2018, s. 1.
(3) https://osha.europa.eu/sv/emerging-risks.
(4) Europaparlamentets och rådets förordning (EU) 2016/679 av den 27 april 2016 om skydd för fysiska personer med avseende på behandling av personuppgifter och om det fria flödet av sådana uppgifter och om upphävande av direktiv 95/46/EG (allmän dataskyddsförordning) (EUT L 119, 4.5.2016, s. 1).
(5) COM(2019) 168 final.
(6) COM(2019) 168 final, s. 5.
(7) Se särskilt ”OSH and the future of work: benefits and risks of artificial intelligence tools in workplaces”
(8) ISO/TS 15066, 2016.
(9) Se rapporten ”The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation”, februari 2018.
(10) COM(2019) 168 final, s. 6.
(11) ”Your car knows when you gain weight”, The New York Times (International Edition), 22.5.2019.
(12) EUT C 190, 5.6.2019, s. 17.
(13) COM(2019) 168 final, s. 6.
(14) Se t.ex. ”A white-collar sweatshop: Google Assistant contractors allege wage theft”, The Guardian, 29.5.2019 och ”Bot technology impressive, except when it’s not the bot”, The New York Times (International Edition), 24.5.2019.
(15) EGT L 180,19.7.2000, s. 22; EGT L 303, 2.12.2000, s. 16; EUT L 373, 21.12.2004, s. 37; EUT L 204, 26.7.2006, s. 23.
(16) Rådets direktiv 2000/43/EG av den 29 juni 2000 om genomförandet av principen om likabehandling av personer oavsett deras ras eller etniska ursprung (EGT L 180, 19.7.2000, s. 22).
(17) Rådets direktiv 2004/113/EG av den 13 december 2004 om genomförande av principen om likabehandling av kvinnor och män när det gäller tillgång till och tillhandahållande av varor och tjänster (EUT L 373, 21.12.2004, s. 37).
(18) Se särskilt Kidron, Evans, Afia, ”Disrupted Childhood – The Cost of Persuasive Design”, 5Rights Foundation, 2018.
(19) Högnivågruppens rapport om den digitala omvandlingens inverkan på arbetsmarknaderna i EU, 2019.
(20) Rådets direktiv 85/374/EEG av den 25 juli 1985 om tillnärmning av medlemsstaternas lagar och andra författningar om skadeståndsansvar för produkter med säkerhetsbrister (EGT L 210, 7.8.1985, s. 29).