Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52020AE1110

    Yttrande av Europeiska ekonomiska och sociala kommittén om Vitbok om artificiell intelligens – en EU-strategi för spetskompetens och förtroende (COM(2020) 65 final)

    EESC 2020/01110

    EUT C 364, 28.10.2020, p. 87–93 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    28.10.2020   

    SV

    Europeiska unionens officiella tidning

    C 364/87


    Yttrande av Europeiska ekonomiska och sociala kommittén om Vitbok om artificiell intelligens – en EU-strategi för spetskompetens och förtroende

    (COM(2020) 65 final)

    (2020/C 364/12)

    Föredragande:

    Catelijne MULLER

    Remiss

    Kommissionen, 9.3.2020

    Rättslig grund

    Artikel 304 i fördraget om Europeiska unionens funktionssätt

    Ansvarig sektion

    Sektionen för inre marknaden, produktion och konsumtion

    Antagande av sektionen

    25.6.2020

    Antagande vid plenarsessionen

    16.7.2020

    Plenarsession nr

    553

    Resultat av omröstningen

    (för/emot/nedlagda röster)

    207/0/6

    1.   Slutsatser och rekommendationer

    1.1

    EESK berömmer kommissionen för dess strategi, som beskrivs i vitboken om artificiell intelligens (AI) och syftar till att uppmuntra spridningen av AI-teknik och samtidigt se till att den överensstämmer med europeiska etiska normer, rättsliga krav och sociala värden.

    1.2

    EESK välkomnar också målet att utnyttja EU:s styrka på industrins och företagens marknader och betonar vikten av att främja investeringar, infrastruktur, innovation och kompetens, så att företag, inklusive små och medelstora företag, och samhället som helhet kan ta vara på AI:s möjligheter. AI-innovation bör främjas för att maximera fördelarna med AI-system, samtidigt som man förebygger och minimerar riskerna.

    1.3

    Kommittén anser dock att inriktningen på enbart datadriven AI är alltför snäv för att göra EU till en verklig ledare när det gäller avancerad, tillförlitlig och konkurrenskraftig AI. EESK uppmanar kommissionen att också främja en ny generation AI-system som är kunskaps- och resonemangsbaserade och som upprätthåller mänskliga värden och principer.

    1.4

    EESK uppmanar kommissionen att (i) främja tvärvetenskaplighet inom forskningen genom att involvera andra discipliner såsom juridik, etik, filosofi, psykologi, arbetsvetenskap, humaniora, ekonomi osv., ii) involvera relevanta intressenter (fackföreningar, yrkessammanslutningar, företagsorganisationer, konsumentorganisationer, icke-statliga organisationer) i debatten om AI och som jämbördiga partner i EU-finansierade forskningsprojekt och andra projekt, t. ex. det offentlig-privata partnerskapet om AI, sektorsdialoger samt programmet för anammande av AI inom den offentliga sektorn och det ledande referenscentrumet (”lighthouse centre”), och (iii) fortsätta att utbilda och informera en bredare allmänhet om de möjligheter och utmaningar som AI medför.

    1.5

    EESK uppmanar kommissionen att mer ingående ta ställning till effekterna av AI på hela spektrumet av grundläggande fri- och rättigheter, inklusive – men inte bara – rätten till en rättvis rättegång, till rättvisa och öppna val och till mötes- och demonstrationsfrihet samt rätten att inte bli diskriminerad.

    1.6

    EESK fortsätter att motsätta sig införandet av varje slags form av rättskapacitet för AI. Detta skulle innebära att ansvarsbestämmelsernas preventiva beteendekorrigerande verkan urholkades och det uppstod en moralisk risk vid både utvecklingen och användningen av AI, vilket skapar möjligheter till missbruk.

    1.7

    EESK efterlyser ett kontinuerligt och systematiskt sociotekniskt tillvägagångssätt, som granskar tekniken ur alla perspektiv och genom olika linser, snarare än en föregående bedömning av överensstämmelse av AI med hög risk som bara görs en gång (eller till och med regelbundet).

    1.8

    EESK varnar för att kravet på ”högrisksektor” skulle kunna utesluta många AI-tillämpningar och AI-användningar som i sig innebär hög risk, utöver biometrisk identifiering och AI som används vid rekrytering. EESK rekommenderar att kommissionen upprättar en förteckning över gemensamma kännetecken hos AI-tillämpningar eller AI-användningar som anses ha en inneboende hög risk, oavsett sektor.

    1.9

    EESK uppmanar starkt till att användning av biometrisk identifiering endast tillåts (i) om det finns en vetenskapligt bevisad effekt, (ii) i kontrollerade miljöer och (iii) på strikta villkor. En utbredd användning av AI-baserad biometrisk identifiering för övervakning eller för att spåra, bedöma eller kategorisera människor eller människors beteende eller känslor bör vara förbjudet.

    1.10

    EESK förespråkar ett tidigt och nära samarbete med arbetsmarknadens parter när AI-system införs på arbetsplatserna, i enlighet med tillämpliga nationella bestämmelser och nationell praxis, för att se till att systemen är användbara och överensstämmer med arbetstagarnas rättigheter och arbetsvillkoren.

    1.11

    EESK förespråkar också ett tidigt och nära samarbete med de arbetstagare som i slutändan kommer att arbeta med AI-systemen och arbetstagare med expertkunskaper på områdena juridik, etik och humaniora när AI-system införs, så att systemen är avpassade till lagstiftning och etiska krav, men också till arbetstagarnas behov, så att arbetstagarna behåller självständigheten i förhållande till sitt arbete och AI-system som förbättrar arbetstagarnas färdigheter och arbetstillfredsställelse.

    1.12

    AI-teknik och AI-metoder som används för att bekämpa covid-19-pandemin bör vara stabila, effektiva, öppna och förklarliga. De bör också respektera mänskliga rättigheter, etiska principer och befintlig lagstiftning samt vara rättvisa, inkluderande och frivilliga.

    1.13

    EESK uppmanar kommissionen att inta en ledande roll för att säkerställa bättre samordning inom Europa av de AI-lösningar och metoder som används för att bekämpa covid-19-pandemin.

    2.   EU:s vitbok om artificiell intelligens

    2.1

    EESK noterar med tillfredsställelse att kommissionen tar upp många av rekommendationerna från tidigare EESK-yttranden och från expertgruppen på hög nivå för AI-frågor och uppmuntrar till att sprida AI-teknik samtidigt som man ser till att den följer europeiska etiska normer, rättsliga krav och sociala värden, med stöd av vad kommissionen kallar ett ”ekosystem för spetskompetens och förtroende”.

    2.2

    EESK välkomnar de förslag som riktar sig till företag, inbegripet små och medelstora företag, och samhället som helhet om att utnyttja möjligheterna med utvecklingen och användningen av AI. EESK betonar vikten av att främja investeringar, infrastruktur, innovation och kompetens för att förbättra EU:s konkurrenskraft på global nivå.

    Strategi där människan har kontrollen

    2.3

    Vitboken har dock också en något ”uppgiven” ton, och insinuerar att AI ”överrumplat oss”, vilket inte ger oss någon annan möjlighet än att reglera användningen av den. EESK tror verkligen på EU:s åtagande att se till att Europa endast godtar AI som är tillförlitlig och därför bör våga inta en mycket starkare ståndpunkt här. Vi uppmanar därför kommissionen att alltid hålla möjligheten öppen att inte alls godkänna en viss typ av (användning av) artificiell intelligens. Detta är vad EESK har kallat ”human-in-command”-strategin för AI, en strategi där människan har kontrollen, som vi måste främja.

    Utnyttjande av artificiell intelligens i Europa – en framåtblickande definition

    2.4

    Den definition av AI som används i vitboken är ”en samling tekniker som kombinerar data, algoritmer och datorkapacitet”. Senare i texten definieras data och algoritmer som de viktigaste delarna av AI. Denna definition skulle dock omfatta alla programvaror som någonsin har gjorts, inte bara AI. Det finns fortfarande ingen allmänt vedertagen definition av AI, som är en generisk term för en rad olika datortillämpningar.

    2.5

    Vitbokens inriktning på enbart datadriven AI är alltför snäv för att göra EU till en verklig ledare när det gäller avancerad, tillförlitlig och konkurrenskraftig AI. Vitboken utesluter möjligheten att överväga och därmed styra och reglera många lovande AI-system. EESK uppmanar kommissionen att också främja en ny generation AI-system som integrerar datadrivna strategier med kunskaps- och resonemangsbaserade metoder, så kallade hybridsystem. I vitboken erkänns dock behovet av hybridsystem i förklarbarhetssyfte, men fördelarna med hybridsystem går längre än förklarbarheten: de kan påskynda och/eller bromsa inlärning och validera och kontrollera maskininlärningsmodellen.

    2.6

    Vitboken fokuserar endast på snedvridningar i förhållande till data, men inte alla snedvridningar beror på att data är av låg kvalitet eller begränsade. Utformningen av alla artefakter är i sig en ackumulation av snedvridna val på olika nivåer, från de indata som beaktats till de mål som fastställts för en optimal användning. Alla dessa val är på ett eller annat sätt beroende av en inneboende partiskhet hos den eller de personer som gör dem.

    2.7

    Det viktigaste är dock att AI-systemen är mer än bara summan av deras programvarukomponenter. AI-systemen omfattar också det sociotekniska system som omger dem. När man överväger AI-styrning och AI-reglering bör fokus också ligga på de sociala strukturer som omger den: de organisationer, företag, olika yrken och personer och institutioner som skapar, utvecklar, sprider, använder och kontrollerar AI, och de personer som påverkas av den, t.ex. medborgare i deras kontakter med myndigheter, företag, konsumenter, arbetstagare och hela samhället som helhet.

    2.8

    Det bör också noteras att rättsliga definitioner (för styrning och reglering) skiljer sig från rent vetenskapliga definitioner, då ett antal olika krav måste uppfyllas, såsom delaktighet, precision, varaktighet, omfattning och praktisk genomförbarhet. En del av dessa är rättsligt bindande krav och en del anses vara god regleringspraxis.

    Att sammanföra alla krafter

    2.9

    EESK välkomnar insatserna för att ta itu med det fragmenterade AI-landskapet i Europa genom att sammanföra AI-forskare, fokusera på små och medelstora företag och samarbeta med den privata och den offentliga sektorn. Dessutom rekommenderar EESK följande åtgärder: (i) främja tvärvetenskaplighet inom forskningen genom att involvera andra discipliner såsom juridik, etik, filosofi, psykologi, arbetsvetenskap, humaniora, ekonomi osv., ii) involvera relevanta intressenter (fackföreningar, företagsorganisationer, konsumentorganisationer och icke-statliga organisationer) i debatten om AI och som jämbördiga partner i EU-finansierade forskningsprojekt och andra projekt, t.ex. det offentlig-privata partnerskapet om AI, sektorsdialoger, programmet för anammande av AI inom den offentliga sektorn och det ledande referenscentrumet (”lighthouse centre”), och (iii) fortsätta att utbilda och informera en bredare allmänhet om de möjligheter och utmaningar som AI medför.

    Artificiell intelligens och lagen

    2.10

    I vitboken erkänns det faktum att AI inte fungerar i en rättslös värld. EESK välkomnar särskilt betoningen på AI:s konsekvenser för de grundläggande rättigheterna och rekommenderar att kommissionen mer ingående tar ställning till effekterna av AI på en rad grundläggande rättigheter och friheter, såsom yttrande- och åsiktsfrihet, och rätten till respekt för privatlivet (som går långt utöver skyddet av människors personuppgifter), till en rättvis rättegång, till rättvisa och öppna val och till mötes- och demonstrationsfrihet samt rätten att inte bli diskriminerad.

    2.11

    EESK välkomnar den tydliga ståndpunkt som framförs i vitboken om tillämpligheten av befintliga ansvarssystem på AI och ansträngningarna att bygga vidare på dessa system för att ta itu med de nya risker som AI kan ge upphov till, åtgärda brister i kontrollen av efterlevnaden om det är svårt att fastställa vem som är den faktiska ekonomiska aktören och göra systemen anpassningsbara till AI-systemens föränderliga funktion.

    2.12

    Kommissionen bör också erkänna att AI inte känner några gränser och att ansträngningarna inte kan och inte bör vara begränsade till Europa. Man bör nå ett allmänt samförstånd över hela världen som grundar sig på diskussioner mellan och forskning av juridiska experter och syftar till att försöka fastställa en gemensam internationell rättslig ram.

    2.13

    EESK fortsätter under alla omständigheter att starkt motsätta sig införandet av varje slags form av rättskapacitet för AI. Detta skulle innebära att ansvarsbestämmelsernas preventiva beteendekorrigerande verkan urholkades och det uppstod en moralisk risk vid både utvecklingen och användningen av AI, vilket skapar möjligheter till missbruk.

    Reglering av artificiell intelligens med hög risk

    2.14

    EESK välkomnar den riskbaserade metoden för att kontrollera effekterna av AI. Kommissionen aviserar ett regelverk för ”AI med hög risk”, som måste uppfylla kraven på robusthet, korrekthet, reproducerbarhet, öppenhet, mänsklig tillsyn och dataförvaltning. Enligt vitboken uppfyller en AI-tillämpning med hög risk två kumulativa kriterier: (i) sektorn har hög risk och (ii) användningen av AI-tillämpningen innebär hög risk. I vitboken anges två exempel på AI-tillämpningar eller användningsområden som kan anses innebära en hög risk i sig, dvs. oavsett sektor. I vitboken kvalificeras också biometrisk identifiering som en tillämpning med hög risk i sig. Den uttömmande förteckningen över högrisksektorer (som ses över regelbundet) omfattar nu följande sektorer som potentiella högrisksektorer: hälso- och sjukvård, transport, energi och delar av den offentliga sektorn.

    2.15

    Det andra kriteriet, att AI-tillämpningen används på ett riskabelt sätt, är lösare, vilket tyder på att olika risknivåer kan beaktas. EESK föreslår att man lägger till samhälle och miljö som påverkansområden här.

    2.16

    I enlighet med vitbokens logik kommer en AI-tillämpning med hög risk som används i en sektor med låg risk i princip inte att omfattas av regelverket. EESK betonar att oönskade negativa effekter av AI med hög risk i en lågrisksektor skulle kunna utesluta AI-tillämpningar eller AI-användning från regleringen, och ge ett ”fönster” för kringgående av regler: tänk på riktad reklam (en lågrisksektor), som har visat sig kunna ha segregerande, diskriminerande och splittrande effekt, till exempel vid val eller för individuell prissättning (högriskanvändning eller -effekt). EESK rekommenderar att man fastställer gemensamma kännetecken för AI-tillämpningar eller AI-användning som anses utgöra en hög risk i sig, oavsett inom vilken sektor de används.

    2.17

    EESK erkänner visserligen behovet av överensstämmelsetest av AI, men fruktar att en enstaka (eller till och med regelbundet återkommande) föregående bedömning av överensstämmelsen inte räcker för att garantera en tillförlitlig och människocentrerad utveckling, spridning och användning av AI på ett hållbart sätt. Tillförlitlig AI behöver en kontinuerlig och systematisk socioteknisk metod som granskar tekniken ur alla perspektiv och genom olika linser. När det gäller beslutsfattande kräver detta ett tvärvetenskapligt tillvägagångssätt där beslutsfattare, akademiker från olika områden, arbetsmarknadens parter, yrkessammanslutningar, yrkesverksamma, företag och icke-statliga organisationer kontinuerligt arbetar tillsammans. Särskilt när det gäller tjänster av allmänt intresse som har samband med människors hälsa, säkerhet och välbefinnande och som bygger på förtroende, måste det garanteras att AI-systemen är anpassade till de praktiska kraven och inte kan ha företräde framför människors ansvar.

    Biometrisk identifiering

    2.18

    EESK välkomnar kommissionens uppmaning att inleda en offentlig debatt om användningen av biometrisk identifiering som drivs av AI. Biometrisk identifiering av mikrouttryck, gångart, röst (eller röstläge), hjärtfrekvens, temperatur osv. används redan för att bedöma eller till och med förutsäga vårt beteende, mentala tillstånd och våra känslor bland annat vid rekrytering. För att vara mycket tydlig finns det inga tillförlitliga vetenskapliga belägg som tyder på att en persons inre känslor eller mentala tillstånd kan ”avläsas” korrekt från hans eller hennes ansiktsuttryck, gångart, hjärtfrekvens, röstläge eller temperatur, än mindre att det framtida beteendet skulle kunna förutses på detta sätt.

    2.19

    Det bör också noteras att den allmänna dataskyddsförordningen endast i viss utsträckning begränsar behandlingen av biometriska uppgifter. I den allmänna dataskyddsförordningen definieras biometriska uppgifter som ”personuppgifter som har erhållits genom en särskild teknisk behandling som rör en fysisk persons fysiska, fysiologiska eller beteendemässiga kännetecken och som möjliggör eller bekräftar en entydig identifiering av denna fysiska person”. Många biometriska identifieringstekniker är dock inte utformade för att entydigt identifiera en person, utan endast för att bedöma en persons beteende eller känslor. Dessa användningar kanske inte omfattas av definitionen av biometriska uppgifter (eller behandling av dem) enligt den allmänna dataskyddsförordningen.

    2.20

    Biometrisk identifiering påverkar också vår bredare rätt till respekt för privatliv, identitet, självständighet och psykisk integritet genom att skapa en situation där vi (hela tiden) ses, följs och identifieras. Detta skulle kunna ha en psykologisk ”hämmande effekt”, så att människor kan känna sig benägna att anpassa sitt beteende till en viss standard. Detta utgör en kränkning av vår grundläggande rätt till personlig integritet (moralisk och psykisk integritet). Biometrisk identifiering skulle dessutom kunna påverka andra grundläggande fri- och rättigheter, såsom mötesfriheten och rätten att inte bli diskriminerad.

    2.21

    EESK rekommenderar att användning av biometrisk identifiering endast tillåts om det finns en vetenskapligt bevisad effekt, i kontrollerade miljöer och på strikta villkor. En utbredd användning av AI-baserad biometrisk identifiering för att övervaka, spåra, bedöma eller kategorisera människor eller människors beteende eller känslor bör vara förbjudet.

    Inverkan av artificiell intelligens på arbete och kompetens

    2.22

    EESK noterar att vitboken saknar en strategi för hur man ska hantera effekterna av AI på arbetet, trots att detta var ett uttryckligt inslag i 2018 års europeiska strategi för artificiell intelligens.

    2.23

    EESK förespråkar en tidig och nära medverkan av alla typer av arbetstagare och tjänsteleverantörer, inklusive frilansare, egenföretagare och behovsanställda, dvs. inte bara personer som utformar eller utvecklar AI, utan också dem som köper, använder, arbetar med eller påverkas av AI-systemen. Den sociala dialogen måste äga rum före införandet av AI-teknik på arbetsplatsen, i enlighet med tillämpliga nationella regler och praxis. På arbetsplatsen bör tillgång till och styrning av arbetstagardata vägledas av principer och bestämmelser som förhandlas fram av arbetsmarknadens parter.

    2.24

    EESK skulle vilja fästa särskild uppmärksamhet vid AI som används vid anställning, avskedande och utvärdering och bedömning av arbetstagare. I vitboken nämns AI som används vid rekrytering som ett exempel på en högrisktillämpning som skulle omfattas av reglering oavsett sektor. EESK rekommenderar att detta användningsområde utvidgas till att omfatta AI som används vid avskedande och vid utvärdering och utvärdering av arbetstagare, men också att man undersöker de gemensamma egenskaperna hos AI-tillämpningar som skulle innebära en högriskanvändning på arbetsplatsen, oavsett sektor. AI-tillämpningar som saknar vetenskaplig grund, t.ex. detektering av känslor genom biometrisk identifiering, bör inte tillåtas i arbetsmiljöer.

    2.25

    Att upprätthålla och lära sig AI-färdigheter är nödvändigt för att människor ska kunna anpassa sig till den snabba utvecklingen inom artificiell intelligens. Men politiken och de finansiella medlen kommer också att behöva riktas in på utbildning och kompetensutveckling på områden som inte kommer att hotas av AI-system (dvs. uppgifter där samspelet mellan människor står i främsta rummet, såsom allmännyttiga tjänster som rör människors hälsa, säkerhet och välbefinnande och som bygger på förtroende, där människa och maskin samarbetar eller uppgifter som vi vill att människor ska fortsätta göra).

    3.   Artificiell intelligens och coronaviruset

    3.1

    AI kan bidra till en bättre förståelse av coronaviruset och covid-19 samt skydda människor från exponering, hjälpa till att hitta ett vaccin och undersöka behandlingsalternativ. Det är dock fortfarande viktigt att vara öppen och tydlig om vad AI kan och inte kan göra.

    3.2

    Robusthet och effektivitet: Datadriven AI för att prognostisera spridningen av coronaviruset är potentiellt problematisk eftersom det finns för lite uppgifter om coronaviruset för att AI ska få tillförlitliga resultat. De knapphändiga uppgifter som har blivit tillgängliga är dessutom ofullständiga och snedvridna. Att använda dessa uppgifter för maskininlärningsstrategier skulle kunna leda till många falska negativa och falska positiva resultat.

    3.3

    Det är ytterst viktigt med insyn i de uppgifter och de modeller som används samt resultatens förklarbarhet. Särskilt i denna tid har världen inte råd att fatta beslut som grundar sig på ”svarta lådor”.

    3.4

    När AI används för att bekämpa denna pandemi är respekten för mänskliga rättigheter, etiska principer och befintlig lagstiftning viktigare än någonsin. Särskilt när AI-verktyg kan inkräkta på de mänskliga rättigheterna måste det finnas ett berättigat intresse av att använda dem. De måste vara strikt nödvändiga, proportionerliga och framför allt tidsbegränsade.

    3.5

    Slutligen måste vi säkerställa rättvisa och inkludering. AI-system som håller på att utvecklas för att bekämpa pandemin bör vara opartiska och inte diskriminera. De bör dessutom vara tillgängliga för alla och ta hänsyn till de samhälleliga och kulturella skillnaderna mellan de olika berörda länderna.

    Spårnings- och hälsoövervakningsappar

    3.6

    Enligt virologer och epidemiologer krävs det effektiv spårning, övervakning och skydd av människors hälsa när man öppnar upp samhället och ekonomin efter en nedstängning. Många appar utvecklas för närvarande för spårning och utförande av hälsokontroller, något som vanligtvis (och traditionellt) har utförts av yrkesverksamma. I hela världen har många regeringar satt stor tillit till spårningsappar som ett sätt att öppna upp samhället igen.

    3.7

    Användningen av dessa typer av appar är ett mycket radikalt steg. Därför är det viktigt att kritiskt granska om applikationerna är användbara, nödvändiga och ändamålsenliga samt deras samhälleliga och rättsliga konsekvenser, innan ett beslut fattas om att använda dem. Det måste fortfarande vara möjligt att inte använda appar, och mindre invasiva lösningar bör prioriteras.

    3.8

    Det är mycket viktigt att spårningsapparna är effektiva och tillförlitliga, eftersom ineffektivitet och bristande tillförlitlighet kan leda till många falska positiva och falska negativa resultat, en falsk känsla av trygghet och därmed en större smittrisk. De första vetenskapliga simuleringarna väcker allvarliga tvivel om huruvida en spårningsapp över huvud taget kommer att ha någon positiv inverkan på spridningen av viruset, även om den används till 80 % eller 90 %. En app kan inte heller registrera särskilda omständigheter, t.ex. förekomsten av plexiglas och fönster eller användning av personlig skyddsutrustning.

    3.9

    Dessutom leder dessa appar till ett (partiellt) åsidosättande av olika mänskliga rättigheter och friheter, eftersom de påverkar vår föreningsfrihet, rätten till säkerhet, rätten till icke-diskriminering och rätten till personlig integritet.

    3.10

    Även om personlig integritet är mycket viktigt handlar det om mycket mer än våra personuppgifter och vår anonymitet. Personlig integritet handlar också om rätten att inte följas, spåras och övervakas. Det är vetenskapligt bevisat att människor när de vet att de är övervakade börjar bete sig annorlunda. Enligt Europeiska domstolen för de mänskliga rättigheterna utgör denna ”hämmande effekt” ett intrång i vår personliga integritet. Samma breda integritetsbegrepp bör ingå i debatten om AI.

    3.11

    Det finns en risk att de uppgifter som samlas in (nu eller i framtiden) inte bara kommer att användas för att bekämpa den aktuella pandemin, utan också för att beskriva, kategorisera och betygsätta människor i olika syften. I en mer avlägsen framtid är det till och med möjligt att föreställa sig att en funktionsglidning skulle kunna leda till oönskade typer av profilering i samband med kontroll och övervakning, att det accepteras i samband med försäkringar eller sociala förmåner, anställning eller avskedande osv. De uppgifter som samlas in med hjälp av sådana appar får därför under inga omständigheter användas för profilering, riskgradering, klassificering eller prediktion.

    3.12

    Dessutom kommer alla AI-lösningar som används under dessa extraordinära omständigheter, även om avsikterna är goda, att skapa prejudikat, oavsett om vi gillar det eller inte. Tidigare kriser har visat att sådana åtgärder, trots alla goda avsikter, i praktiken aldrig kommer att försvinna.

    3.13

    Användningen av AI under denna pandemi bör därför alltid mätas och vägas mot flera överväganden, såsom: (i) Är den effektiv och tillförlitlig? (ii) Finns det mindre invasiva lösningar? iii) Uppväger fördelarna de samhälleliga och etiska problemen och de problem som rör de grundläggande rättigheterna? och iv) Kan en ansvarsfull kompromiss uppnås mellan motstridiga grundläggande rättigheter och friheter? Dessutom får dessa typer av system inte tas i bruk under någon form av skyldighet eller tvång.

    3.14

    EESK uppmanar de politiska beslutsfattarna att inte alltför lätt ge efter för tanken att tekniken är en lösning på allt. Med tanke på situationens allvar rekommenderar vi att tillämpningar kopplade till projekt som syftar till att hjälpa till att kontrollera pandemin baseras på sund forskning inom epidemiologi, sociologi, psykologi, juridik, etik och systemvetenskap. Innan man fattar beslut om användningen av dessa system måste effektivitets-, behovs- och känslighetsanalyser och simuleringar genomföras.

    Bryssel den 16 juli 2020.

    Luca JAHIER

    Europeiska ekonomiska och sociala kommitténs ordförande


    Top