Bryssel den 21.4.2021

SWD(2021) 85 final

ARBETSDOKUMENT FRÅN KOMMISSIONENS AVDELNINGAR

SAMMANFATTNING AV KONSEKVENSBEDÖMNINGSRAPPORTEN

Följedokument till

Förslag till Europaparlamentets och rådets förordning

OM HARMONISERADE REGLER FÖR ARTIFICIELL INTELLIGENS (RÄTTSAKT OM ARTIFICIELL INTELLIGENS) OCH OM ÄNDRING AV VISSA UNIONSLAGSTIFTNINGSAKTER

{COM(2021) 206 final} - {SEC(2021) 167 final} - {SWD(2021) 84 final}


Sammanfattning

Konsekvensbedömning av en rättslig ram för artificiell intelligens

A. Behov av åtgärder

Vad är problemet och varför är det ett problem på EU-nivå?

Artificiell intelligens (AI) är en framväxande teknik för allmänna ändamål: det rör sig om en mycket avancerad uppsättning datorprogrammeringstekniker. Användningen av AI-system har stor potential att skapa samhälleliga fördelar och ekonomisk tillväxt, liksom att stärka EU:s innovation och globala konkurrenskraft. I vissa fall kan dock användningen av AI-system skapa problem. De särskilda egenskaperna hos vissa AI-system kan skapa nya risker med anknytning till 1) säkerhet och 2) grundläggande rättigheter och öka de befintliga riskernas sannolikhet eller intensitet. AI-systemen 3) gör det också att det är svårt för de ansvariga myndigheterna att kontrollera efterlevnaden och verkställa de befintliga reglerna. Dessa frågor leder i sin tur till 4) rättslig osäkerhet för företag, 5) ett potentiellt långsammare ibruktagande av AI‑tekniker på grund av bristande förtroende bland företag och medborgare samt 6) regleringsåtgärder från de nationella myndigheternas sida för att minska möjliga externa effekter som riskerar att splittra den inre marknaden.

Vad vill man uppnå?

Syftet med den rättsliga ramen är att ta itu med dessa problem, där målet är att säkerställa en väl fungerande inre marknad genom att skapa förutsättningar för utvecklingen och användningen av tillförlitlig AI i unionen. De särskilda målen är följande: 1) Säkerställa att de AI-system som släpps ut på marknaden och används är säkra och följer den befintliga lagstiftningen om grundläggande rättigheter och unionens värden. 2) Säkerställa rättssäkerhet för att underlätta investeringar och innovation inom AI. 3) Förbättra styrningen och det effektiva genomförandet av den befintliga lagstiftningen om grundläggande rättigheter och säkerhetskrav för AI-system. 4) Underlätta utvecklingen av en inre marknad för lagliga, säkra och tillförlitliga AI-system och förhindra att marknaden splittras.

Vad är mervärdet med åtgärder på EU-nivå (subsidiaritet)? 

Den gränsöverskridande karaktären hos de storskaliga data och dataset som AI-tillämpningar ofta använder innebär att initiativets mål inte kan uppnås på ett effektivt sätt enbart av medlemsstaterna. Den europeiska rättsliga ramen för tillförlitlig AI syftar till att fastställa harmoniserade regler för utveckling, utsläppande på marknaden och användning av produkter och tjänster som med inbyggd AI-teknik eller fristående AI-tillämpningar i unionen. Den har som syfte att säkerställa lika villkor och skydda alla EU-medborgare samtidigt som den stärker Europas konkurrenskraft och industriella bas inom AI. EU:s AI-åtgärder kommer att gynna den inre marknaden och har stor potential att ge det europeiska näringslivet en konkurrensfördel på global nivå tack vare stordriftsfördelar som inte kan uppnås enbart av enskilda medlemsstater.

B. Lösningar

Vilka alternativ finns för att nå målen? Finns det något rekommenderat alternativ? Om inte, varför?

Följande alternativ har övervägts: Alternativ 1: EU-rättsakt om inrättande av ett frivilligt märkningssystem. Alternativ 2: En sektorsspecifik ad hoc-strategi. Alternativ 3: Ett övergripande lagstiftningsinstrument på EU-nivå som fastställer obligatoriska krav för AI-tillämpningar med hög risk. Alternativ 3+: Samma som alternativ 3, men med frivilliga uppförandekoder för AI-tillämpningar utan hög risk. Alternativ 4: Ett övergripande lagstiftningsinstrument på EU-nivå som fastställer obligatoriska krav för alla AI-tillämpningar. Det rekommenderade alternativet är alternativ 3+ eftersom det erbjuder proportionerliga skyddsåtgärder mot riskerna med AI, samtidigt som de administrativa kostnaderna och efterlevnadskostnaderna begränsas till ett minimum. Den specifika frågan om ansvaret för AI-tillämpningar kommer att behandlas genom tydliga framtida regler och omfattas därför inte av alternativen.

Vad anser de berörda parterna? Vem stöder vilka alternativ?

Företag, myndigheter, akademiker och icke-statliga organisationer är alla överens om att det finns luckor i lagstiftningen eller att ny lagstiftning behövs, dock i mindre utsträckning bland företagen. Näringslivet och myndigheterna anser att de obligatoriska kraven bör begränsas till AI‑tillämpningar med hög risk. Medborgarna och det civila samhället är inte lika övertygade om att de obligatoriska kraven bör begränsas till högrisktillämpningar.

C. Det rekommenderade alternativets konsekvenser

Vilka är fördelarna med det rekommenderade alternativet (om ett sådant finns, annars för huvudalternativen)?

För medborgarna kommer det rekommenderade alternativet att minska riskerna för deras säkerhet och grundläggande rättigheter. För leverantörer av AI kommer det att skapa rättssäkerhet och säkerställa att inga hinder uppstår för det gränsöverskridande tillhandahållandet av AI-relaterade tjänster och produkter. För företag som använder AI kommer det att öka förtroendet bland deras kunder. För nationella offentliga förvaltningar kommer alternativet att främja allmänhetens förtroende för användningen av AI och stärka efterlevnadsmekanismerna (genom att införa en europeisk samordningsmekanism, tillhandahålla lämplig kapacitet och underlätta revisioner av AI-systemen med nya krav på dokumentation, spårbarhet och transparens).

Vad är kostnaderna för det rekommenderade alternativet (om ett sådant finns, annars för de huvudsakliga alternativen)?

Företag eller myndigheter som utvecklar eller använder AI-tillämpningar som innebär en hög risk för medborgarnas säkerhet eller grundläggande rättigheter skulle behöva uppfylla särskilda övergripande krav och skyldigheter som införs genom tekniska harmoniserade standarder. Den totala efterlevnadskostnaden uppskattas till mellan 100 och 500 miljoner euro fram till 2025, vilket motsvarar upp till 4–5 % av investeringarna i AI med hög risk (som uppskattas stå för mellan 5 % och 15 % av alla AI-tillämpningar). Kontrollkostnaderna skulle kunna uppgå till ytterligare 2–5 % av investeringarna i AI med hög risk. Företag eller myndigheter som utvecklar eller använder AI-tillämpningar som inte klassificeras som högrisktillämpningar skulle inte behöva ådra sig några kostnader. De kan dock välja att följa frivilliga uppförandekoder för att uppfylla lämpliga krav och se till att deras AI är tillförlitlig. I dessa fall kan kostnaderna bli lika höga som för högrisktillämpningar, men troligtvis lägre.

Hur påverkas små och medelstora företag och konkurrenskraften?

Små och medelstora företag kommer att gynnas mer av ett större allmänt förtroende för AI än stora företag som också kan förlita sig på sin varumärkesprofil. Små och medelstora företag som utvecklar tillämpningar som klassificeras som att de har hög risk skulle behöva bära liknande kostnader som stora företag. På grund av den digitala teknikens stora skalbarhet kan små och medelstora företag ha en enorm räckvidd trots sin ringa storlek och potentiellt påverka miljontals individer. När det gäller högrisktillämpningar skulle därför målet att öka förtroendet allvarligt kunna undergrävas om små och medelstora företag som tillhandahåller AI-lösningar undantas från tillämpningen av den rättsliga ramen. Ramen kommer dock att omfatta särskilda åtgärder, inklusive regulatoriska sandlådor eller stöd genom de digitala innovationsknutpunkter, för att stödja små och medelstora företag i deras efterlevnad av de nya reglerna, med hänsyn tagen till deras särskilda behov.

Påverkas medlemsstaternas budgetar och förvaltningar i betydande grad? 

Medlemsstaterna måste utse tillsynsmyndigheter som ansvarar för att genomföra lagstiftningskraven. Deras tillsynsfunktion skulle kunna utgå från befintliga arrangemang, till exempel när det gäller organ för bedömning av överensstämmelse eller marknadskontroll, men skulle kräva tillräcklig teknisk expertis och tillräckliga resurser. Beroende på den befintliga strukturen i varje medlemsstat kan detta uppgå till 1–25 heltidsekvivalenter per medlemsstat.

Uppstår andra betydande konsekvenser? 

Det rekommenderade alternativet skulle avsevärt minska riskerna för medborgarnas grundläggande rättigheter och för bredare unionsvärden, och kommer att öka säkerheten för vissa produkter och tjänster med inbyggd AI-teknik eller fristående AI-tillämpningar.

Proportionalitetsprincipen 

Förslaget är proportionerligt och nödvändigt för att uppnå målen i och med att det följer en riskbaserad strategi och medför regelbördor endast när AI-systemen sannolikt kommer att innebära stora risker för de grundläggande rättigheterna eller säkerheten. När detta inte är fallet införs endast minimala krav på transparens, särskilt när det gäller tillhandahållande av information för att framhålla att det rör sig om ett AI-system vid interaktion med människor eller när deepfakes inte används för legitima ändamål. Harmoniserade standarder, stödjande vägledning och efterlevnadsverktyg kommer att syfta till att hjälpa leverantörer och användare att uppfylla kraven och minimera sina kostnader.

D. Uppföljning

När kommer åtgärderna att ses över?

Kommissionen kommer att offentliggöra en rapport med en utvärdering och översyn av ramen fem år efter det datum då den börjar tillämpas.