Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52021IP0405

    Europa-Parlamentets beslutning af 6. oktober 2021 om kunstig intelligens inden for strafferet og politiets og de retlige myndigheders anvendelse heraf i strafferetlige sager (2020/2016(INI))

    EUT C 132 af 24.3.2022, p. 17–26 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    24.3.2022   

    DA

    Den Europæiske Unions Tidende

    C 132/17


    P9_TA(2021)0405

    Kunstig intelligens inden for strafferet og politiets og de retlige myndigheders anvendelse heraf i strafferetlige sager

    Europa-Parlamentets beslutning af 6. oktober 2021 om kunstig intelligens inden for strafferet og politiets og de retlige myndigheders anvendelse heraf i strafferetlige sager (2020/2016(INI))

    (2022/C 132/02)

    Europa-Parlamentet,

    der henviser til traktaten om Den Europæiske Union, særlig artikel 2 og 6, og traktaten om Den Europæiske Unions funktionsmåde, særlig artikel 16,

    der henviser til EU's charter om grundlæggende rettigheder (»chartret«), særlig artikel 6, 7, 8, 11, 12, 13, 20, 21, 24 og 47,

    der henviser til konventionen til beskyttelse af menneskerettigheder og grundlæggende frihedsrettigheder,

    der henviser til Europarådets konvention om beskyttelse af det enkelte menneske i forbindelse med elektronisk databehandling af personoplysninger (ETS 108) og ændringsprotokollen til denne (konvention 108+),

    der henviser til det europæiske etiske charter for anvendelse af kunstig intelligens inden for retsvæsenet og dertil knyttede områder, som er udarbejdet af Europarådets CEPEJ-kommission,

    der henviser til Kommissionens meddelelse af 8. april 2019 om opbygning af tillid til menneskecentreret kunstig intelligens (COM(2019)0168),

    der henviser til de »Etiske retningslinjer for pålidelig kunstig intelligens« fra Kommissionens Ekspertgruppe på Højt Niveau vedrørende Kunstig Intelligens af 8. april 2019,

    der henviser til Kommissionens hvidbog af 19. februar 2020 om kunstig intelligens — en europæisk tilgang til ekspertise og tillid (COM(2020)0065),

    der henviser til Kommissionens meddelelse af 19. februar 2020 med titlen »En europæisk strategi for data« (COM(2020)0066),

    der henviser til Europa-Parlamentets og Rådets forordning (EU) 2016/679 af 27. april 2016 om beskyttelse af fysiske personer i forbindelse med behandling af personoplysninger og om fri udveksling af sådanne oplysninger og om ophævelse af direktiv 95/46/EF (generel forordning om databeskyttelse) (1),

    der henviser til Europa-Parlamentets og Rådets direktiv (EU) 2016/680 af 27. april 2016 om beskyttelse af fysiske personer i forbindelse med kompetente myndigheders behandling af personoplysninger med henblik på at forebygge, efterforske, afsløre eller retsforfølge strafbare handlinger eller fuldbyrde strafferetlige sanktioner og om fri udveksling af sådanne oplysninger og om ophævelse af Rådets rammeafgørelse 2008/977/RIA (2),

    der henviser til Europa-Parlamentets og Rådets forordning (EU) 2018/1725 af 23. oktober 2018 om beskyttelse af fysiske personer i forbindelse med behandling af personoplysninger i Unionens institutioner, organer, kontorer og agenturer og om fri udveksling af sådanne oplysninger og om ophævelse af forordning (EF) nr. 45/2001 og afgørelse nr. 1247/2002/EF (3),

    der henviser til Europa-Parlamentets og Rådets direktiv 2002/58/EF af 12. juli 2002 om behandling af personoplysninger og beskyttelse af privatlivets fred i den elektroniske kommunikationssektor (direktivet om databeskyttelse inden for elektronisk kommunikation) (4),

    der henviser til Europa-Parlamentets og Rådets forordning (EU) 2016/794 af 11. maj 2016 om Den Europæiske Unions Agentur for Retshåndhævelsessamarbejde (Europol) og om erstatning og ophævelse af Rådets afgørelse 2009/371/RIA, 2009/934/RIA, 2009/935/RIA, 2009/936/RIA og 2009/968/RIA (5),

    der henviser til sin beslutning af 19. juni 2020 om protesterne mod racisme efter George Floyds død (6),

    der henviser til sin beslutning af 14. marts 2017 om big datas indvirkning på de grundlæggende rettigheder: privatlivets fred, databeskyttelse, ikke-forskelsbehandling, sikkerhed og retshåndhævelse (7),

    der henviser til høringen i Udvalget om Borgernes Rettigheder og Retlige og Indre Anliggender (LIBE) den 20. februar 2020 om kunstig intelligens inden for strafferet og om politiets og retsvæsenets anvendelse heraf i kriminalsager,

    der henviser til rapporten fra LIBE-udvalgets rejse til USA i februar 2020,

    der henviser til forretningsordenens artikel 54,

    der henviser til udtalelserne fra Udvalget om det Indre Marked og Forbrugerbeskyttelse og Retsudvalget,

    der henviser til betænkning fra Udvalget om Borgernes Rettigheder og Retlige og Indre Anliggender (A9-0232/2021),

    A.

    der henviser til, at digitale teknologier i almindelighed og udbredelsen af databehandling og analyse, der muliggøres af kunstig intelligens (AI), i særdeleshed indebærer usædvanligt lovende perspektiver, men også tilsvarende farer; der henviser til, at der er gjort kvantespring i udviklingen af AI i de seneste år, hvormed AI er blevet til en af det 21. århundredes strategiske teknologier med potentiale til at frembringe betydelige fordele med hensyn til effektivitet, nøjagtighed og hensigtsmæssighed og dermed skabe positive forandringer for EU's økonomi og samfund, men også udgør enorme risici for undergravning af de grundlæggende rettigheder og demokratiet, der bygger på retsstatsprincippet; der henviser til, at kunstig intelligensikke bør ses som et mål i sig selv, men som et redskab til at tjene mennesker med det ultimative formål at højne menneskehedens velfærd og menneskets formåen og sikkerhed;

    B.

    der henviser til, at der trods de fortsatte fremskridt inden for databehandlingshastighed og hukommelseskapacitet endnu ikke findes programmer, som kan matche den menneskelige fleksibilitet inden for bredere domæner eller i opgaver, som kræver forståelse af kontekst eller kritisk analyse; der henviser til, at nogle AI-anvendelser har opnået samme præstationsniveauer som menneskelige eksperter og fagfolk i udførelsen af visse specifikke opgaver og kan levere resultater med en helt anden hastighed og i større skala;

    C.

    der henviser til, at nogle lande gør mere brug af AI-applikationer inden for retshåndhævelse og retsvæsen end andre, hvilket delvis skyldes enten fravær af retlige forskrifter eller forskelle i de retlige forskrifter, der tillader eller forbyder anvendelse af kunstig intelligens til bestemte formål; der henviser til, at den voksende brug af kunstig intelligens på det strafferetlige område er baseret på forventninger om, at det vil bibringe et fald i visse former for kriminalitet og føre til mere objektive afgørelser; der henviser til, at disse forventninger imidlertid ikke altid indfries;

    D.

    der henviser til, at de grundlæggende rettigheder og friheder, der er nedfældet i chartret, bør garanteres for hele AI- og relaterede teknologiers livscyklus, navnlig under udformning, udvikling, opstilling og anvendelse, og bør gælde i forbindelse med håndhævelse af loven uanset omstændigheder;

    E.

    der henviser til, at AI-teknologi bør udvikles på en sådan måde, at den sætter mennesket i centrum, fortjener offentlighedens tillid og altid tjener menneskets formål; der henviser til, at AI-systemer skal være udstyret med den ultimative sikkerhedsmekanisme, at de udformes således, at de altid kan afbrydes af en menneskelig operatør;

    F.

    der henviser til, at AI-systemer skal udformes til beskyttelse af og gavn for alle medlemmer af samfundet (herunder hensyntagen i udformningen til sårbare, marginaliserede befolkningsgrupper), være ikke-diskriminerende, ufarlige, deres beslutninger skal være forklarlige og gennemskuelige og skal respektere menneskers autonomi og grundlæggende rettigheder, således at de kan anses for pålidelige som beskrevet i de etiske retningslinjer fra Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens;

    G.

    der henviser til, at EU i fællesskab med medlemsstaterne bærer det afgørende ansvar for at sikre, at beslutninger vedrørende livscyklus og anvendelse af AI-applikationer inden for retsvæsen og retshåndhævelse træffes på en gennemskuelig måde, der til fulde værner om de grundlæggende rettigheder og navnlig ikke viderefører forskelsbehandling, fordomme eller andre tendentiøse indstillinger, hvor sådanne forekommer; der henviser til, at beslutninger om de relevante politikker at følge bør respektere principperne om nødvendighed og proportionalitet for at sikre forfatningsmæssig medholdelighed og et retfærdigt og humant retsvæsen;

    H.

    der henviser til, at AI-applikationer kan skabe store muligheder inden for retshåndhævelse, navnlig med hensyn til at forbedre de retshåndhævende myndigheders og retsvæsenets arbejdsmetoder og til at forebygge og bekæmpe visse former for kriminalitet mere effektivt, navnlig økonomisk kriminalitet, hvidvaskning af penge og finansiering af terrorisme, seksuelle overgreb og udnyttelse af børn online samt visse former for cyberkriminalitet, og dermed bidrage til EU-borgernes sikkerhed, idet det dog samtidig kan medføre betydelig risiko for overtrædelse af de grundlæggende rettigheder; der henviser til, at enhver generel anvendelse af kunstig intelligens med henblik på masseovervågning vil være uforholdsmæssig;

    I.

    der henviser til, at udvikling og drift af AI-systemer til politi og retsvæsen involverer bidrag fra mange enkeltpersoner, organisationer, maskinkomponenter, softwarealgoritmer og menneskelige brugere i ofte komplekse og udfordrende sammensætninger; der henviser til, at anvendelse af kunstig intelligens inden for retshåndhævelse og retsvæsen befinder sig på forskellige udviklingsstader, lige fra konceptudvikling over udvikling af prototyper eller evaluering til efterfølgende godkendelse; der henviser til, at der kan opstå nye anvendelsesmuligheder i fremtiden, efterhånden som teknologien modnes som følge af den løbende, intensive forskning på verdensplan;

    J.

    der henviser til, at det er bydende nødvendigt med en klar model for fastlæggelse af det juridiske ansvar for de potentielle skadelige virkninger af AI-systemer på det strafferetlige område; der henviser til, at reguleringsmæssige bestemmelser på dette område altid bør fastholde det menneskelige ansvar og først og fremmest have til formål at undgå, at der overhovedet forvoldes skade;

    K.

    der henviser til, at det i sidste ende er medlemsstaternes ansvar at sikre fuld overholdelse af de grundlæggende rettigheder, når AI-systemer benyttes inden for retshåndhævelse og af domstolene;

    L.

    der henviser til, at forholdet mellem beskyttelse af de grundlæggende rettigheder og effektivt politiarbejde altid skal være et centralt element i diskussionen om, hvorvidt og hvordan kunstig intelligensbør anvendes inden for retshåndhævelse, hvor beslutninger kan have langvarige konsekvenser for enkeltpersoners liv og frihed; der henviser til, at dette er særlig vigtigt, idet kunstig intelligenspotentielt set kan blive en permanent del af vores strafferetlige system, som det vil tilføre analyser og bistand;

    M.

    der henviser til, at kunstig intelligens anvendes af retshåndhævende myndigheder til opgaver såsom ansigtsgenkendelse, f.eks. til at søge i databaser over mistænkte og identificere ofre for menneskehandel eller seksuel udnyttelse og overgreb på børn, automatiseret nummerpladegenkendelse, stemmeidentifikation, taleforståelse, mundaflæsning, lydovervågning (dvs. algoritmer til afdækning af våbenaffyring), autonom forskning og analyse af identificerede databaser, prognosticering (forudsigende politiindsats og kriminalitetsbrændpunkt-analyse), adfærdsafdækning, avancerede virtuelle obduktionsredskaber til at medvirke til at fastslå dødsårsag, autonome redskaber til indkredsning af finansielt svig og finansiering af terrorisme, overvågning af sociale medier (web- og data-harvesting til afdækning af forbindelser), automatiserede overvågningssystemer med forskellige detektionskapaciteter (f.eks. hjertelydsdetektion og varmfølsomme kameraer); der henviser til, at de ovennævnte anvendelsesmuligheder ligesom andre potentielle eller fremtidige anvendelser af AI-teknologi inden for retshåndhævelse kan have vidt forskellige grader af pålidelighed og nøjagtighed og vil kunne påvirke beskyttelsen af de grundlæggende rettigheder og strafferetssystemernes funktionsmåder; der henviser til, at mange af disse redskaber anvendes i lande uden for EU, men ville være ulovlige i henhold til gældende EU-ret og retspraksis på databeskyttelsesområdet; der henviser til, at rutinemæssig anvendelse af algoritmer selv med en lav procentsats for falsk accept kan føre til langt flere falske end korrekte varslinger;

    N.

    der henviser til, at AI-redskaber og -applikationer også anvendes af retsvæsenet i en række lande rundt om i verden, blandt andet til at understøtte afgørelser om varetægtsfængsling, domfældelse, beregning af sandsynligheden for kriminelt recidiv, fastsættelse af prøveløsladelsestid, onlinetvistbilæggelse, forvaltning af retspraksis og lettere adgang til justits; der henviser til, at dette har ført til fordrejede og forringede chancer for farvede mennesker og andre minoriteter; der henviser til, at anvendelsen heraf i EU, fraset enkelte medlemsstater, for nuværende overvejende er begrænset til det civilretlige område;

    O.

    der henviser til, at brugen af kunstig intelligens i retshåndhævelse indebærer en række potentielle, høje og i visse tilfælde uacceptable risici for krænkelse af individets grundlæggende rettigheder, f.eks. uigennemsigtig beslutningstagning, forskellige former for forskelsbehandling og fejl, som er en iboende del af de underliggende algoritmer og kan forstærkes gennem feedbacksløjfer, samt risici som truer beskyttelsen af privatlivets fred og personoplysninger, ytrings- og informationsfriheden, uskyldsformodning, adgang til effektive retsmidler, retten til retfærdig rettergang samt vedrører indskrænkninger af individets frihed og sikkerhed;

    P.

    der henviser til, at AI-systemer, der anvendes af retshåndhævende myndigheder og retsvæsenet, også er sårbare over for AI-drevne angreb eller dataforgiftning, hvor et forkert datasæt bevidst medtages med henblik på at fordreje resultaterne; der henviser til, at de forårsagede skader i sådanne situationer potentielt kan være endnu mere vidtrækkende og medføre eksponentielt større omfang af skade på både enkeltpersoner og grupper;

    Q.

    der henviser til, at udbredelsen af kunstig intelligens inden for retshåndhævelse og retsvæsenet ikke bør ses som blot en teknisk mulighed, men snarere som en politisk beslutning vedrørende udformningen af og målene for retshåndhævelse og strafferetssystemer; der henviser til, at moderne strafferet bygger på den tanke, at myndighederne reagerer på en forbrydelse, efter at den har fundet sted, uden at antage, at alle mennesker er farlige og man derfor er nødt til at overvåge dem konstant for at forebygge potentielle overtrædelser; der henviser til, at AI-baserede overvågningsteknikker på dybdegående vis bestrider denne tilgang og gør det presserende, at lovgivere verden over omhyggeligt vurderer konsekvenserne af at tillade indførelse af teknologier, der mindsker menneskers rolle inden for retshåndhævelse og dømmekraft;

    1.

    gentager, at eftersom behandlingen af store mængder persondata er kernen i AI, gælder retten til beskyttelse af privatlivets fred og retten til beskyttelse af personoplysninger for alle områder af kunstig intelligens, og at EU's retlige rammer for databeskyttelse og privatlivets fred skal overholdes fuldt ud; minder derfor om, at EU allerede har indført databeskyttelsesstandarder for retshåndhævelse, som udgør grundlaget for enhver fremtidig regulering af kunstig intelligens til brug inden for retshåndhævelse og domstole; minder om, at behandling af personoplysninger bør ske under legale og rimelige forhold, at formålene med behandlingen bør angives klart og være udtrykkelige og legitime, at behandlingen bør være tilstrækkelig, relevant og ikke være af uforholdsmæssigt omfang i relation til sit formål, bør være nøjagtig og ajourført, at unøjagtige data ikke bør opbevares længere end nødvendigt, medmindre der gælder begrænsninger, at der bør fastsættes klare og passende tidsfrister for sletning eller regelmæssig vurdering af behovet for opbevaring af sådanne oplysninger, og at disse bør behandles på en sikker måde; fremhæver endvidere, at det børe forebygges, at personer, der tidligere er blevet anonymiseret, eventuelt identificeres ved hjælp af en AI-applikation, der anvender data;

    2.

    fastslår, at alle AI-løsninger til retshåndhævelse og retsvæsen også fuldt ud skal overholde principperne om ikke-forskelsbehandling, fri bevægelighed, uskyldsformodning og ret til forsvar, herunder retten til ikke at udtale sig, ytrings- og informationsfrihed, forsamlings- og foreningsfrihed, lighed for loven, princippet om ligestilling af parterne, adgang til effektive retsmidler og retten til en retfærdig rettergang, i overensstemmelse med den europæiske menneskerettighedskonvention; understreger, at anvendelsen af kunstig intelligensskal forbydes, hvis den er klart uforenelig med grundlæggende rettigheder;

    3.

    erkender, at den hastighed, hvormed der udvikles AI-applikationer verden over, ikke giver mulighed for en udtømmende liste over anvendelsesformer, hvilket derfor fordrer en klar og sammenhængende forvaltningsmodel, der sikrer både individets grundlæggende rettigheder og juridisk klarhed for udviklere i betragtning af den fortsatte teknologiske udvikling; finder imidlertid, i betragtning af politiets og de retlige myndigheders funktioner og ansvar og virkningen af de afgørelser, de træffer i forbindelse med præventive skridt, efterforskning, afsløring eller retsforfølgning af straffelovsovertrædelser eller fuldbyrdelse af strafferetlige sanktioner, at anvendelsen af AI-applikationer skal kategoriseres som højrisikoanvendelser i tilfælde, hvor der er potentiale for i væsentlig grad at påvirke den enkeltes liv;

    4.

    mener i denne forbindelse, at ethvert AI-redskab, der enten udvikles eller anvendes af retshåndhævende myndigheder eller af retsvæsenet, som minimum bør være ufarligt, solidt, sikkert og egnet til formålet, skal respektere principperne om rimelighed, dataminimering, ansvarsplacering, gennemsigtighed, ikke-forskelsbehandling og forklarlighed, og at udviklingen, ibrugtagningen og anvendelsen heraf skal underkastes risikovurdering og nøje efterprøvelse af nødvendighed og proportionalitet, idet sikkerhedsmekanismerne skal stå i proportionelt forhold til de indkredsede risici; fremhæver, at borgernes tillid til brugen af AI, som udvikles, opstilles og anvendes i EU, afhænger af, at disse kriterier opfyldes til fulde;

    5.

    anerkender det positive bidrag, som visse typer AI-applikationer yder til de retshåndhævende myndigheders og retsvæsenets arbejde rundt om i Unionen; fremhæver som eksempel herpå den forbedrede forvaltning af retspraksis, som opnås med redskaber, der giver flere søgemuligheder; mener, at der er en række andre potentielle anvendelser af kunstig intelligens for retshåndhævelse og retsvæsenet, som kan udforskes under hensyntagen til de fem principper i CEPEJ-kommissionens etiske charter for anvendelse af kunstig intelligens inden for retsvæsenet og dertil knyttede områder, med særlig vægt på de af CEPEJ indkredsede »anvendelsesmuligheder at overveje med den allermest udtalte tilbageholdenhed«;

    6.

    understreger, at teknologi kan anvendes til andre formål end det tiltænkte, og opfordrer til streng demokratisk kontrol og tilsyn med enhver AI-understøttet teknologi, som anvendes af offentlige myndigheder, og hvis anvendelse kan ændres til masseovervågning eller masseprofilering; bemærker derfor med stor bekymring potentialet i visse AI-teknologier, der anvendes i retshåndhævelsessektoren til masseovervågning; fremhæver det retlige krav om at forhindre AI-teknologiunderstøttet masseovervågning, som pr. definition udgør en overtrædelse af principperne om nødvendighed og proportionalitet, og om at forbyde anvendelsen af applikationer, der kan resultere heri;

    7.

    understreger, at den tilgang, som visse lande uden for EU har tillagt med hensyn til udvikling, udbredelse og anvendelse af masseovervågningsteknologier, i uforholdsmæssig grad træder de grundlæggende rettigheder for nær og derfor ikke skal følges af EU; understreger derfor, at mekanismer til at sikre mod retshåndhævende myndigheders og retsvæsenets misbrug af AI-teknologi også skal reguleres ensartet i hele Unionen;

    8.

    fremhæver den risiko for fordomme og diskrimination, der knytter sig til brugen af AI-applikationer såsom maskinlæring, herunder til de algoritmer som sådanne anvendelser er baseret på; bemærker, at fordomme kan være en iboende del af de underliggende datasæt, navnlig når der anvendes historiske data indføjet af udviklerne af algoritmerne eller som genereres, når systemerne implementeres under virkelige forhold; påpeger, at resultaterne af AI-applikationerne nødvendigvis influeres af kvaliteten af de anvendte data, og at sådanne iboende skævheder er tilbøjelige til gradvist at øges og derved videreføre og forstærke eksisterende forskelsbehandling, navnlig for personer, der tilhører bestemte etniske grupper eller racedefinerede befolkningsgrupper;

    9.

    understreger, at mange algoritmisk drevne identifikationsteknologier, der i øjeblikket anvendes uforholdsmæssigt meget, er tilbøjelige til at fejlidentificere og fejlklassificere og de skader dermed racedefinerede grupper, enkeltpersoner tilhørende bestemte etniske grupper, LGBTI-personer, børn og ældre samt kvinder; minder om, at enkeltpersoner ikke bare har ret til at blive korrekt identificeret, men også har ret til overhovedet ikke at blive identificeret, medmindre det er hjemlet ved lov af tvingende og legitime almene hensyn; understreger, at AI-forudsigelser baseret på en bestemt persongruppes karakteristika ender med at forstærke og gengive eksisterende former for forskelsbehandling; mener, at der bør gøres en ihærdig indsats for at undgå automatisk forskelsbehandling og fordomme; opfordrer til solide ekstra sikkerhedsforanstaltninger i tilfælde, hvor AI-systemer anvendes inden for retshåndhævelse eller retsvæsenet, eller i forbindelse med mindreårige;

    10.

    fremhæver det asymmetriske magtforhold mellem dem der benytter AI-teknologier, og dem der er underlagt dem; understreger, at det er bydende nødvendigt, at politiets og retslige myndigheders anvendelse af kunstig intelligens i straffesager ikke bliver en faktor for ulighed, social opsplitning eller udelukkelse; understreger den indvirkning, som brugen af AI-redskaber får på mistænktes ret til forsvar, vanskelighederne med at få forelagt meningsfulde oplysninger om, hvordan redskaberne fungerer, og de deraf følgende vanskeligheder ved at anfægte heraf fremskaffede resultater i retten, navnlig for enkeltpersoner der er genstand for efterforskning;

    11.

    bemærker risiciene i forbindelse med datalækage, brud på datasikkerheden og uautoriseret adgang til personoplysninger og anden information i forbindelse med for eksempel kriminalefterforskning eller retssager, som behandles af AI-systemer; understreger, at sikkerheds- og tryghedsaspekterne ved AI-systemer, der anvendes til retshåndhævelse og af domstolene, skal overvejes nøje og være tilstrækkeligt robuste og modstandsdygtige til, at de kan forhindre de potentielt katastrofale følger af ondsindede angreb på AI-systemer; understreger betydningen af indbygget sikkerhed og af specifikt menneskeligt tilsyn, inden visse kritiske applikationer tages i drift, og opfordrer derfor retshåndhævende myndigheder og retsvæsen til med henblik på at undgå funktionsskred kun at anvende AI-applikationer, der overholder princippet om beskyttelse af privatlivets fred og indbygget databeskyttelse;

    12.

    understreger, at intet AI-system bør være sat i stand til at kunne skade menneskers fysiske integritet eller tildele enkeltpersoner rettigheder eller pålægge dem juridiske forpligtelser;

    13.

    anerkender udfordringerne ved at placere det juridiske ansvar og erstatningsansvar for potentielle skadelige virkninger korrekt, i betragtning af kompleksiteten i udviklingen og driften af AI-systemer; finder det nødvendigt at skabe en klar og retfærdig ordning for fordeling af det juridiske ansvar og erstatningsansvaret for de potentielle negative konsekvenser af disse avancerede digitale teknologier; understreger imidlertid, at det primære mål først og fremmest må være at forebygge, at der overhovedet opstår sådanne konsekvenser; opfordrer derfor til efterlevelse af forsigtighedsprincippet over en bred kam så vidt angår alle former for anvendelse af kunstig intelligens inden for retshåndhævelse; understreger, at juridisk ansvar og erstatningsansvar altid skal placeres hos en fysisk eller juridisk person, som altid skal identificeres for så vidt angår beslutninger, der træffes med støtte fra AI; understreger derfor behovet for at sørge for gennemsigtighed i de virksomhedsstrukturer, hvor AI-systemer fremstilles og forvaltes;

    14.

    anser det for afgørende både af hensyn til effektiv udøvelse af retten til forsvar og til gennemsigtigheden i de nationale strafferetlige systemer, at der opstilles specifikke, klare og præcise retlige rammer for regulering af betingelser og modaliteter for samt konsekvenserne af brugen af AI-redskaber inden for retshåndhævelse og retsvæsen såvel som rettighederne for personer i søgelyset og effektive, lettilgængelige klage- og afhjælpningsprocedurer, herunder adgang til retsmidler; fremhæver, at parterne i en straffesag har ret til adgang til dataindsamlingsprocessen og de hertil knyttede vurderinger foretaget eller opnået ved brug af AI-applikationer; fremhæver nødvendigheden af, at udøvende myndigheder, der indgår i retslige samarbejde i forbindelse med afgørelser på anmodninger om udlevering til retsforfølgelse i en anden medlemsstat eller tredjeland, vurderer, hvorvidt anvendelsen af AI-redskaber i det anmodende land vil kunne indebære en klar overtrædelse af den pågældende grundlæggende ret til en retfærdig rettergang; opfordrer Kommissionen til at udstede retningslinjer for foretagelse af en sådan vurdering i forbindelse med retligt samarbejde i straffesager; fastholder, at medlemsstaterne i overensstemmelse med gældende ret bør sikre, at enkeltpersoner underrettes, når de er genstand for retshåndhævende myndigheders eller retsvæsenets anvendelse af AI-applikationer;

    15.

    påpeger, at hvis mennesker udelukkende forlader sig på oplysninger, profiler og anbefalinger, som er genereret af maskiner, vil de ikke være i stand til at foretage en uafhængig vurdering; fremhæver i denne forbindelse de potentielt alvorlige negative konsekvenser, navnlig på retshåndhævelses- og retsområdet, når enkeltpersoner nærer for stor tillid til AI-redskabers tilsyneladende objektive og videnskabelige karakter og derfor forsømmer at overveje muligheden af, at sådanne resultater er ukorrekte, ufuldstændige, irrelevante eller diskriminerende; fremhæver, at nærved blind tillid til AI-systemgenererede resultater bør undgås, og betoner nødvendigheden af, at myndighederne opbygger selvtilliden og indsigten til at betvivle eller forkaste en algoritmisk anbefaling; mener, at det er vigtigt at have realistiske forventninger til sådanne teknologiske løsninger og ikke at stille i udsigt, at retshåndhævelsesløsninger bliver perfekte og alle lov overtrædelser opdaget;

    16.

    understreger, at afgørelser med retslig eller tilsvarende virkning, der træffes i retslige og retshåndhævende sammenhænge, altid skal træffes af et menneske, som kan drages til ansvar for de trufne afgørelser; mener, og personer, der er genstand for AI-systembehandling, skal have klageadgang; minder om, at i henhold til EU-retten har man ret til ikke at blive gjort til genstand for en afgørelse, der har retsvirkning eller i væsentlig grad påvirker én, hvis afgørelsen alene er baseret på elektronisk databehandling; understreger endvidere, at automatiseret, individuel beslutningstagning ikke må baseres på særlige kategorier af personoplysninger, medmindre der er indført egnede foranstaltninger til beskyttelse af den registreredes rettigheder og frihedsrettigheder samt legitime interesser; fremhæver, at EU-retten forbyder profiltegning i det omfang, det fører til diskrimination af fysiske personer på grundlag af særlige kategorier af personoplysninger; fremhæver, at beslutninger inden for retshåndhævelse i kraft af retshåndhævende myndigheders udøvende beføjelser og opgaver næsten altid er beslutninger, som har en retsvirkning for den berørte person; bemærker, at brugen af kunstig intelligenskan påvirke menneskelige afgørelser og indvirke på alle faser i den strafferetlige procedure; indtager derfor det synspunkt, at de myndigheder, der gør brug af AI-systemer, skal efterleve ekstremt høje retlige standarder og sikre menneskelig indgriben, navnlig i forbindelse med analyse af data afledt af sådanne systemer; kræver derfor, at dommerne fortsat udøver suveræne skønsmæssige beføjelser, og at afgørelser træffes på sagsindividuelt grundlag; opfordrer til at forbud mod anvendelse af kunstig intelligens og beslægtet teknologi til at træffe retsafgørelser;

    17.

    opfordrer til algoritmisk forklarlighed, gennemskuelighed, sporbarhed og verifikation som en nødvendig del af tilsynet for dermed at sikre, at udvikling, indarbejdelse og brug af AI-systemer til retslige og retshåndhævende formål sker i nøje efterlevelse af de grundlæggende rettigheder og har borgernes tillid, samt for at sikre at de resultater, der genereres af AI-algoritmer, kan gøres forståelige for brugerne og personer, der er genstand for disse systemer, og at der er gennemsigtighed med hensyn til kildedataene og til, hvordan systemet er nået frem til en given konklusion; påpeger, at det for at sikre teknisk gennemsigtighed, soliditet og nøjagtighed kun bør være muligt for de retshåndhævende myndigheder og retsvæsenet at anskaffe sig sådanne redskaber og systemer, hvis algoritmer og logik kan revideres og er tilgængelige for i hvert fald politi og retsvæsen samt for uafhængige auditorer, således at de kan evalueres, revideres og frasorteres, og at det ikke bør være muligt for sælgerne at låse systemerne eller hævde nogen ejendomsret over dem; peger endvidere på, at der skal foreligge dokumentation på klart og forståeligt sprog om tjenesteydelsens indhold, de udviklede redskaber, de forventede resultater og de betingelser, som de kan forventes at fungere på, samt de risici de kan indebære; opfordrer derfor retsvæsenet og de retshåndhævende myndigheder til at sørge for proaktiv og fuldstændig gennemsigtighed vedrørende private virksomheder, der forsyner dem med AI-systemer til arbejdsopgaver inden for retshåndhævelse og justits; anbefaler derfor, at der så vidt muligt anvendes open source-software;

    18.

    opfordrer de retshåndhævende myndigheder og retsvæsenet til at indkredse og vurdere de områder, hvor visse skræddersyede AI-løsninger kan være gavnlige, og til at udveksle bedste praksis om ibrugtagning af kunstig intelligens; opfordrer medlemsstaterne og EU-agenturerne til at vedtage passende procedurer for offentlige indkøb af AI-systemer til retshåndhævende eller retslige formål, for at sikre, at de fungerer under overholdelse af de grundlæggende rettigheder og gældende ret, herunder sikring af at softwaredokumentation og algoritmer er tilgængelige for de kompetente myndigheder og tilsynsmyndigheder med henblik på gennemgang; opfordrer navnlig til bindende regler, der kræver offentliggørelse af offentlig-private partnerskaber, kontrakter og erhvervelser og det formål, hvortil de indkøbes; understreger, at det er nødvendigt at give myndighederne de nødvendige finansieringsmidler og at udstyre dem med den fornødne ekspertise til at kunne garantere fuld overholdelse af de etiske, juridiske og tekniske krav, som er knyttet til enhver anvendelsen af AI;

    19.

    opfordrer til sporbarhed i AI-systemer og i de beslutningsprocesser, der danner rammerne om deres funktioner, afstikker deres evner og begrænsninger og holder styr på, hvor de underliggende attributter for en beslutning stammer fra, gennem obligatorisk dokumentation; understreger betydningen af, at programmører og udviklere af algoritmer bevarer fuld dokumentation for algoritmernes oplæringsdata, kontekst, formål, nøjagtighed og bivirkninger såvel som databehandlingen af dem samt overensstemmelse med de grundlæggende rettigheder; understreger, at det altid skal være muligt at reducere et AI-systems beregninger til en form, der er forståelig for mennesker;

    20.

    opfordrer til, at der gennemføres en obligatorisk konsekvensanalyse af de grundlæggende rettigheder forud for implementeringen eller indarbejdelse af AI-systemer for retshåndhævelse eller retsvæsen med henblik på at vurdere eventuelle risici, der truer de grundlæggende rettigheder; minder om, at en forudgående konsekvensanalyse vedrørende databeskyttelse for enhver type af behandling er obligatorisk, navnlig ved brug af ny teknologi som med føje kan forventes at indebære en høj risiko for at undergrave fysiske personers rettigheder og friheder, og er af den opfattelse, at dette gælder for de fleste typer AI-teknologi anvendt inden for retshåndhævelse og justits; understreger ekspertisen hos datatilsynsmyndigheder og agenturer for grundlæggende rettigheder i forbindelse med analysen af systemerne; understreger, at disse konsekvensanalyser for grundlæggende rettigheder bør gennemføres så åbent som muligt og med civilsamfundets aktive engagement; kræver, at konsekvensanalyserne også klart definerer de sikkerhedsforanstaltninger, der er nødvendige for at imødegå de identificerede risici, og at de i videst muligt omfang gøres offentligt tilgængelige inden ibrugtagningen af et AI-system;

    21.

    understreger, at kun solide EU-styrelsesrammer for kunstig intelligens med uafhængig evaluering vil muliggøre den fornødne operationalisering af principper om grundlæggende rettigheder; opfordrer til regelmæssig obligatorisk audit af alle AI-systemer, der anvendes af retshåndhævende myndigheder og retsvæsen, når der foreligger risiko for betydelig indvirkning på enkeltpersoner liv, udført af en uafhængig myndighed der skal teste og evaluere algoritmebaserede systemer, deres kontekst, formål, nøjagtighed, ydeevne og omfang samt, når systemerne først er taget i drift, afdække, undersøge, diagnosticere og afhjælpe uønskede og skadelige virkninger og sikre, at AI-systemer fungerer som tilsigtet; opfordrer derfor til en klar institutionel ramme til dette formål, herunder passende regulerings- og tilsynsmæssig kontrol, for at sikre fuld gennemførelse og for at sikre en velfunderet demokratisk debat om nødvendigheden og proportionaliteten af kunstig intelligens på det strafferetlige område; understreger, at resultaterne af disse auditter bør være tilgængelige i offentlige registre, så borgerne er bekendt med de AI-systemer, der står til rådighed, og hvilke foranstaltninger der træffes for at afhjælpe overtrædelser af grundlæggende rettigheder;

    22.

    understreger, at de datasæt og algoritmiske systemer, som anvendes ved klassifikation, vurdering og forudsigelser på de forskellige trin af databehandlingen ved udviklingen af kunstig intelligens og beslægtet teknologi, også kan føre til differentieret behandling og både direkte og indirekte forskelsbehandling af grupper af mennesker, navnlig eftersom data brugt til at opøve forudsigende algoritmer til lov- og ordensopgaver afspejler løbende overvågningsprioriteringer og følgelig vil kunne føre til, at nuværende fordomme fornyes og forstærkes; understreger derfor, at AI-teknologier — især når de anvendes af retshåndhævende myndigheder og retsvæsenet — kræver tværfaglig forskning og ekspertisebidrag, herunder fra videnskabelige og teknologiske discipliner, kritiske racestudier, handicapstudier og andre discipliner, der undersøger sociale sammenhænge, herunder hvordan forskelle opstår, klassificeringsarbejde og konsekvenser heraf; understreger, at det derfor er nødvendigt at investere systematisk i at integrere disse discipliner i AI-studier og forskning på alle niveauer; understreger også nødvendigheden af at sikre, at de arbejdsgrupper, som udformer, udvikler, tester, vedligeholder, opstiller og indkøber disse systemer til brug i de retshåndhævende myndigheders og retsvæsenets arbejde, så vidt muligt afspejler samfundets generelle mangfoldighed som et ikke-teknisk middel til at mindske risikoen for diskrimination;

    23.

    fremhæver endvidere, at tilstrækkelig ansvarsplacering, ansvarsfølelse og hæftelse kræver betydelig specialuddannelse med hensyn til AI-teknologiens etiske bestemmelser, potentielle farer, begrænsninger og korrekte anvendelse, især for personale inden for politi og retsvæsen; fremhæver, at hensigtsmæssig faglig oplæring og kvalifikationer bør sikre, at beslutningstagere er trænet i at forstå risikoen for fordomme, idet datasæt kan være baseret på diskriminerende og tendentiøse data; støtter op om skabelsen af oplysnings- og uddannelsesinitiativer med henblik på at sikre, at enkeltpersoner, som arbejder inden for retshåndhævelse eller retsvæsen, er bevidste om og forstår, hvilke begrænsninger, muligheder og risici anvendelsen af AI-systemer indebærer, herunder risikoen for automatiserede fordomme; minder om, at indføjelsen i AI-oplæringsdata af tilfælde af racisme i forbindelse med politiets udførelsen af dets opgaver uundgåeligt vil føre til racistiske skævheder i AI-genererede resultater, pointtal og anbefalinger; gentager derfor sin opfordring til medlemsstaterne om at fremme ligebehandlingspolitikker på alle områder og formulere nationale handlingsplaner mod racisme inden for retshåndhævelse og justits;

    24.

    anerkender, at forudsigende politiindsats er blandt de AI-anvendelsesformer, der anvendes inden for politiarbejde, men advarer om, at skønt en sådan indsats kan analysere det givne datasæt til identifikation af mønstre og sammenhænge, kan det ikke besvare spørgsmål om årsagssammenhænge og ikke komme med pålidelige forudsigelser om individuel adfærd, og kan således ikke udgøre det eneste grundlag for en politiaktion; påpeger, at talrige byer i USA efter auditter har indstillet brugen af forudsigende politiindsats-systemer; minder om, at LIBE-udvalgets delegation til USA i februar 2020 blev oplyst om, at politikorpsene i New York City og Cambridge (Massachusetts) havde udfaset deres forudsigende politiindsats-programmer på grund af manglende effektivitet, diskriminerende virkninger og praktiske mangler, og i stedet var gået over til nærpolitipatruljering; bemærker, at dette fører til et fald i kriminaliteten; modsætter sig derfor retshåndhævende myndigheders brug af kunstig intelligens til at udarbejde adfærdsmæssige forudsigelser om enkeltpersoner eller grupper på grundlag af historiske data og tidligere adfærd, gruppetilhørsforhold, lokalitet eller andre, lignende karakteristika, der har som sigte at udpege personer, der sandsynligvis vil begå en forbrydelse;

    25.

    bemærker de forskellige former for brug af ansigtsgenkendelse, herunder, men ikke begrænset til verifikation/autentificering (dvs. sammenholde et ansigt i realtid med foto i et ID-dokument, f.eks. intelligente grænser), identifikation (dvs. sammenholde et foto med fotosæt i en database) og detektion (dvs. identificere ansigter i realtid fra kilder såsom overvågningskameraer og sammenholde dem med databaser, f.eks. realtidsovervågning), som hver især har forskellige konsekvenser for beskyttelsen af de grundlæggende rettigheder; er overbevist om, at anvendelsen af ansigtsgenkendelsessystemer inden for retshåndhævelse bør begrænses til klart berettigede formål i fuld efterlevelse a principperne om proportionalitet og nødvendighed samt gældende ret; bekræfter, at teknologi til ansigtsgenkendelse som minimum skal opfylde kravene om dataminimering, datapræcision, grænser for opbevaring, datasikkerhed og ansvarsplacering, såvel som være lovlig, fair og gennemsigtig og ske til et specifikt, eksplicit og legitimt formål, som er klart defineret i medlemsstatens ret eller EU-retten; er af den opfattelse, at systemer til verifikation og autentificering af meninger kun kan opstilles og anvendes med succes, hvis deres negative virkninger kan afbødes, og ovenstående kriterier er opfyldt;

    26.

    opfordrer endvidere til et permanent forbud mod anvendelse i offentligt tilgængelige områder af automatiseret analyse og/eller genkendelse af andre menneskelige karakteristika såsom gangart, fingeraftryk, DNA, stemme eller øvrige biometriske og adfærdsmæssige signaler;

    27.

    opfordrer til et moratorium for ibrugtagning af systemer til ansigtsgenkendelse til retshåndhævelsesmæssige formål vedrørende identifikation, medmindre de udelukkende anvendes til identifikation af ofre for forbrydelser, indtil de tekniske standarder kan anses for at være fuldt ud i overensstemmelse med de grundlæggende rettigheder, de afledte resultater er uden fordomsmæssige skævheder og ikke-diskriminerende, de retlige rammer indbefatter strenge forholdsregler mod misbrug og fastsætter streng demokratisk kontrol og tilsyn, og indtil der er empirisk evidens for, at det er nødvendigt og forholdsmæssigt berettiget at tage sådanne teknologier i brug; bemærker, at systemerne ikke bør anvendes eller opstilles, hvis ovennævnte kriterier ikke er opfyldt;

    28.

    udtrykker stor bekymring over, at retshåndhævende organer og efterretningstjenester gør brug af private databaser til ansigtsgenkendelse, f.eks. Clearview AI, der er en database med over tre milliarder billeder, som er blevet ulovligt indsamlet fra sociale medier og andre steder på internettet, herunder af EU-borgere; opfordrer medlemsstaterne til at forpligte retshåndhævende aktører til at oplyse, om de anvender Clearview AI-teknologi eller tilsvarende fra andre udbydere; minder om udtalelsen fra Det Europæiske Databeskyttelsesråd om, at retshåndhævende myndigheders anvendelse af en tjeneste som Clearview AI i EU »næppe er forenelig med EU's databeskyttelsesregler«; opfordrer til at forbyde brugen af private ansigtsgenkendelsesdatabaser til ordenhåndhævelsesarbejde;

    29.

    bemærker Kommissionens forhåndsvurdering vedrørende mulige ændringer af Prümafgørelsen (8), herunder vedrørende billeder af ansigter; bemærker, at tidligere forskning har vist, at ingen nye potentielle identifikatorer, f.eks. iris- eller ansigtsgenkendelse, vil være lige så pålidelige i en kriminalteknisk kontekst som DNA eller fingeraftryk; minder Kommissionen om, at eventuelle lovforslag skal være evidensbaserede og overholde proportionalitetsprincippet; opfordrer indtrængende Kommissionen til ikke at udvide rammerne for Prümafgørelsen, medmindre der foreligger solid videnskabelig evidens for pålideligheden af ansigtsgenkendelse i en kriminalteknisk kontekst sammenlignet med DNA eller fingeraftryk, efter at den har gennemført en fuld konsekvensanalyse, og efter at der er taget hensyn til anbefalingerne fra Den Europæiske Tilsynsførende for Databeskyttelse og Det Europæiske Databeskyttelsesråd;

    30.

    fremhæver, at anvendelsen af biometriske data mere bredt relaterer til princippet om retten til menneskelig værdighed, som udgør grundlaget for alle de grundlæggende rettigheder, der er sikret ved chartret; er af den opfattelse, at anvendelse og indsamling af enhver form for biometriske data til brug for identifikation på afstand, f.eks. ved at foretage ansigtsgenkendelse på offentlige steder og ved automatiske grænsekontrolposter til kontrol i lufthavne, kan udgøre særlige risici mod grundlæggende rettigheder, og at implikationerne heraf vil kunne variere alt efter formål, sammenhæng og omfanget af brug; fremhæver endvidere, at der er rejst tvivl om den videnskabelige validitet af følelsesgenkendelsesteknologi såsom kameraer, der registrerer øjenbevægelser og ændringer i pupilstørrelse, i en retshåndhævelsessammenhæng; er af den opfattelse, at anvendelsen af biometrisk identifikation i forbindelse med retshåndhævelse og retsvæsenet altid bør betragtes som »højrisiko-behæftet« og derfor være underlagt yderligere krav i overensstemmelse med anbefalingerne fra Kommissionens Ekspertgruppe på Højt Niveau vedrørende Kunstig Intelligens;

    31.

    udtrykker sin stærke bekymring over, at forskningsprojekter, som finansieres under Horisont 2020, som anvender kunstig intelligens ved de ydre grænser, f.eks. projektet iBorderCtrl, et »intelligent løgnedetektionssystem«, som profiltegner rejsende på grundlag af et computerautomatiseret interview, som optages med den rejsendes webcam forud for rejsen, og en analyse af 38 mikrobevægelser baseret på kunstig intelligens, som blev afprøvet i Ungarn, Letland og Grækenland; opfordrer derfor Kommissionen til ved hjælp af lovmæssige og ikke-lovmæssige midler og om nødvendigt ved hjælp af traktatbrudsprocedurer at gennemføre et forbud mod en hvilken som helst form for behandling af biometriske persondata i retshåndhævelsesøjemed, som fører til masseovervågning på offentligt tilgængelige steder; opfordrer endvidere Kommissionen til at indstille finansieringen af biometrisk forskning eller ibrugtagning af programmer, som med føje kan formodes at bidrage til masseovervågning på offentlige steder; fremhæver i denne forbindelse, at der bør vies særlig opmærksomhed til anvendelsen af droner til politioperationer og opstilles stringente retlige rammer herfor;

    32.

    støtter anbefalingerne fra Kommissionens Ekspertgruppe på Højt Niveau vedrørende Kunstig Intelligens om et forbud mod AI-støttet tildeling af en »score« til enkeltpersoner i stor skala; er af den opfattelse, at enhver form for normativ pointgivning til borgerne i stor skala fra offentlige myndigheders side, navnlig inden for retshåndhævelse og retsvæsen, vil medføre en indskrænkning af personers autonomi, vil overtræde princippet om ikke-forskelsbehandling og må anses for værende i strid med de grundlæggende rettigheder, navnlig menneskelig værdighed, som fastsat i EU-retten;

    33.

    opfordrer til større generel gennemsigtighed, således at der kan skabes en samlet forståelse af brugen af AI-applikationer i Unionen; anmoder medlemsstaterne om at forelægge omfattende information om de redskaber, som deres retshåndhævende myndigheder og retsvæsenet anvender, typer af redskaber, de formål de anvendes til, typer af forbrydelser som de anvendes på samt navnene på de virksomheder eller organisationer, som har udviklet redskaberne; opfordrer retshåndhævende myndigheder og retsvæsenet til også at informere offentligheden og sørge for tilstrækkelig gennemsigtighed med hensyn til deres brug af kunstig intelligens og beslægtede teknologier til varetagelsen af deres hverv, herunder offentliggørelse af falsk positive eller falsk negative resultater for den pågældende teknologi; anmoder Kommissionen om at indsamle og ajourføre disse oplysninger på ét bestemt sted; opfordrer Kommissionen til også at offentliggøre og ajourføre oplysninger om anvendelsen af kunstig intelligens i de EU-agenturer, der varetager retshåndhævelse og retlige opgaver; opfordrer Databeskyttelsesrådet til at vurdere lovligheden af AI-teknologier og -applikationer anvendt af de retshåndhævende myndigheder og retsvæsenet;

    34.

    minder om, at AI-applikationer, herunder dem som anvendes inden for retshåndhævelse og retsvæsenet, udvikles globalt i et hastigt tempo; opfordrer indtrængende alle europæiske interessenter, herunder medlemsstaterne og Kommissionen, til gennem internationalt samarbejde at sikre inddragelse af partnere uden for EU med henblik på at hæve standarderne på internationalt plan og finde en fælles og komplementær retlig og etisk ramme for brugen af kunstig intelligens, navnlig for retshåndhævelse og retsvæsenet, som fuldt ud respekterer chartret, den gældende EU-ret om databeskyttelse og menneskerettighederne i bredere forstand;

    35.

    opfordrer EU's Agentur for Grundlæggende Rettigheder til, i samarbejde med Det Europæiske Databeskyttelsesråd og Den Europæiske Tilsynsførende for Databeskyttelse, at udarbejde omfattende retningslinjer, henstillinger og bedste praksis med henblik på yderligere at præcisere kriterier og betingelser for udvikling, anvendelse og opstilling af AI-applikationer og løsninger til brug for de retshåndhævende myndigheder og retsvæsenet; forpligter sig til at gennemføre en undersøgelse af gennemførelsen af retshåndhævelsesdirektivet (9) med henblik på at identificere, hvordan beskyttelsen af personoplysninger er blevet sikret i forbindelse med retshåndhævende myndigheders og retsvæsenet behandlingsaktiviteter, navnlig i forbindelse med udvikling eller ibrugtagning af nye teknologier; opfordrer endvidere Kommissionen til at overveje, om der er behov for specifikke lovgivningsmæssige foranstaltninger til yderligere præcisering af kriterier og betingelser for udvikling, opstilling og anvendelse af AI-applikationer og -løsninger fra retshåndhævende myndigheders og retsvæsenets side;

    36.

    pålægger sin formand at sende denne beslutning til Rådet og Kommissionen.

    (1)  EUT L 119 af 4.5.2016, s. 1.

    (2)  EUT L 119 af 4.5.2016, s. 89.

    (3)  EUT L 295 af 21.11.2018, s. 39.

    (4)  EFT L 201 af 31.7.2002, s. 37.

    (5)  EUT L 135 af 24.5.2016, s. 53.

    (6)  EUT C 362 af 8.9.2021, s. 63.

    (7)  EUT C 263 af 25.7.2018, s. 82.

    (8)  Rådets afgørelse 2008/615/RIA af 23. juni 2008 om intensivering af det grænseoverskridende samarbejde, navnlig om bekæmpelse af terrorisme og grænseoverskridende kriminalitet (EUT L 210 af 6.8.2008, s. 1).

    (9)  Europa-Parlamentets og Rådets direktiv (EU) 2016/680 af 27. april 2016 om beskyttelse af fysiske personer i forbindelse med kompetente myndigheders behandling af personoplysninger med henblik på at forebygge, efterforske, afsløre eller retsforfølge strafbare handlinger eller fuldbyrde strafferetlige sanktioner og om fri udveksling af sådanne oplysninger og om ophævelse af Rådets rammeafgørelse 2008/977/RIA (EUT L 119 af 4.5.2016, s. 89).


    Top