Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52021IP0405

    Resolucija Evropskega parlamenta z dne 6. oktobra 2021 o umetni inteligenci v kazenskem pravu in njeni uporabi v policiji in pravosodnih organih na področju kazenskih zadev (2020/2016(INI))

    UL C 132, 24.3.2022, p. 17–26 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    24.3.2022   

    SL

    Uradni list Evropske unije

    C 132/17


    P9_TA(2021)0405

    Umetna inteligenca v kazenskem pravu in njena uporaba v policiji in pravosodnih organih na področju kazenskih zadev

    Resolucija Evropskega parlamenta z dne 6. oktobra 2021 o umetni inteligenci v kazenskem pravu in njeni uporabi v policiji in pravosodnih organih na področju kazenskih zadev (2020/2016(INI))

    (2022/C 132/02)

    Evropski parlament,

    ob upoštevanju Pogodbe o Evropski uniji, zlasti členov 2 in 6 te pogodbe, in Pogodbe o delovanju Evropske unije, zlasti člena 16 te pogodbe,

    ob upoštevanju Listine Evropske unije o temeljnih pravicah (v nadaljnjem besedilu: Listina), zlasti členov 6, 7, 8, 11, 12, 13, 20, 21, 24 in 47 Listine,

    ob upoštevanju Konvencije o varstvu človekovih pravic in temeljnih svoboščin,

    ob upoštevanju Konvencije Sveta Evrope o varstvu posameznika glede na avtomatsko obdelavo osebnih podatkov (ETS 108) in protokola o njeni spremembi (konvencija 108+),

    ob upoštevanju evropske etične listine za uporabo umetne inteligence v pravosodnih sistemih in njihovem okolju, ki jo je pripravila Evropska komisija za učinkovitost pravosodja (CEPEJ) pri Svetu Evrope,

    ob upoštevanju sporočila Komisije z dne 8. aprila 2019 o krepitvi zaupanja v umetno inteligenco, osredotočeno na človeka (COM(2019)0168),

    ob upoštevanju etičnih smernic za zaupanja vredno umetno inteligenco, ki jih je 8. aprila 2019 objavila strokovna skupina Komisije na visoki ravni za umetno inteligenco,

    ob upoštevanju bele knjige Komisije z dne 19. februarja 2020 o umetni inteligenci – evropski pristop k odličnosti in zaupanju (COM(2020)0065),

    ob upoštevanju sporočila Komisije z dne 19. februarja 2020 z naslovom Evropska strategija za podatke (COM(2020)0066),

    ob upoštevanju Uredbe (EU) 2016/679 Evropskega parlamenta in Sveta z dne 27. aprila 2016 o varstvu posameznikov pri obdelavi osebnih podatkov in o prostem pretoku takih podatkov ter razveljavitvi Direktive 95/46/ES (splošna uredba o varstvu podatkov) (1),

    ob upoštevanju Direktive (EU) 2016/680 Evropskega parlamenta in Sveta z dne 27. aprila 2016 o varstvu posameznikov pri obdelavi osebnih podatkov, ki jih pristojni organi obdelujejo za namene preprečevanja, preiskovanja, odkrivanja ali pregona kaznivih dejanj ali izvrševanja kazenskih sankcij, in o prostem pretoku takih podatkov ter o razveljavitvi Okvirnega sklepa Sveta 2008/977/PNZ (2),

    ob upoštevanju Uredbe (EU) 2018/1725 Evropskega parlamenta in Sveta z dne 23. oktobra 2018 o varstvu posameznikov pri obdelavi osebnih podatkov v institucijah, organih, uradih in agencijah Unije in o prostem pretoku takih podatkov ter o razveljavitvi Uredbe (ES) št. 45/2001 in Sklepa št. 1247/2002/ES (3),

    ob upoštevanju Direktive 2002/58/ES Evropskega parlamenta in Sveta z dne 12. julija 2002 o obdelavi osebnih podatkov in varstvu zasebnosti na področju elektronskih komunikacij (Direktiva o zasebnosti in elektronskih komunikacijah) (4),

    ob upoštevanju Uredbe (EU) 2016/794 Evropskega parlamenta in Sveta z dne 11. maja 2016 o Agenciji Evropske unije za sodelovanje na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj (Europol) ter nadomestitvi in razveljavitvi sklepov Sveta 2009/371/PNZ, 2009/934/PNZ, 2009/935/PNZ, 2009/936/PNZ in 2009/968/PNZ (5),

    ob upoštevanju svoje resolucije z dne 19. junija 2020 o protirasističnih demonstracijah zaradi smrti Georgea Floyda (6),

    ob upoštevanju svoje resolucije z dne 14. marca 2017 o posledicah velepodatkov za temeljne pravice: zasebnost, varstvo podatkov, nediskriminacija, varnost in kazenski pregon (7),

    ob upoštevanju predstavitve v Odboru za državljanske svoboščine, pravosodje in notranje zadeve z dne 20. februarja 2020 o umetni inteligenci v kazenskem pravu in njeni uporabi v policiji in pravosodnih organih na področju kazenskih zadev,

    ob upoštevanju poročila o misiji odbora LIBE v Združenih državah Amerike februarja 2020,

    ob upoštevanju člena 54 Poslovnika,

    ob upoštevanju mnenj Odbora za notranji trg in varstvo potrošnikov in Odbora za pravne zadeve,

    ob upoštevanju poročila Odbora za državljanske svoboščine, pravosodje in notranje zadeve (A9-0232/2021),

    A.

    ker imajo digitalne tehnologije na splošno in zlasti širjenje obdelave podatkov in analiz, ki jih omogoča umetna inteligenca, izjemen potencial, prinašajo pa tudi tveganja; ker je umetna inteligenca v zadnjih letih izjemno napredovala in je ena od strateških tehnologij 21. stoletja, ki je lahko precej koristna, kar zadeva učinkovitost, natančnost in praktičnost, ter lahko prispeva k pozitivnim spremembam v evropskem gospodarstvu in družbi, a predstavlja tudi velika tveganja za temeljne pravice in demokracije, ki temeljijo na pravni državi; ker umetne inteligence ne bi smeli razumeti kot same sebi namen, ampak je orodje, ki naj bi služilo ljudem, da bi se nenazadnje povečale blaginja ljudi, človeške zmogljivosti in varnost;

    B.

    ker kljub nenehnemu napredku, kar zadeva hitrost računalniške obdelave in spominske zmogljivosti, na več področjih ali pri nalogah, ki zahtevajo razumevanje konteksta ali kritično analizo, še vedno ni programov, primerljivih s človekovo prožnostjo; ker so nekatere aplikacije umetne inteligence pri opravljanju nekaterih specifičnih nalog dosegle stopnje uspešnosti človeških strokovnjakov in lahko zagotovijo rezultate mnogo hitreje in v širšem obsegu;

    C.

    ker nekatere države, tudi številne države članice, pri preprečevanju, odkrivanju in preiskovanju kaznivih dejanj uporabljajo v večji meri kot druge uporabljajo aplikacije ali vgrajene sisteme umetne inteligence, deloma zaradi pomanjkanja predpisov in zakonskih razlik, ki omogočajo ali prepovedujejo uporabo umetne inteligence za nekatere namene; ker na področju kazenskega prava vse bolj uporabljajo umetno inteligenco, saj naj bi pripomogla k zmanjšanju števila nekaterih kaznivih dejanj in vodila v bolj nepristranske odločitve; ker pa temu ni vedno tako;

    D.

    ker bi bilo treba v celotnem življenjskem ciklu umetne inteligence in z njo povezanih tehnologij, zlasti med njihovim oblikovanjem, razvojem, uvajanjem in uporabo, zagotavljati temeljne pravice in svoboščine iz Listine in jih vsekakor uporabljati pri izvrševanju zakonodaje;

    E.

    ker bi bilo treba tehnologijo umetne inteligence razvijati tako, da bodo v središču ljudje, da bo vredna zaupanja javnosti in da bo vedno služila ljudem; ker bi morali biti sistemi umetne inteligence zasnovani tako, da jih lahko človeški upravljavec vedno izključi;

    F.

    ker morajo biti sistemi umetne inteligence zasnovani za zaščito in v korist vseh članov družbe (vključno z upoštevanjem ranljivega in marginalizranega prebivalstva pri njihovi zasnovi), poleg tega morajo biti nediskriminatorni in varni, njihove odločitve pa morajo biti razložljive in pregledne ter spoštovati človekovo samostojnost in temeljne pravice, da bodo ti sistemi vredni zaupanja, kot je opisano v etičnih smernicah strokovne skupine na visoki ravni za umetno inteligenco;

    G.

    ker ima Unija skupaj z državami članicami ključno odgovornost za zagotavljanje, da se odločitve v zvezi z življenjskim ciklom in uporabo aplikacij umetne inteligence na področju pravosodja in kazenskega pregona sprejemajo na pregleden način in se pri tem popolnoma varujejo temeljne pravic ter se ne ohranjajo obstoječa diskriminacija ter pristranskost in predsodki; ker bi bilo treba pri ustreznih političnih odločitvah upoštevati načeli nujnosti in sorazmernosti, da se zagotovita ustavnost ter pravičen in human pravosodni sistem;

    H.

    ker aplikacije umetne inteligence ponujajo velike priložnosti na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, zlasti pri izboljšanju delovnih metod organov kazenskega pregona in pravosodnih organov ter učinkovitejšem preprečevanju nekaterih kaznivih dejanj, zlasti finančnega kriminala, pranja denarja in financiranja terorizma, pa tudi nekaterih vrst kibernetske kriminalitete, in boju proti njim, ter tako prispevajo k varnosti državljanov EU, obenem pa lahko te aplikacije ogrozijo temeljne pravice ljudi; ker je vsakršna splošna uporaba umetne inteligence za namene množičnega nadzora nesorazmerna;

    I.

    ker razvoj in upravljanje sistemov umetne inteligence za policijske in pravosodne organe vključuje prispevek več posameznikov, organizacij, strojnih sestavnih delov, algoritmov programske opreme in človeških uporabnikov v okoljih, ki so pogosto zapletena in zahtevna; ker so aplikacije umetne inteligence pri preprečevanju, odkrivanju in preiskovanju kaznivih dejanj in v pravosodju na različnih stopnjah razvoja, od zasnove do izdelave prototipov ali ocene do uporabe po odobritvi; ker se lahko v prihodnosti odprejo nove možnosti za njihovo uporabo, saj tehnologija zaradi stalnih znanstvenih raziskav po svetu postaja zrelejša;

    J.

    ker je nujen jasen model za opredelitev pravne odgovornosti za morebitne škodljive učinke sistemov umetne inteligence na kazenskopravnem področju; ker bi morali predpisi na tem področju vedno ohraniti človeško odgovornost, njihov cilj pa bi moral biti predvsem preprečiti morebitne škodljive učinke;

    K.

    ker je nenazadnje naloga držav članic, da zagotovijo polno spoštovanje temeljnih pravic pri uporabi sistemov umetne inteligence na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj in pravosodja;

    L.

    ker mora biti razmerje med varstvom temeljnih pravic in učinkovitim izvajanjem policijskih nalog vedno bistven element pri razpravah o tem, ali in kako bi moral sektor preprečevanja, odkrivanja in preiskovanja kaznivih dejanj uporabljati umetno inteligenco, kadar imajo lahko odločitve dolgotrajne posledice za življenje in svobodo posameznikov; ker je to še toliko bolj pomembno, če upoštevamo, da utegne postati umetna inteligenca stalen del našega kazenskega pravosodja, saj omogoča preiskovalno analizo in je v pomoč;

    M.

    ker organi preprečevanja, odkrivanja in preiskovanja kaznivih dejanj uporabljajo aplikacije umetne inteligence, kot so tehnologija za prepoznavanje obrazov, na primer za iskanje po zbirkah podatkov o osumljencih in identifikacijo žrtev trgovine z ljudmi ali spolnega izkoriščanja in zlorabe otrok, tehnologije za avtomatizirano prepoznavanje registrskih tablic, identifikacijo govorcev, identifikacijo govora, branje z ustnic, zvočni nadzor (tj. mehanizmi za odkrivanje strelov), avtonomne raziskave in analize identificiranih zbirk podatkov, napovedi (napovedno policijsko delo in analiza kriminalnih žarišč), orodja za zaznavanje vedenja, napredna virtualna obdukcijska orodja, ki so v pomoč pri določanju vzroka smrti, avtonomna orodja za odkrivanje finančnih goljufij in financiranja terorizma, spremljanje družbenih medijev (strganje in nabiranje podatkov za rudarjenje povezav) ter sistemi avtomatiziranega nadzora, ki vključujejo različne detekcijske zmogljivosti (kot so detekcija srčnega utripa in toplotne kamere); ker so lahko te aplikacije poleg drugih morebitnih ali prihodnjih aplikacij tehnologije umetne inteligence na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj različno zanesljive in natančne ter lahko različno vplivajo na varstvo temeljnih pravic in dinamiko kazenskopravnih sistemov; ker se številna tovrstna orodja uporabljajo v tretjih državah, a bi bila v skladu z zakonodajnim okvirom in sodno prakso Unije nezakonita; ker lahko rutinska uporaba algoritmov, kljub nizki stopnji lažno pozitivnih rezultatov, privede do tega, da število napačnih opozoril močno preseže število pravilnih opozoril;

    N.

    ker orodja in aplikacije umetne inteligence uporablja tudi sodstvo po vsem svetu, tudi pri odločanju o priporu, pri izrekanju kazni, izračunu verjetnosti ponovitve kaznivega dejanja, določanju pogojne kazni, spletnem reševanju sporov, upravljanju sodne prakse in olajševanju dostopa do prava; ker se zato izkrivljajo in zmanjšujejo možnosti za nebelce in manjšine; ker se ta orodja in aplikacije v Evropski uniji z izjemo nekaj držav članic trenutno večinoma uporabljajo v civilnih zadevah;

    O.

    ker uporaba umetne inteligence pri preprečevanju, odkrivanju in preiskovanju kaznivih dejanj vključuje številna potencialno visoka in v nekaterih primerih nesprejemljiva tveganja za varstvo temeljnih pravic posameznikov, kot so nepregledno odločanje, različne oblike diskriminacije in napake, neločljivo povezane z osnovnim algoritmom, ki se lahko s povratnimi učinki še povečajo, ter tveganja za varstvo zasebnosti in osebnih podatkov ter svobode izražanja in obveščanja, domnevo nedolžnosti, pravico do učinkovitega pravnega sredstva in poštenega sojenja, pa tudi tveganja za svobodo in varnost posameznikov;

    P.

    ker so sistemi umetne inteligence, ki jih uporabljajo organi preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter pravosodni organi, prav tako izpostavljeni napadom na informacijske sisteme, ki jih je mogoče izvesti prek umetne inteligence, ali zastrupljanju podatkov, pri katerem se namenoma vključi napačen niz podatkov, da se ustvarijo pristranski rezultati; ker je v teh okoliščinah škoda lahko še večja in lahko znatno bolj prizadene posameznike in skupine;

    Q.

    ker se umetna inteligenca na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj in pravosodja ne uporablja le, ker je tehnično praktična, temveč gre v večji meri za politično odločitev o zasnovi in ciljih kazenskega pregona in kazenskopravnega sistema; ker sodobno kazensko pravo temelji na vodilu, da se državni organi odzovejo na kaznivo dejanje po tem, ko se zagreši, in ne na predpostavki, da so vsi ljudje nevarni in da jih je treba stalno nadzirati, da bi se preprečile morebitne kršitve; ker nadzorne tehnike, ki temeljijo na umetni inteligenci, močno ogrožajo ta pristop, zato je nujno, da zakonodajalci po vsem svetu temeljito ocenijo posledice dovoljenja za uporabo tehnologij, ki zmanjšujejo vlogo ljudi pri preprečevanju, odkrivanju in preiskovanju kaznivih dejanj in sojenju;

    1.

    ponovno poudarja, da je v središču umetne inteligence sicer obdelava velikih količin podatkov, a da je treba v celoti spoštovati pravico do varstva zasebnega življenja in pravico do varstva osebnih podatkov na vseh področjih umetne inteligence ter da je treba v celoti spoštovati pravni okvir Unije za varstvo podatkov in zasebnost; želi spomniti, da je Evropska unija že vzpostavila standarde varstva podatkov pri preprečevanju, odkrivanju in preiskovanju kaznivih dejanj, ki so temelji za prihodnje ureditve umetne inteligence na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter pravosodja; želi opozoriti, da bi morala biti obdelava osebnih podatkov zakonita in poštena, da bi morali biti nameni obdelave določeni, izrecni in zakoniti, da bi morala biti obdelava ustrezna, relevantna in ne prekomerna glede na svoj namen, da bi morali biti podatki točni in ažurni, netočne podatke pa bi bilo treba popraviti ali izbrisati, razen če veljajo omejitve, da se podatki ne bi smeli hraniti dlje, kot je potrebno, in da bi bilo treba določiti jasne in ustrezne roke za izbris ali redno preverjanje potrebe po hrambi podatkov in da bi treba podatke varno obdelovati; poudarja tudi, da bi bilo treba preprečiti morebitno identifikacijo posameznikov z aplikacijo umetne inteligence, pri kateri se uporabljajo podatki, ki so bili prej anonimizirani;

    2.

    potrjuje, da morajo vse rešitve umetne inteligence na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj in pravosodja v skladu z Listino in Evropsko konvencijo o človekovih pravicah prav tako v celoti spoštovati načela človekovega dostojanstva, nediskriminacije, svobode gibanja, domneve nedolžnosti in pravice do obrambe, vključno s pravico do molka, svobodo izražanja in obveščanja, svobodo zbiranja in združevanja, enakostjo pred zakonom, načelom enakosti orožij ter pravice do učinkovitega pravnega sredstva in poštenega sojenja; poudarja, da je treba prepovedati uporabo umetne inteligence, če ni združljiva s temeljnimi pravicami;

    3.

    priznava, da se aplikacije umetne inteligence po svetu razvijajo tako hitro, da ni mogoče oblikovati izčrpnega seznama aplikacij, zato potrebujemo jasen in skladen model upravljanja, ki bo ob upoštevanju stalnega razvoja tehnologije zagotavljal temeljne pravice posameznikov in pravno jasnost za razvijalce; meni, da je treba glede na vlogo in pristojnost policijskih in pravosodnih organov ter posledice odločitev, ki jih sprejmejo za preprečevanje, preiskovanje, odkrivanje ali pregon kaznivih dejanj ali izvršitev kazenskih sankcij, aplikacije umetne inteligence v primerih, ko te močno vplivajo na življenje posameznikov, opredeliti kot zelo tvegane;

    4.

    v zvezi s tem meni, da bi moralo biti vsako orodje umetne inteligence, ki ga razvijejo ali uporabljajo organi preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ali pravosodje, vsaj varno, zanesljivo, zaščiteno in ustrezno svojemu namenu ter bi moralo izpolnjevati načela poštenosti, najmanjšega obsega podatkov, odgovornosti, preglednosti in razložljivosti, pri čemer bi bilo treba pri njihovem razvoju, uvajanju in uporabi izvajati oceno tveganja in strog preizkus nujnosti in sorazmernosti ter uvesti zaščitne ukrepe, sorazmerne ugotovljenim tveganjem; poudarja, da je treba ta merila v celoti izpolnjevati, če želimo, da državljani zaupajo v uporabo umetne inteligence, ki se razvije, uvede in uporablja v EU;

    5.

    se zaveda, da nekatere vrste aplikacij umetne inteligence pozitivno prispevajo k delu organov za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj in pravosodnih organov po vsej Uniji; poudarja na primer, da se je z orodji, ki omogočajo dodatne možnosti iskanja, izboljšalo upravljanje sodne prakse; meni, da obstaja vrsta drugih možnih načinov uporabe umetne inteligence na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj in pravosodja, ki bi jih lahko preučili, pri čemer bi bilo treba upoštevati pet načel etične listine o uporabi umetne inteligence v pravosodnih sistemih in njihovem okolju, ki jo je sprejel CEPEJ, in posebno pozornost nameniti načinom uporabe, ki je treba na podlagi opredelitve CEPEJ obravnavati karseda zadržano;

    6.

    poudarja, da se lahko namen posamezne tehnologije spremeni, zato poziva k strogemu demokratičnemu nadzoru in neodvisnemu spremljanju vseh tehnologij umetne inteligence, ki jih uporabljajo organi preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter pravosodni organi, zlasti tistih, katerih namen uporabe je mogoče spremeniti za množični nadzor ali množično profiliranje; z veliko zaskrbljenostjo opozarja, da je mogoče nekatere tehnologije umetne inteligence, ki se uporabljajo na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj uporabiti za namene množičnega nadzora; poudarja pravno zahtevo, da je treba preprečiti, da se tehnologije umetne inteligence uporabijo za množični nadzor, ki po definiciji ne izpolnjuje načel nujnosti in sorazmernosti, ter prepovedati uporabo aplikacij, ki bi lahko privedle do tega;

    7.

    poudarja, da pristop nekaterih tretjih držav do razvoja, uvajanja in uporabe tehnologij za množični nadzor nesorazmerno posega v temeljne pravice, zato ga EU ne bi smela upoštevati; poudarja, da je treba po vsej Uniji tudi enotno urediti zaščitne ukrepe, da organi preprečevanja, odkrivanja in preiskovanja kaznivih dejanj in pravosodni organi ne bi zlorabljali tehnologij umetne inteligence;

    8.

    poudarja, da lahko uporaba aplikacij umetne inteligence, kot je strojno učenje, privede do pristranskosti in diskriminacije, med drugim zaradi algoritmov, na katerih te aplikacije temeljijo; ugotavlja, da je lahko pristranskost del osnovnih naborov podatkov, zlasti kadar se uporabljajo pretekli podatki, ki jih razvijalci algoritmov uvedejo ali ustvarijo, ko se sistemi izvajajo v realnih okoliščinah; poudarja, da kakovost uporabljenih podatkov neizbežno vpliva na rezultate aplikacij umetne inteligence in da se inherentna pristranskost postopoma povečuje, kar pomeni, da se obstoječa diskriminacija ohranja in povečuje, zlasti diskriminacija pripadnikov nekaterih etničnih skupin ali rasnih skupnosti;

    9.

    poudarja, da številne tehnologije za identifikacijo, ki temeljijo na algoritmih in se trenutno uporabljajo, nebelce, pripadnike nekaterih etničnih skupnosti, osebe LGTBI, otroke, starejše in ženske nesorazmerno pogosteje napačno identificirajo in klasificirajo ter jim s tem povzročajo škodo; želi spomniti, da imajo posamezniki pravico, da so pravilno identificirani, pa tudi pravico, da sploh niso identificirani, razen če identifikacijo zahteva zakon zaradi utemeljenih in legitimnih javnih interesov; poudarja, da se zaradi napovedi umetne inteligence na podlagi značilnosti določene skupine oseb krepijo in ponavljajo obstoječe oblike diskriminacije; meni, da si je treba močno prizadevati za preprečevanje samodejne diskriminacije in pristranskosti; poziva k zanesljivim dodatnim zaščitnim ukrepom, kadar se sistemi umetne inteligence na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj in pravosodja uporabljajo za mladoletnike;

    10.

    želi opozoriti na nesorazmerje moči med tistimi, ki uporabljajo tehnologijo umetne inteligence, in tistimi, ki so ji podvrženi; poudarja, da organi preprečevanja, odkrivanja in preiskovanja kaznivih dejanj in pravosodni organi pod nobenim pogojem ne smejo uporabljati umetne inteligence tako, da bi postala dejavnik neenakosti, socialnih napetosti ali izključenosti; poudarja, da uporaba orodij umetne inteligence vpliva na pravice osumljencev do obrambe ter da je težko pridobiti tehtne informacije o njihovem delovanju in posledično izpodbijati njihove rezultate na sodišču, zlasti za preiskovane posameznike;

    11.

    je seznanjen s tveganji, ki so zlasti povezana z uhajanjem podatkov, kršitvami varnosti podatkov in nedovoljenim dostopom do osebnih podatkov in drugih informacij, povezanih na primer s preiskavami kaznivih dejanj ali postopki pred sodišči, ki jih obdelujejo sistemi umetne inteligence; poudarja, da je treba vidike varnosti in zaščite sistemov umetne inteligence, ki se uporabljajo pri preprečevanju, odkrivanju in preiskovanju kaznivih dejanj, skrbno preučiti ter da morajo biti dovolj zanesljivi in odporni, da se preprečijo morebitne katastrofalne posledice zlonamernih napadov na sisteme umetne inteligence; poudarja pomen vgrajene varnosti, pa tudi posebnega človeškega nadzora pred uporabo nekaterih kritičnih aplikacij, zato poziva organe preprečevanja, odkrivanja in preiskovanja kaznivih dejanj in pravosodne organe, naj uporabljajo samo tiste aplikacije umetne inteligence, ki izpolnjujejo načelo vgrajene zasebnosti in varstva podatkov, da bi preprečili spremembo namembnosti;

    12.

    poudarja, da nobenemu sistemu umetne inteligence, ki se uporablja na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj in pravosodja ne bi smelo biti omogočeno, da posega v telesno celovitost ljudi ali posameznikom podeljuje pravice ali nalaga pravne obveznosti;

    13.

    priznava, da je zaradi zapletenosti razvoja in upravljanja sistemov umetne inteligence izziv, kako pravilno določiti odgovornost za morebitno škodo; meni, da je treba oblikovati jasen in pravičen sistem za dodelitev pravne odgovornosti in krivdne sposobnosti za morebitne škodljive posledice teh naprednih digitalnih tehnologij; poudarja, da bi moral biti cilj v prvi vrsti preprečiti te posledice; zato poziva k uporabi previdnostnega načela pri vseh aplikacijah umetne inteligence na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj; poudarja, da mora pravno odgovornost vedno nositi fizična ali pravna oseba, zato je treba vedno določiti, kdo je odgovoren za odločitve, sprejete s pomočjo umetne inteligence; zato poudarja, da je treba zagotoviti preglednost korporacijskih struktur, ki proizvajajo in upravljajo sisteme umetne inteligence;

    14.

    meni, da je za učinkovito uveljavljanje pravic do obrambe in preglednost nacionalnih kazenskopravnih sistemov nujen poseben, jasen in natančen pravni okvir, ki bo urejal pogoje, načine in posledice uporabe orodij umetne inteligence na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj in pravosodja ter pravice oseb, ki so njihove tarče, pa tudi učinkoviti pritožbeni in odškodninski postopki, vključno s pravnimi sredstvi; poudarja, da imajo stranke v kazenskem postopku pravico, da so seznanjene s postopkom zbiranja podatkov in s tem povezanih ocen, ki se izvedejo ali pridobijo z uporabo aplikacij umetne inteligence; poudarja, da morajo izvršitveni organi, ko v okviru pravosodnega sodelovanja odločajo o prošnji za izročitev (ali predajo) drugi državi članici ali tretji državi, oceniti, ali je morda zaradi uporabe orodij umetne inteligence v državi prosilki ogrožena temeljna pravica do poštenega sojenja; poziva Komisijo, naj izda smernice, kako to ocenjevati v okviru pravosodnega sodelovanja v kazenskih zadevah; vztraja, da bi morale države članice v skladu z veljavno zakonodajo poskrbeti, da so posamezniki obveščeni, kadar jih organi preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ali pravosodni organi obravnavajo z uporabo aplikacij umetne inteligence;

    15.

    poudarja, da človek ne more podati neodvisne ocene, če se zanaša le na podatke, profile in priporočila, ki jih ustvarjajo stroji; želi opozoriti na morebitne hude negativne posledice, zlasti na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter pravosodja, če bodo posamezniki preveč zaupali navidezno objektivnim in znanstvenim orodjem umetne inteligence ter ne bodo pomislili, da so lahko njihovi rezultati napačni, nepopolni, neustrezni ali diskriminacijski; poudarja, da se ne bi smeli prekomerno zanašati na rezultate sistemov umetne inteligence, in meni, da morajo biti organi bolj samozavestni in strokovno podkovani, da bodo podvomili v algoritemska priporočila oziroma jih ne bodo upoštevali; meni, da je pomembno, da imamo realna pričakovanja glede teh tehnoloških rešitev ter da se ne obljubljajo popolne rešitve na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj in odkritje vseh storjenih kaznivih dejanj;

    16.

    poudarja, da mora v okviru pravosodja in preprečevanja, odkrivanja ter preiskovanja kaznivih dejanj vsako odločitev, ki ima pravni ali podobni učinek, vedno sprejeti človek, ki lahko odgovarja za sprejete odločitve; meni, da morajo imeti tisti, ki so podvrženi sistemom, ki temeljijo na umetni inteligenci, možnost uporabe pravnih sredstev; želi spomniti, da ima oseba v skladu s pravom EU pravico, da ni predmet odločitve, ki ima zanjo pravne učinke ali nanjo znatno vpliva in temelji izključno na avtomatizirani obdelavi podatkov; poudarja tudi, da avtomatizirano odločanje ne sme temeljiti na posebnih vrstah osebnih podatkov, razen če so vzpostavljeni ustrezni ukrepi za varstvo pravic in svoboščin ter zakonitih interesov posameznika, na katerega se nanašajo osebni podatki. poudarja, da pravo EU prepoveduje profiliranje, ki bi vodilo v diskriminacijo posameznikov na podlagi posebnih vrst osebnih podatkov; opozarja, da so odločitve na področju preprečevanja, odkrivanja in preprečevanja kaznivih dejanj skoraj vedno odločitve, ki imajo zaradi izvršilne narave organov preprečevanja, odkrivanja in preprečevanja kaznivih dejanj in njihovih ukrepov pravni učinek za osebo, na katero se nanašajo; v zvezi s tem poudarja, da lahko uporaba umetne inteligence vpliva na človekove odločitve in vse faze kazenskega postopka; zato meni, da morajo organi, ki uporabljajo sisteme umetne inteligence, spoštovati izredno visoke pravne standarde in zagotoviti človeško posredovanje, zlasti pri analizi podatkov, ki izhajajo iz teh sistemov; meni, da je treba torej ohraniti diskrecijsko pravico sodnikov in odločanje za vsak primer posebej; poziva k prepovedi uporabe umetne inteligence in sorodnih tehnologij za predlaganje sodb;

    17.

    poziva k algoritemski razložljivosti, preglednost, sledljivosti in preverljivosti, saj so nujen del nadzora, da bodo razvoj, uvajanje in uporaba sistemov umetne inteligence za pravosodje ter preprečevanje, odkrivanje in preiskovanje kaznivih dejanj skladni s temeljnimi pravicami in jim bodo državljani zaupali, pa tudi da bodo rezultati, ki jih ustvarjajo algoritmi umetne inteligence, razumljivi uporabnikom in tistim, za katere se uporabljajo ti sistemi, ter da bo razvidno, od kod izvirajo podatki in kako je sistem prišel do določenega zaključka; poudarja, da bi moral biti organom preprečevanja, odkrivanja ali preiskovanja ali pravosodnim organom v Uniji dovoljen nakup le orodij in sistemov, katerih algoritmi in logika so preverljivi in dostopni vsaj policiji in sodstvu ter neodvisnim revizorjem, da jih lahko ocenijo, pregledajo in preverijo, prodajalci pa jih ne smejo zapreti ali označiti kot lastniške, da se zagotovijo tehnična preglednost, zanesljivost in točnost; poudarja, da bi bilo treba zagotoviti tudi dokumentacijo o naravi storitve, razvitih orodjih, zmogljivosti in pogojih, pod katerimi naj bi delovala, in tveganjih, ki bi jih lahko povzročila, in sicer v jasnem in razumljivem jeziku; poziva pravosodne organe in organe preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, naj zagotovijo proaktivno popolno preglednost zasebnih podjetij, ki jim zagotavljajo sisteme umetne inteligence za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj in pravosodja; zato priporoča uporabo odprtokodne programske opreme, kjer je to mogoče;

    18.

    poziva organe preprečevanja, odkrivanja in preiskovanja kaznivih dejanj in pravosodne organe, naj opredelijo in ocenijo področja, na katerih bi lahko bile koristne nekatere rešitve umetne inteligence po meri, ter naj si izmenjajo primere dobre prakse pri uvajanju umetne inteligence; poziva države članice in agencije EU, naj sprejmejo ustrezne postopke javnega naročanja za sisteme umetne inteligence, ki se uporabljajo na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ali pravosodja, in zagotovijo njihovo skladnost s temeljnimi pravicami in veljavno zakonodajo, med drugim da bodo dokumentacija in algoritmi programske opreme na voljo in dostopni pristojnim in nadzornim organom za pregled; zlasti poziva k zavezujočim pravilom, ki zahtevajo javno razkritje javno-zasebnih partnerstev, pogodb in nakupov ter namen, za katerega se naročajo; poudarja, da je treba organom zagotoviti potrebna finančna sredstva ter jih potrebno strokovno podkovati, da se zagotovi izpolnjevanje vseh etičnih, pravnih in tehničnih zahtev, povezanih z uporabo umetne inteligence;

    19.

    poziva, naj se z obvezno dokumentacijo zagotovi sledljivosti sistemov umetne inteligence in postopka odločanja, s katerim se določijo njihove funkcije, zmogljivosti in omejitve ter se spremlja izvor ključnih meril za odločitev; poudarja pomen popolne dokumentacije o učnih podatkih, njihovem okviru, namenu, točnosti in stranskih učinkih, pa tudi njihovo obdelavo s strani graditeljev in razvijalcev algoritmov ter njihovo skladnost s temeljnimi pravicami; meni, da mora biti vedno možno, da se izračuni sistema umetne inteligence omejijo na ljudem razumljivo obliko;

    20.

    poziva k izvedbi obvezne ocene učinka na temeljne pravice pred začetkom izvajanja ali uporabe sistemov umetne inteligence na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ali pravosodja, da se ocenijo morebitna tveganja za temeljne pravice; želi spomniti, da je treba za vse vrste obdelave, zlasti z uporabo novih tehnologij, ki bi lahko povzročile veliko tveganje za pravice in svoboščine posameznikov, predhodno opraviti oceno učinka na varstvo podatkov, ter meni, da to velja za večino tehnologij umetne inteligence na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter pravosodja; poudarja, da je pri ocenjevanju teh sistemov pomembno strokovno znanje organov za varstvo podatkov in agencij za temeljne pravice; meni, da bi bilo treba te ocene učinka na temeljne pravice izvesti čim bolj odprto in ob dejavnim sodelovanjem civilne družbe; poziva, naj se v ocenah učinka jasno opredelijo tudi zaščitni ukrepi, potrebni zaradi ugotovljenih tveganj, in da se v največji možni meri objavijo pred uvedbo katerega koli sistema umetne inteligence;

    21.

    poudarja, da le zanesljivo evropsko upravljanje umetne inteligence z neodvisno oceno omogoča potrebno operacionalizacijo načel temeljnih pravic; poziva, naj vse sisteme umetne inteligence, ki se uporabljajo na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj in pravosodja in ki lahko močno vplivajo na življenje posameznikov, redno obvezno pregleda neodvisni organ, da se preskusijo in ocenijo algoritemski sistemi, njihov okvir, namen, točnost, delovanje in obseg, ko enkrat začnejo delovati, da bi odkrili, preiskali, opredelili in odpravili neželene učinke in škodljive učinke ter zagotovili, da bodo vsi sistemi umetne inteligence delovali tako, kot je bilo predvideno; zato poziva k jasnemu institucionalnemu okviru v ta namen, vključno z ustreznim regulativnim in nadzornim pregledom, da bi zagotovili popolno izvajanje in povsem informirano demokratično razpravo o nujnosti in sorazmernosti umetne inteligence na področju kazenskega pravosodja; poudarja, da bi morali biti rezultati teh pregledov objavljeni v javnih registrih, da bi bili državljani seznanjeni z uporabo sistemov umetne inteligence in sprejetimi ukrepi za odpravo morebitnih kršitev temeljnih pravic;

    22.

    poudarja, da nabori podatkov in algoritemski sistemi, ki se na različnih stopnjah obdelave podatkov pri razvoju umetne inteligence, robotike in sorodne tehnologije uporabljajo pri razvrščanju, ocenjevanju in napovedovanju, lahko povzročijo tudi različno obravnavo ter neposredno in posredno diskriminacijo skupin ljudi, zlasti ker podatki, ki se uporabljajo za učenje algoritmov za napovedno policijsko delo, vplivajo na sedanje prednostne naloge nadzora in lahko posledično ohranijo in povečajo obstoječe predsodke; zato poudarja, da se je treba pri tehnologijah umetne inteligence, zlasti če se uporabljajo na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj in pravosodja, opreti na interdisciplinarne raziskave in mnenja, kar vključuje znanstvene in tehnološke vede, kritične vede o rasi, vede o invalidnosti in druge discipline, prilagojene socialnemu okolju, tudi na to, kako se oblikujejo razlike, na potek razvrščanja in njegove posledice; poudarja, da so zato potrebne sistematične naložbe za vključitev teh disciplin v preučevanje in raziskovanje umetne inteligence na vseh ravneh; poudarja, da je treba poleg tega zagotoviti, da skupine, odgovorne za zasnovo, razvoj, preskušanje, vzdrževanje, uvajanje in nabavo sistemov umetne inteligence za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj ter pravosodje, po možnosti upoštevajo raznolikost družbe na splošno, da bi z netehničnimi sredstvi zmanjšali tveganja za diskriminacijo;

    23.

    poudarja tudi, da je za ustrezno odgovornost in pristojnost potrebno obsežno specializirano usposabljanje v zvezi z etičnimi pravili, morebitnimi nevarnostmi, omejitvami in pravilno uporabo tehnologije umetne inteligence, zlasti policijskega in pravosodnega osebja; poudarja, da bi morali biti nosilci odločanja dovolj strokovno usposobljeni in kvalificirani, da bodo prepoznali možnosti za pristranskost, saj lahko nabori podatkov temeljijo na diskriminatornih in pristranskih podatkih; podpira oblikovanje kampanj ozaveščanja in izobraževalnih pobud, da bi zagotovili, da posamezniki, zaposleni na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter pravosodja, poznajo in razumejo omejitve, zmogljivosti in tveganja pri uporabi sistemov umetne inteligence, vključno s tveganjem pristranskosti zaradi avtomatizacije; želi spomniti, da bo vključitev primerov rasizma s strani policijskih sil pri izpolnjevanju njihovih nalog v sklope učnih podatkov za umetno inteligenco neizogibno privedla do rasistične pristranskosti izsledkov, ocen in priporočil, ki jih ustvarja umetna inteligenca; zato ponovno poziva države članice, naj spodbujajo protidiskriminacijske politike in pripravijo nacionalne akcijske načrte proti rasizmu pri policijskem delu in v pravosodnem sistemu;

    24.

    ugotavlja, da je napovedno policijsko delo ena od aplikacij umetne inteligence na področju preprečevanja, preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, vendar opozarja, da se pri napovednem policijskem delu sicer lahko analizirajo nabori podatkov, potrebni za identifikacijo vzorcev in korelacij, ne more pa se podati odgovor na vprašanje vzročnosti in zanesljivo napovedati vedenja posameznika, zato ne more biti edina osnova za ukrepanje; poudarja, da je več mest v Združenih državah Amerike po pregledih prenehalo uporabljati sisteme za napovedno policijsko delo; opozarja, da sta med misijo odbora LIBE v Združenih državah Amerike februarja 2020 policijska uprava New Yorka in policijska uprava Cambridgea (Massachusetts) poslance seznanili, da sta zaradi neučinkovitosti, diskriminacijskega učinka in nepraktičnosti postopoma opustili svoja programa napovednega policijskega dela in ju zamenjali za policijsko delo v skupnosti; dodaja, da se je s tem zmanjšala stopnja kriminala; zato nasprotuje, da organi preprečevanja, odkrivanja in preiskovanja kaznivih dejanj umetno inteligenco uporabljajo za napovedi vedenja posameznikov ali skupin na podlagi preteklih podatkov in preteklega vedenja, pripadnosti skupini, lokacije ali drugih podobnih značilnosti, s čimer poskušajo identificirati ljudi, ki bodo verjetno storili kaznivo dejanje;

    25.

    je seznanjen z različnimi vrstami uporabe prepoznavanja obrazov, kot so med drugim preverjanje/avtentifikacija (tj. ujemanje neposrednega obraza s fotografijo v osebnem dokumentu, npr. pametne meje), identifikacija (tj. ujemanje fotografije z zbirko fotografij) in odkrivanje (tj. odkrivanje obrazov v realnem času iz virov, kot je posnetek s CCTV, in njihovo povezovanje s podatkovnimi zbirkami, npr. nadzor v realnem času), pri čemer ima vsaka od njih različne posledice za varstvo temeljnih pravic; je prepričan, da bi morala biti uporaba sistemov prepoznavanja obraza na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj omejena na jasno upravičene namene ob polnem izpolnjevanju načel sorazmernosti in nujnosti ter skladno z veljavnim pravom; ponovno poudarja, da bi morala biti tehnologija za prepoznavanje obrazov skladna vsaj z zahtevami najmanjšega obsega podatkov, točnosti podatkov, omejitve hrambe, varnosti podatkov in odgovornosti ter biti zakonita, pravična in pregledna ter imeti poseben, izrecen in legitimen namen, ki je jasno opredeljen v pravu države članice ali Unije; meni, da se lahko sistemi preverjanja in potrjevanja pristnosti še naprej uvajajo in uspešno uporabljajo le, če je mogoče njihove škodljive učinke ublažiti in izpolniti zgoraj navedena merila;

    26.

    poleg tega poziva, naj se na javnih mestih trajno prepove uporaba avtomatizirane analize in/ali prepoznavanja na podlagi drugih človeških značilnosti, kot so hoja, prstni odtisi, DNK, glas ter drugi biometrični in vedenjski znaki;

    27.

    poziva k moratoriju uvedbe sistemov prepoznavanja obrazov za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj pri identifikaciji, razen če se uporabljajo izključno za identifikacijo žrtev kaznivih dejanj, dokler ne bodo tehnični standardi popolnoma v skladu s temeljnimi pravicami, rezultati pa nepristranski in nediskriminatorni, dokler pravni okvir ne bo zagotavljal strogih zaščitnih ukrepov proti zlorabi in strogega demokratičnega nadzora in spremljanja ter dokler ne bo empiričnih dokazov o nujnosti in sorazmernosti uvajanja tovrstnih tehnologij; dodaja, da sistemov ne bi smeli uvajati ali uporabljati, dokler ne bodo izpolnjevali navedenih meril;

    28.

    je izredno zaskrbljen, ker akterji preprečevanja, odkrivanja in preiskovanja kaznivih dejanj in obveščevalne službe uporabljajo zasebne zbirke podatkov za prepoznavanje obrazov, kot je Clearview AI, ki je zbirka podatkov, sestavljena iz več kot treh milijard slik, nezakonito zbranih s socialnih omrežij in drugih spletišč, tudi od državljanov EU; poziva države članice, naj od akterjev preprečevanja, odkrivanja in preiskovanja kaznivih dejanj zahtevajo, da razkrijejo, ali uporabljajo tehnologijo Clearview AI ali enakovredno tehnologijo od drugih ponudnikov; želi spomniti na mnenje Evropskega odbora za varstvo podatkov, da uporaba storitve, kot je Clearview AI, s strani organov preprečevanja, odkrivanja in preiskovanja kaznivih dejanj v Evropski uniji verjetno ni v skladu z ureditvijo EU o varstvu podatkov; poziva k prepovedi uporabe zasebnih zbirk podatkov za prepoznavanje obrazov pri preprečevanju, odkrivanju in preiskovanju kaznivih dejanj;

    29.

    je seznanjen s študijo izvedljivosti o morebitnih spremembah Prümskega sklepa (8), tudi kar zadeva podobe obraza, ki jo je pripravila Komisija; ugotavlja, da so prejšnje raziskave pokazale, da morebitni novi identifikatorji, npr. prepoznavanje roženice ali obraza, ne bi bili tako zanesljivi na forenzičnem področju kot DNK in prstni odtisi; želi spomniti Komisijo, da morajo zakonodajni predlogi temeljiti na dokazih in spoštovati načelo sorazmernosti; poziva Komisijo, naj ne razširi okvira Prümskega sklepa, razen če obstajajo trdni znanstveni dokazi o zanesljivosti prepoznavanja obrazov na forenzičnem področju v primerjavi z DNK ali prstnimi odtisi, potem ko bo opravila celotno oceno učinka ter ko se bodo upoštevala priporočila Evropskega nadzornika za varstvo podatkov in Evropskega odbora za varstvo podatkov;

    30.

    poudarja, da je uporaba biometričnih podatkov širše povezana z načelom pravice do človekovega dostojanstva, ki je temelj vseh temeljnih pravic, ki jih zagotavlja Listina; meni, da je lahko uporaba in zbiranje biometričnih podatkov za namene identifikacije na daljavo, na primer z izvajanjem prepoznavanja obrazov na javnih mestih ter v okviru avtomatiziranega mejnega nadzora, ki se uporabljajo za mejno kontrolo na letališčih, posebej tvegana za temeljne pravice in da se lahko posledice razlikujejo glede na namen, okoliščine in obseg uporabe; želi tudi spomniti, da je znanstvena veljavnost tehnologije za prepoznavanje čustev, kot so kamere, ki zaznavajo gibanje oči in spremembe velikosti zenice, na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj sporna; meni, da bi bilo treba uporabo biometrične identifikacije v okviru preprečevanja, odkrivanja in preiskovanja kaznivih dejanj in pravosodja vedno obravnavati kot „visoko tvegano“ in bi zato zanjo morale veljati dodatne zahteve, kot je priporočila strokovna skupina Komisije na visoki ravni za umetno inteligenco;

    31.

    je zelo zaskrbljen zaradi raziskovalnih projektov, financiranih v okviru Obzorja 2020, ki uporabljajo umetno inteligenco na zunanjih mejah, kot je projekt iBorderCtrl, t. i. pameten sistem za odkrivanje laži, ki potnike profilira na podlagi računalniško avtomatiziranega pogovora, ki ga pred potovanjem posname spletna kamera potnika, in analize 38 mikrokretenj z uporabo umetne inteligence, ki se testira na Madžarskem, v Latviji in Grčiji; zato poziva Komisijo, naj z zakonodajnimi in nezakonodajnimi sredstvi in po potrebi s postopki za ugotavljanje kršitev uvede prepoved obdelave biometričnih podatkov, vključno s podobami obraza, za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, ki vodi v množičen nadzor na javnih mestih; poziva Komisijo, naj preneha financirati biometrične raziskave ali uvajanje biometričnih tehnologij ali programe, ki bodo verjetno privedli do množičnega nadzora na javnih mestih; v zvezi s tem poudarja, da bi bilo treba posebno pozornost nameniti uporabi dronov v policijskih operacijah in uvesti strog okvir za to;

    32.

    podpira priporočila skupine Komisije na visoki ravni za umetno inteligenco o prepovedi množičnega točkovanja posameznikov s pomočjo umetne inteligence; meni, da vse oblike obsežnega normativnega točkovanja državljanov, ki jih izvajajo javni organi, zlasti na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter pravosodja, povzročajo izgubo neodvisnosti, ogrožajo načelo nediskriminacije in se ne morejo šteti za skladne s temeljnimi pravicami, zlasti človekovim dostojanstvom, kot je kodificirano v pravu EU;

    33.

    poziva k splošno preglednejši uporabi aplikacij umetne inteligence v Uniji, da se izoblikuje celovit sporazum v zvezi s tem; poziva države članice, naj zagotovijo celovite informacije o orodjih, ki jih uporabljajo njihovi organi preprečevanja, odkrivanja in preiskovanja kaznivih dejanj in pravosodni organi, vrsti orodij v uporabi, za katere vrste kaznivih dejanj se uporabljajo ter imena podjetij ali organizacij, ki so jih razvila; poleg tega poziva organe preprečevanja, odkrivanja in preiskovanja kaznivih dejanj in pravosodne organe, naj obveščajo javnost o uporabi umetne inteligence in sorodnih tehnologij pri izvajanju svojih pooblastil in zagotovijo preglednost ter naj tudi razkrijejo stopnje lažno pozitivnih in lažno negativnih rezultatov posamezne tehnologije; poziva Komisijo, naj te informacije zbere na enem mestu in jih posodablja; poziva jo tudi, naj objavlja in posodablja informacije o uporabi umetne inteligence v agencijah Unije, ki imajo naloge na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter pravosodja; poziva Evropski odbor za varstvo podatkov, naj oceni zakonitost tehnologij in aplikacij umetne inteligence, ki jih uporabljajo organi preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter pravosodni organi;

    34.

    opozarja, da se po vsem svetu hitro razvijajo aplikacije umetne inteligence, tudi tiste, ki se uporabljajo na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj ter pravosodja; poziva vse evropske deležnike, vključno z državami članicami in Komisijo, naj v okviru mednarodnega sodelovanja zagotovijo sodelovanje partnerjev zunaj EU, da bi dvignili standarde na mednarodni ravni ter poiskali skupni in dopolnilni pravni in etični okvir za uporabo umetne inteligence, zlasti na področju preprečevanja, odkrivanja in preiskovanja kaznivih dejanj in pravosodja, ki bi povsem skladen z Listino, evropskim pravnim redom o varstvu podatkov in človekovimi pravicami na splošno;

    35.

    poziva Agencijo EU za temeljne pravice, naj v sodelovanju z Evropskim odborom za varstvo podatkov in Evropskim nadzornikom za varstvo podatkov pripravi celovite smernice, priporočila in zglede dobre prakse, da bi podrobneje opredelili merila in pogoje za razvoj, uvedbo in uporabo aplikacij in rešitev umetne inteligence, ki jih bodo uporabljali organi preprečevanja, odkrivanja in preiskovanja kaznivih dejanj in pravosodni organi; se zavezuje, da bo izvedel študijo o izvajanju direktive o varstvu podatkov pri preprečevanju, odkrivanju in preiskovanju kaznivih dejanj (9), da se ugotovi, kako se pri dejavnostih obdelave s strani organov preprečevanja, odkrivanja in preiskovanja kaznivih dejan ter pravosodnih organov, zagotavlja varstvo podatkov, zlasti pri razvoju ali uvajanju novih tehnologij; poleg tega poziva Komisijo, naj preuči, ali je potreben poseben zakonodajni ukrep za podrobnejšo opredelitev meril in pogojev za razvoj, uporabo in uvedbo aplikacij in rešitev umetne inteligence s strani organov preprečevanja, odkrivanja in preiskovanja kaznivih dejanj;

    36.

    naroči svojemu predsedniku, naj to resolucijo posreduje Svetu in Komisiji.

    (1)  UL L 119, 4.5.2016, str. 1.

    (2)  UL L 119, 4.5.2016, str. 89.

    (3)  UL L 295, 21.11.2018, str. 39.

    (4)  UL L 201, 31.7.2002, str. 37.

    (5)  UL L 135, 24.5.2016, str. 53.

    (6)  UL C 362, 8.9.2021, str. 63.

    (7)  UL C 263, 25.7.2018, str. 82.

    (8)  Sklep Sveta 2008/615/PNZ z dne 23. junija 2008 o poglobitvi čezmejnega sodelovanja, zlasti na področju boja proti terorizmu in čezmejnemu kriminalu (UL L 210, 6.8.2008, str. 1).

    (9)  Direktiva (EU) 2016/680 Evropskega parlamenta in Sveta z dne 27. aprila 2016 o varstvu posameznikov pri obdelavi osebnih podatkov, ki jih pristojni organi obdelujejo za namene preprečevanja, preiskovanja, odkrivanja ali pregona kaznivih dejanj ali izvrševanja kazenskih sankcij, in o prostem pretoku takih podatkov ter o razveljavitvi Okvirnega sklepa Sveta 2008/977/PNZ (UL L 119, 4.5.2016, str. 89).


    Top