Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52021IP0405

    Az Európai Parlament 2021. október 6-i állásfoglalása a mesterséges intelligenciáról a büntetőjogban, és annak a rendőrség és az igazságügyi hatóságok általi felhasználásáról büntetőügyekben (2020/2016(INI))

    HL C 132., 2022.3.24, p. 17–26 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    2022.3.24.   

    HU

    Az Európai Unió Hivatalos Lapja

    C 132/17


    P9_TA(2021)0405

    Mesterséges intelligencia a büntetőjogban, és annak a rendőrség és igazságügyi hatóságok általi felhasználása büntetőügyekben

    Az Európai Parlament 2021. október 6-i állásfoglalása a mesterséges intelligenciáról a büntetőjogban, és annak a rendőrség és az igazságügyi hatóságok általi felhasználásáról büntetőügyekben (2020/2016(INI))

    (2022/C 132/02)

    Az Európai Parlament,

    tekintettel az Európai Unióról szóló szerződésre és különösen annak 2. és 6. cikkére, valamint az Európai Unió működéséről szóló szerződésre és különösen annak 16. cikkére,

    tekintettel az Európai Unió Alapjogi Chartájára (a Charta), és különösen annak 6., 7., 8., 11., 12., 13., 20., 21., 24. és 47. cikkére,

    tekintettel az emberi jogok és alapvető szabadságok védelméről szóló egyezményre,

    tekintettel az Európa Tanács 108. egyezményére az egyéneknek a személyes adatok gépi feldolgozása során való védelméről és annak módosító jegyzőkönyvére („108+ egyezmény”),

    tekintettel az Európa Tanácsnak az Igazságszolgáltatás Hatékonyságáért küzdő Európai Bizottsága (CEPEJ) által elfogadott, a mesterséges intelligencia igazságszolgáltatási rendszerekben és azok környezetében való alkalmazásáról szóló európai etikai chartára,

    tekintettel „Az emberközpontú mesterséges intelligencia iránti bizalom növelése” című, 2019. április 8-i bizottsági közleményre (COM(2019)0168),

    tekintettel a Bizottság mesterséges intelligenciával foglalkozó magas szintű szakértői csoportjának 2019. április 8-án közzétett, a megbízható mesterséges intelligenciára vonatkozó etikai iránymutatásaira,

    tekintettel „A mesterséges intelligencia – a kiválóság és a bizalom európai megközelítése” című, 2020. február 19-i bizottsági fehér könyvre (COM(2020)0065),

    tekintettel az „Európai adatstratégia” című, 2020. február 19-i bizottsági közleményre (COM(2020)0066),

    tekintettel a természetes személyeknek a személyes adatok kezelése tekintetében történő védelméről és az ilyen adatok szabad áramlásáról, valamint a 95/46/EK irányelv visszavonásáról szóló, 2016. április 27-i (EU) 2016/679 rendeletre (általános adatforgalmi rendelet) (1);

    tekintettel a személyes adatoknak az illetékes hatóságok által a bűncselekmények megelőzése, nyomozása, felderítése, a vádeljárás lefolytatása vagy büntetőjogi szankciók végrehajtása céljából végzett kezelése tekintetében a természetes személyek védelméről és az ilyen adatok szabad áramlásáról, valamint a 2008/977/IB tanácsi kerethatározat hatályon kívül helyezéséről szóló, 2016. április 27-i (EU) 2016/680 európai parlamenti és tanácsi irányelvre (2),

    tekintettel a természetes személyeknek a személyes adatok uniós intézmények, szervek, hivatalok és ügynökségek általi kezelése tekintetében való védelméről és az ilyen adatok szabad áramlásáról, valamint a 45/2001/EK rendelet és az 1247/2002/EK határozat hatályon kívül helyezéséről szóló, 2018. október 23-i (EU) 2018/1725 európai parlamenti és tanácsi rendeletre (3),

    tekintettel az elektronikus hírközlési ágazatban a személyes adatok kezeléséről, feldolgozásáról és a magánélet védelméről szóló, 2002. július 12-i 2002/58/EK európai parlamenti és tanácsi irányelvre (elektronikus hírközlési adatvédelmi irányelv) (4),

    tekintettel a Bűnüldözési Együttműködés Európai Uniós Ügynökségéről (Europol), valamint a 2009/371/IB, a 2009/934/IB, a 2009/935/IB, a 2009/936/IB és a 2009/968/IB tanácsi határozat felváltásáról és hatályon kívül helyezéséről szóló, 2016. május 11-i (EU) 2016/794 európai parlamenti és tanácsi rendeletre (5),

    tekintettel a George Floyd halálát követő, rasszizmus elleni tiltakozásokról szóló, 2020. június 19-i állásfoglalására (6),

    tekintettel „A nagy adathalmazok alapjogi vonatkozásai: magánélet, adatvédelem, megkülönböztetésmentesség, biztonság és bűnüldözés” című, 2017. március 14-i állásfoglalására (7),

    tekintettel az Állampolgári Jogi, Bel- és Igazságügyi Bizottság (LIBE) által a „Mesterséges intelligencia a büntetőjogban, és annak a rendőrség és az igazságügyi hatóságok általi felhasználása büntetőügyekben” címmel 2020. február 20-án megrendezett meghallgatásra,

    tekintettel az Állampolgári Jogi, Bel- és Igazságügyi Bizottság 2020. februárban az Egyesült Államokba látogató küldöttségének jelentésére,

    tekintettel eljárási szabályzata 54. cikkére,

    tekintettel a Belső Piaci és Fogyasztóvédelmi Bizottság, valamint a Jogi Bizottság véleményeire,

    tekintettel az Állampolgári Jogi, Bel- és Igazságügyi Bizottság jelentésére (A9-0232/2021),

    A.

    mivel általában a digitális technológiák és különösen a mesterséges intelligencián (MI) alapuló adatkezelés és adatelemzés terjedése rendkívüli ígéreteket, de ugyanakkor kockázatokat is hordoznak magukban; mivel a mesterséges intelligencia fejlesztése nagy előrelépést tett az elmúlt években, és a XXI. század egyik stratégiai technológiájává tette azt, jelentős előnyöket hozva a hatékonyság, a pontosság és a kényelem terén, és ezáltal pozitív változást okozva az európai gazdaságban és társadalomban, ugyanakkor komoly kockázatot jelentve az alapvető jogokra és a jogállamiságon alapuló demokráciákra nézve; mivel a mesterséges intelligenciát nem önmagában vett célnak, hanem az embereket szolgáló eszköznek kell tekinteni, amelynek végső célja az emberi jólét, az emberi képességek és a biztonság növelése;

    B.

    mivel a számítógépek adatfeldolgozási sebessége és a memóriakapacitás terén megfigyelhető folyamatos fejlődés ellenére egyelőre még nincsenek olyan programok, amelyek több területen vagy az összefüggések megértését vagy kritikus elemzést kívánó feladatok terén felvehetnék a versenyt az emberi rugalmassággal; mivel egyes MI-alkalmazások már képesek ellátni a szakértők és szakemberek feladatait bizonyos konkrét esetekben (pl. jogi technológia), és drasztikusan nagyobb sebességgel és szélesebb körben képesek dolgozni;

    C.

    mivel egyes országok – köztük több tagállam – nagyobb mértékben használják a mesterségesintelligencia-alkalmazásokat vagy a beépített MI-rendszereket a bűnüldözésben és az igazságszolgáltatásban, mint mások, ami részben a mesterséges intelligencia bizonyos célokra történő használatát lehetővé tevő vagy tiltó szabályozás hiányának és szabályozási különbségeinek tudható be; mivel a mesterséges intelligencia büntetőjog területén való egyre gyakoribb használata elsősorban olyan ígéreteken alapul, hogy az csökkenteni fogja a bűnözés egyes fajtáit, és objektívebb döntéseket fog eredményezni; mivel azonban ezek az ígéretek nem mindig válnak valóra;

    D.

    mivel a Chartában rögzített alapvető jogokat és szabadságokat a mesterséges intelligencia és a kapcsolódó technológiák teljes életciklusa – különösen tervezésük, fejlesztésük, telepítésük és használatuk – során garantálni kell, és azokat minden körülmények között alkalmazni kell a bűnüldözés során;

    E.

    mivel a mesterségesintelligencia-technológiát úgy kell fejleszteni, hogy az emberközpontú legyen, méltó legyen a közvélemény bizalmára, és mindig az emberek érdekét szolgálja; mivel az MI-rendszereknek végső esetre egy oly módon kialakított biztonsági kapcsolóval kell rendelkezniük, hogy e rendszert az azt kezelő személy mindig ki tudja kapcsolni;

    F.

    mivel a mesterségesintelligencia-rendszereket úgy kell kialakítani, hogy azok a társadalom valamennyi tagjának védelmét és javát szolgálják (beleértve a kiszolgáltatott és marginalizált csoportok figyelembevételét a tervezés során), hogy megkülönböztetésmentesek és biztonságosak legyenek, továbbá döntéseiknek megmagyarázhatónak és átláthatónak kell lenniük, valamint tiszteletben kell tartaniuk az emberi autonómiát és az alapvető jogokat annak érdekében, hogy a mesterséges intelligenciával foglalkozó magas szintű szakértői csoport etikai iránymutatásaiban leírtaknak megfelelően megbízhatóak legyenek;

    G.

    mivel az Unió a tagállamokkal együtt kritikus felelősséggel tartozik annak biztosításáért, hogy a mesterségesintelligencia-alkalmazások életciklusát és használatát övező döntéseket átlátható módon hozzák meg az igazságszolgáltatás és a bűnüldözés területén, teljes mértékben védelmezve az alapvető jogokat, és különösen hogy ne adjanak teret a már meglévő megkülönböztetésnek, elfogultságnak vagy előítéleteknek; mivel a vonatkozó politikai döntéseknek tiszteletben kell tartaniuk a szükségesség és az arányosság elvét az alkotmányosság, valamint a tisztességes és humánus igazságszolgáltatási rendszer biztosítása érdekében;

    H.

    mivel a mesterségesintelligencia-alkalmazások nagyszerű lehetőségeket kínálhatnak a bűnüldözés területén, különösen a bűnüldöző szervek és az igazságügyi hatóságok munkamódszereinek javítása, valamint bizonyos típusú bűncselekmények – különösen a pénzügyi bűncselekmények, a pénzmosás és a terrorizmus finanszírozása, a gyermekek online szexuális zaklatása és kizsákmányolása, valamint a kiberbűnözés bizonyos típusai – elleni hatékonyabb küzdelem terén, hozzájárulva ezáltal az uniós polgárok biztonságához, ugyanakkor jelentős kockázatot jelenthetnek az emberek alapvető jogaira nézve; mivel a mesterséges intelligencia tömeges megfigyelés céljából történő általános alkalmazása aránytalan lenne;

    I.

    mivel az MI-rendszerek rendőrség és igazságügyi hatóságok részére történő fejlesztése és működtetése számos egyén, szervezet, gépalkatrész, szoftveralgoritmus és emberi felhasználó – gyakran összetett és kihívást jelentő környezetben megvalósuló – közreműködését foglalja magában; mivel a bűnüldözésben és az igazságszolgáltatásban használt MI-alkalmazások eltérő fejlesztési szakaszban vannak, ami a tervezéstől a prototípuskészítésen vagy értékelésen át a jóváhagyás utáni használatig terjed; mivel a világszerte folyó tudományos kutatás következtében a technológiák kiforrottabbá válásával a jövőben új felhasználási lehetőségek merülhetnek fel;

    J.

    mivel a büntetőjog területén elengedhetetlen fontosságú, hogy egyértelmű minta létezzen az MI-rendszerek lehetséges káros hatásaiért való jogi felelősség megállapítására; mivel az e területre vonatkozó szabályozási rendelkezéseknek mindig fenn kell tartaniuk az emberi elszámoltathatóságot, és mindenekelőtt arra kell irányulniuk, hogy elkerüljék a káros hatások bekövetkeztét;

    K.

    mivel végső soron a tagállamok feladata garantálni, hogy az MI-rendszerek bűnüldözés és igazságszolgáltatás terén való használatakor teljes mértékben tiszteletben tartsák az alapvető jogokat;

    L.

    mivel az alapvető jogok és a hatékony rendfenntartás közötti kapcsolatnak mindig az arra irányuló megbeszélések lényeges elemét kell képeznie, hogy használható-e és ha igen, hogyan használható a mesterséges intelligencia a bűnüldözésben, ahol a döntések hosszú távú következményekkel járhatnak az egyének életére és szabadságára nézve; mivel ez különösen fontos, mivel a mesterséges intelligencia képes arra, hogy vizsgálati elemzést és segítséget nyújtva bűnügyi igazságszolgáltatási ökoszisztémánk állandó részévé váljon;

    M.

    mivel a bűnüldöző szervek olyan alkalmazásokban használják fel a mesterséges intelligenciát, mint például az arcfelismerő technológiák, a gyanúsítottak adatbázisaiban való keresés, az emberkereskedelem vagy a gyermekek szexuális kizsákmányolása és bántalmazása áldozatainak azonosítása, az automatizált rendszámfelismerés, a beszédazonosítás, a beszélő azonosítása, a szájról olvasási technológiák, a hallás utáni megfigyelés (lövésfelderítő algoritmusok), az azonosított adatbázisok autonóm kutatása és elemzése, előrejelzés (prediktív rendfenntartás és bűnügyi forró nyomos elemzés), a viselkedésfigyelő eszközök, fejlett virtuális boncolás a halál okának megállapítására, a pénzügyi csalás és a terrorizmusfinanszírozás azonosítására szolgáló autonóm eszközök, a közösségimédia-figyelés (adatgyűjtés adatbányászati kapcsolatokhoz), és automatizált megfigyelési rendszerek különböző észlelési képességekkel (mint például szívritmusfigyelés és hőkamerák); mivel a bűnüldözés terén használt, mesterséges intelligencián alapuló technológiákhoz kapcsolódó egyéb lehetséges vagy jövőbeli alkalmazások mellett a fent említett alkalmazások megbízhatósága és pontossága, valamint az alapvető jogokra és a büntető igazságszolgáltatási rendszerek dinamikáira gyakorolt hatása rendkívül eltérő lehet; mivel ezen eszközök közül sokat nem uniós országokban használnak, de az uniós adatvédelmi vívmányok és ítélkezési gyakorlat értelmében illegálisak lennének; mivel az algoritmusok rutinszerű alkalmazása, még akkor is, ha csekély a hamis pozitív arány, azt eredményezheti, hogy a téves riasztások száma messze meghaladja a helyes riasztások számát;

    N.

    mivel világszerte számos országban az igazságszolgáltatás is alkalmazza a mesterségesintelligencia-eszközöket és -alkalmazásokat, többek között az előzetes letartóztatásra vonatkozó határozatok indoklása, az ítélethozatal, a visszaesés valószínűségének kiszámítása és a próbaidő meghatározása, az online vitarendezés, az ítélkezési gyakorlat kezelése és a joghoz való könnyebb hozzáférés biztosítása során; mivel ezáltal torzulnak és csökkenek a színes bőrűek és más kisebbségek esélyei; mivel jelenleg az EU-ban – néhány tagállam kivételével – használatuk elsősorban polgári ügyekre korlátozódik;

    O.

    mivel a mesterséges intelligencia bűnüldözésben való használata számos potenciálisan magas és egyes esetekben elfogadhatatlan kockázatot rejt magában az egyének alapvető jogainak védelme szempontjából, mint például az átláthatatlan döntéshozatal, a megkülönböztetés különböző típusai és az alapul szolgáló algoritmusban rejlő hibák, amelyeket visszacsatolási hurkok erősíthetnek meg, valamint a magánélet és a személyes adatok védelmével, a véleménynyilvánítás és a tájékozódás szabadságának védelmével, az ártatlanság vélelmével, a hatékony jogorvoslathoz és a tisztességes eljáráshoz való joggal kapcsolatos kockázatok, valamint az egyének szabadságát és biztonságát érintő kockázatok;

    P.

    mivel a bűnüldöző szervek és az igazságszolgáltatás által használt MI-rendszerek szintén ki vannak téve a mesterséges intelligencián alapuló információsrendszer-támadásoknak vagy adatkorrupciónak, amelynek során rossz adatkészlet kerül a rendszerbe azzal a céllal, hogy félrevezető eredmények szülessenek; mivel ezekben a helyzetekben az ebből eredő kár még jelentősebb lehet, és exponenciálisan nagyobb kárt okozhat mind az egyéneknek, mind a csoportoknak;

    Q.

    mivel a mesterséges intelligencia bűnüldözés és igazságszolgáltatás területén való alkalmazását nem pusztán technikai eszköznek, hanem a bűnüldözés és a büntető igazságszolgáltatási rendszerek kialakítására és célkitűzéseire vonatkozó politikai döntésnek kell tekinteni; mivel a modern büntetőjog azon az elképzelésen alapszik, hogy a hatóságok az elkövetését követően reagálnak a bűncselekményre, és nem feltételezik azt, hogy az emberek veszélyben lennének vagy állandó megfigyelésre szorulnának az esetleges ártalmas cselekedetek megelőzése érdekében; mivel a mesterséges intelligencián alapuló megfigyelési technikák komolyan megkérdőjelezik ezt a megközelítést, és sürgőssé teszik, hogy a jogalkotók világszerte alaposan értékeljék az olyan technológiák alkalmazásának lehetővé tételével járó következményeket, amelyek csökkentik az emberek szerepét a bűnüldözésben és az ítélethozatalban;

    1.

    ismételten megjegyzi, hogy mivel a mesterséges intelligencia középpontjában nagy mennyiségű személyes adat feldolgozása áll, a magánélet és a személyes adatok védelméhez való jog a mesterséges intelligencia valamennyi területére vonatkozik, és hogy teljes mértékben tiszteletben kell tartani az adatvédelemre és a magánélet védelmére vonatkozó uniós jogi keretet; emlékeztet ezért arra, hogy a bűnüldözés és az igazságszolgáltatás vonatkozásában az EU már vezetett be adatvédelmi előírásokat, amelyek a mesterséges intelligenciával kapcsolatos minden jövőbeni szabályozás alapját képezik; emlékeztet arra, hogy a személyes adatok feldolgozásának jogszerűnek és tisztességesnek, az adatkezelés céljának megnevezettnek, egyértelműnek és jogszerűnek, a feldolgozás céljához képest relevánsnak és arányosnak, pontosnak és naprakésznek kell lennie, a pontatlan adatokat – kivéve, ha korlátozások alkalmazandók – helyesbíteni vagy törölni kell, az adatokat a szükségesnél hosszabb ideig nem szabad tárolni, egyértelmű és megfelelő határidőket kell megállapítani a törléshez vagy az ilyen adatok tárolásának időszakos felülvizsgálatához, és biztonságos módon kell kezelni őket; hangsúlyozza továbbá, hogy meg kell akadályozni az egyének mesterségesintelligencia-alkalmazás általi, korábban anonimizált adatok felhasználásával történő esetleges azonosítását;

    2.

    újólag megerősíti, hogy a Chartával és az emberi jogok európai egyezményével összhangban a mesterséges intelligenciával kapcsolatos valamennyi bűnüldözési és igazságszolgáltatási megoldásnak teljes mértékben tiszteletben kell tartania az emberi méltóságot, a megkülönböztetésmentesség elvét, a mozgás szabadságát, az ártatlanság vélelmét és a védelemhez való jogot – így a hallgatáshoz való jogot –, a véleménynyilvánítás és a tájékozódás szabadságát, a gyülekezés és az egyesülés szabadságát, a törvény előtti egyenlőséget, a fegyveregyenlőség elvét, valamint a hatékony jogorvoslathoz és a tisztességes eljáráshoz való jogot; mivel a mesterséges intelligencia használatát meg kell tiltani minden olyan esetben, ha az összeegyeztethetetlen az alapvető jogokkal;

    3.

    elismeri, hogy a mesterségesintelligencia-alkalmazások világszerte történő fejlesztésének sebessége nem teszi lehetővé az alkalmazások kimerítő felsorolását, és ezért olyan egyértelmű és koherens irányítási modellt tesz szükségessé, amely garantálja mind az egyének alapvető jogait, mind a fejlesztők számára a jogi egyértelműséget, figyelembe véve a technológia folyamatos fejlődését; úgy véli azonban, hogy tekintettel a rendőrség és az igazságügyi hatóságok szerepére és felelősségére, valamint a bűncselekmények megelőzése, kivizsgálása, felderítése, a büntetőeljárás alá vonás vagy büntetőjogi szankciók végrehajtása céljából hozott döntéseik hatására, a mesterségesintelligencia-alkalmazások használatát magas kockázatúként kell besorolni azokban az esetekben, amikor fennáll annak lehetősége, hogy jelentősen befolyásolják az egyének életét;

    4.

    e tekintetben úgy véli, hogy a bűnüldöző szervek vagy az igazságszolgáltatás által kifejlesztett vagy használt mesterségesintelligencia-eszközöknek legalább biztonságosnak, nagy teljesítményűnek, védettnek és a célnak megfelelőnek kell lenniük, tiszteletben kell tartaniuk a méltányosság, az adattakarékosság, az elszámoltathatóság, az átláthatóság, a megkülönböztetésmentesség és a megmagyarázhatóság elvét, és fejlesztésüket, telepítésüket és használatukat kockázatértékelésnek és szigorú szükségességi és arányossági tesztnek kell alávetni, ahol a biztosítékoknak az azonosított kockázatokkal arányosnak kell lenniük; kiemeli, hogy a polgárok által az EU-ban kifejlesztett, bevezetett és alkalmazott mesterséges intelligencia használatába vetett bizalom e kritériumok maradéktalan teljesítésétől függ;

    5.

    elismeri, hogy a mesterségesintelligencia-alkalmazások bizonyos típusai Unió-szerte pozitívan járulnak hozzá a bűnüldöző és igazságügyi hatóságok munkájához; kiemeli például az ítélkezési gyakorlat irányítása terén a további keresési opciókat biztosító eszközök révén elért javulást; úgy véli, hogy a mesterséges intelligencia bűnüldözés és igazságszolgáltatás terén való használata egyéb, feltárásra váró lehetőségeket rejt, amelyek vizsgálata során figyelembe kell venni a CEPEJ által elfogadott, a mesterséges intelligencia igazságszolgáltatási rendszerekben és azok környezetében való alkalmazásáról szóló etikai charta öt alapelvét, különös figyelmet fordítva a CEPEJ által meghatározott, „a legnagyobb fenntartásokkal kezelendő felhasználásoknak”;

    6.

    hangsúlyozza, hogy a technológia rendeltetése módosítható, és ezért szigorú demokratikus ellenőrzést és független felügyeletet szorgalmaz különösen az olyan, mesterséges intelligencián alapuló technológiák bűnüldöző és igazságügyi hatóságok általi használata terén, amelyek tömeges megfigyelés vagy tömeges profilalkotás céljára is használhatók; ezért komoly aggodalommal veszi tudomásul a bűnüldözési ágazatban tömeges megfigyelési célokra használt egyes mesterségesintelligencia-technológiákban rejlő lehetőségeket; kiemeli azt a jogi követelményt, hogy meg kell előzni a mesterségesintelligencia-technológiákkal végzett tömeges megfigyelést, amely meghatározásánál fogva nem felel meg a szükségesség és az arányosság elvének, és be kell tiltani az esetlegesen ezt eredményező alkalmazások használatát;

    7.

    hangsúlyozza, hogy a tömeges megfigyelési technológiák fejlesztésével, telepítésével és használatával kapcsolatban egyes nem uniós országokban alkalmazott megközelítés aránytalanul beavatkozik az alapvető jogokba, és ezért azt az EU-nak nem kell követnie; hangsúlyozza ezért, hogy a mesterségesintelligencia-technológiákkal a bűnüldöző és igazságügyi hatóságok általi visszaélések elleni biztosítékokat is az egész Európai Unióban egységesen kell szabályozni;

    8.

    hangsúlyozza a mesterségesintelligencia-alkalmazások, például a gépi tanulási eszközök használatából eredő lehetséges részrehajlást és megkülönböztetést, ideértve az algoritmusokat, amelyeken az ilyen alkalmazások alapulnak; megjegyzi, hogy az alapul szolgáló adatkészletek részrehajlók lehetnek, különösen akkor, ha múltbeli adatokat használnak, amelyeket az algoritmusok fejlesztői tápláltak be, vagy amelyek akkor keletkeznek, amikor a rendszereket valós körülmények között alkalmazzák; rámutat arra, hogy a mesterségesintelligencia-alkalmazások által nyújtott eredményeket szükségszerűen befolyásolja a felhasznált adatok minősége, és hogy az ilyen eredendő részrehajlások hajlamosak tovább növekedni, és ezáltal állandósítják és felerősítik a meglévő megkülönböztetést, különösen a kisebbségi etnikai csoportokhoz tartozó személyek vagy a faji alapon megkülönböztetett közösségek esetében;

    9.

    hangsúlyozza, hogy számos, jelenleg alkalmazott algoritmikus azonosítási technológia aránytalanul téves azonosítást és téves besorolást eredményez, és ezért kárt okoz a rasszizált személyeknek, az egyes etnikai közösségekhez tartozó személyeknek, az LMBTI-személyeknek, a gyermekeknek és az időseknek, valamint a nőknek; emlékeztet arra, hogy az egyéneknek nemcsak ahhoz van joguk, hogy megfelelően azonosíthatók legyenek, hanem ahhoz is, hogy egyáltalán ne lehessen őket azonosítani, kivéve, ha azt nyomós és jogos közérdekre hivatkozva törvény írja elő; hangsúlyozza, hogy a személyek egy konkrét csoportjának jellegzetességein alapuló mesterségesintelligencia-előrejelzések a megkülönböztetés meglévő formáinak felerősödéséhez és megismétlődéséhez vezetnek; úgy véli, hogy határozott erőfeszítéseket kell tenni az automatizált megkülönböztetés és részrehajlások elkerülése érdekében; szilárd kiegészítő biztosítékokat szorgalmaz arra az esetre, ha a bűnüldözés során, illetve az igazságszolgáltatásban a mesterségesintelligencia-rendszereket kiskorúak esetében vagy velük kapcsolatban használják;

    10.

    rámutat a mesterségesintelligencia-technológiákat alkalmazók és a tőlük függők közötti erőviszonyokban tapasztalható aszimmetriára; hangsúlyozza, hogy feltétlenül szükséges, hogy a mesterséges intelligencia bűnüldöző és igazságügyi hatóságok általi használta ne idézzen elő egyenlőtlenséget, társadalmi szakadékot vagy kirekesztést; hangsúlyozza a mesterségesintelligencia-eszközök használatának a gyanúsítottak védelemhez való jogára gyakorolt hatását, a működésükre vonatkozó érdemi információk beszerzésének nehézségét, valamint a kapott eredmények bíróság előtti vitatásának ebből eredő nehézségeit, különösen a vizsgálat alatt álló személyek esetében;

    11.

    tudomásul veszi különösen az adatszivárgásokkal, az adatvédelmi incidensekkel és a mesterségesintelligencia-rendszerek által kezelt személyes adatokhoz és például nyomozásokhoz vagy bírósági ügyekhez kapcsolódó más információkhoz való jogosulatlan hozzáféréssel kapcsolatos kockázatokat; hangsúlyozza, hogy a bűnüldözés terén és az igazságszolgáltatás által használt mesterségesintelligencia-rendszerek biztonsági és védelmi szempontjait gondosan meg kell vizsgálni, és azoknak kellően szilárdnak és ellenállónak kell lenniük ahhoz, hogy megelőzzék a mesterségesintelligencia-rendszerek elleni rosszindulatú támadások esetlegesen katasztrofális következményeit; hangsúlyozza a beépített biztonság, valamint az egyes kritikus alkalmazások működtetése előtti konkrét emberi felügyelet fontosságát, és ezért felszólítja a bűnüldöző és igazságügyi hatóságokat, hogy a céltól való eltávolodás elkerülése érdekében csak olyan mesterségesintelligencia-alkalmazásokat használjanak, amelyek tiszteletben tartják a beépített adatvédelem elvét;

    12.

    hangsúlyozza, hogy a bűnüldöző és igazságügyi hatóságok által használt egyetlen mesterségesintelligencia-rendszer esetében sem engedhető meg, hogy kárt tegyen az emberek testi épségében, sem pedig az, hogy a jogokat adjon az egyéneknek vagy jogi kötelezettségeket rójon rájuk;

    13.

    a mesterségesintelligencia-rendszerek összetett fejlesztésére és működtetésére tekintettel elismeri az esetleges károkért való jogi felelősség és kötelezettség pontos meghatározásával kapcsolatos kihívásokat; úgy véli, hogy egyértelmű és méltányos rendszert kell létrehozni az e fejlett digitális technológiák által okozott lehetséges káros következményekkel kapcsolatos jogi felelősség és kötelezettség megállapítására; hangsúlyozza azonban, hogy mindenekelőtt már az elején az ilyen következmények megelőzésére kell törekedni; ezért az elővigyázatosság elvének alkalmazását szorgalmazza a mesterséges intelligencia bűnüldözéssel összefüggő valamennyi alkalmazása esetében; hangsúlyozza, hogy a jogi felelősségnek és kötelezettségnek mindig egy természetes vagy jogi személyt kell terhelnie, akit mindig azonosítani kell a mesterséges intelligencia támogatásával hozott döntések esetében; hangsúlyozza ezért, hogy biztosítani kell a mesterségesintelligencia-rendszereket előállító és irányító vállalatok szervezeti felépítésének átláthatóságát;

    14.

    a védelemhez való jog hatékony gyakorlása és a nemzeti büntető igazságszolgáltatási rendszerek átláthatósága szempontjából egyaránt elengedhetetlennek tartja, hogy konkrét, egyértelmű és pontos jogi keret szabályozza a mesterségesintelligencia-eszközök bűnüldözés és igazságszolgáltatás téren való használatának feltételeit, módozatait és következményeit, valamint az érintett személyek jogait, továbbá hatékony és könnyen igénybe vehető panasztételi és – többek között bírósági – jogorvoslati eljárásokat; hangsúlyozza a büntetőeljárásban részt vevő felek azon jogát, hogy hozzáférjenek az adatgyűjtési folyamathoz és a kapcsolódó értékelésekhez, amelyeket a mesterségesintelligencia-alkalmazások révén végeztek vagy szereztek; hangsúlyozza, hogy az igazságügyi együttműködésben részt vevő végrehajtó hatóságoknak, amikor egy másik tagállamba vagy nem uniós országba való kiadatás (vagy átadás) iránti kérelemről döntenek, értékelniük kell, hogy vajon a mesterségesintelligencia-eszközök kérelmező országban való használata nem sértheti-e egyértelműen a tisztességes eljáráshoz való alapvető jogot; felhívja a Bizottságot, hogy adjon ki iránymutatásokat arra vonatkozóan, hogyan kell elvégezni az értékelést a büntetőügyekben folytatott igazságügyi együttműködés keretében; ragaszkodik ahhoz, hogy a tagállamok az alkalmazandó jogszabályokban foglaltaknak megfelelően biztosítsák, hogy az egyének tájékoztatást kapjanak, ha a bűnüldöző hatóságok vagy az igazságszolgáltatás személyüket érintő mesterségesintelligencia-alkalmazásokat használnak;

    15.

    rámutat, hogy ha az emberek kizárólag a gépek által szolgáltatott adatokra, profilokra és ajánlásokra támaszkodnak, nem fognak tudni független értékelést végezni; kiemeli, hogy különösen a bűnüldözés és az igazságszolgáltatás terén súlyosan hátrányos következmények származhatnak abból, ha egyes tisztviselők túlzott mértékben bíznak a mesterségesintelligencia-eszközök látszólagosan tárgyilagos és tudományos jellegében, és nem veszik figyelembe, hogy ezek az eszközök téves, hiányos, irreleváns vagy hátrányosan megkülönböztető eredményt adhatnak; hangsúlyozza, hogy el kell kerülni, hogy túl nagy mértékben támaszkodjanak a mesterségesintelligencia-rendszerek által biztosított eredményekre, és kiemeli annak szükségességét, hogy a hatóságok szükséges magabiztossággal és ismeretekkel rendelkezzenek ahhoz, hogy megkérdőjelezzenek vagy felülbíráljanak egy algoritmikus ajánlást; fontosnak tartja, hogy realisztikus elvárások legyenek az ilyen technológiai megoldásokkal kapcsolatban, és hogy ne várjanak el tökéletes bűnüldözési megoldásokat és az összes elkövetett bűncselekmény felderítését;

    16.

    hangsúlyozza, hogy az igazságszolgáltatás és a bűnüldözés terén minden jogi vagy hasonló következménnyel járó döntést mindig olyan embernek kell meghoznia, aki felelősségre vonható a meghozott döntésekért; úgy véli, hogy a mesterséges intelligenciával működő rendszerek hatálya alá tartozó személyeknek jogorvoslattal kell rendelkezniük; emlékeztet arra, hogy az uniós jog értelmében mindenki jogosult arra, hogy ne terjedjen ki rá az olyan, kizárólag automatizált adatkezelésen alapuló döntés hatálya, amely rá nézve joghatással járna, vagy őt jelentős mértékben érintené; kiemeli továbbá, hogy az automatizált döntéshozatal nem alapulhat a személyes adatok különleges kategóriáin, kivéve ha az érintett jogainak, szabadságainak és jogos érdekeinek védelmét megfelelő intézkedések biztosítják; hangsúlyozza, hogy az uniós jog tiltja az olyan profilalkotást, amely a személyes adatok különleges kategóriái alapján természetes személyekkel szembeni megkülönböztetéshez vezet; kiemeli, hogy a bűnüldözés terén hozott határozatok szinte mindig olyan határozatok, amelyek a bűnüldöző hatóságok és intézkedéseik végrehajtási jellegénél fogva joghatással vannak az érintett személyre; megjegyzi, hogy a mesterséges intelligencia használata befolyásolhatja az emberi döntéseket és hatással lehet a büntető eljárásjog minden szakaszára; ezért úgy véli, hogy a mesterségesintelligencia-rendszereket használó hatóságoknak rendkívül szigorú jogi normákat kell fenntartaniuk, és biztosítaniuk kell az emberi beavatkozást, különösen az ilyen rendszerekből származó adatok elemzése során; kéri ezért, hogy tartsák fenn a bírók saját szuverén mérlegelési jogát és az eseti döntéshozatalt; felszólít a mesterséges intelligencia és a kapcsolódó technológiák használatának betiltására a bírósági határozatokra irányuló javaslatok területén;

    17.

    kéri, hogy a felügyelet szükséges elemként az algoritmusok legyenek megmagyarázhatók, átláthatók, nyomon követhetők és ellenőrizhetők annak biztosítása érdekében, hogy a mesterségesintelligencia-rendszerek fejlesztése, telepítése és használata az igazságszolgáltatás és a bűnüldözés számára megfeleljen az alapvető jogoknak és élvezze a polgárok bizalmát, valamint annak biztosítása érdekében, hogy a mesterségesintelligencia-algoritmusok által generált eredmények érthetővé tehetők legyenek a felhasználók és az e rendszerek hatálya alá tartozók számára, továbbá hogy átláthatók legyenek a forrásadatok és az, hogy a rendszer hogyan jut egy bizonyos következtetésre; rámutat, hogy a műszaki átláthatóság, megbízhatóság és pontosság biztosítása érdekében az Unióban csak olyan eszközök megvásárlását lenne szabad engedélyezni a bűnüldöző és igazságügyi hatóságok számára, amelyek legalább a rendőri szervek, az igazságszolgáltatás és a független auditorok számára ellenőrizhető és hozzáférhető algoritmusokkal és logikával rendelkeznek, hogy lehetővé tegyék értékelésüket, auditálásukat és átvilágításukat, és az eladók azokat ne tudják lezárni vagy tulajdonjoggal felcímkézni; rámutat, hogy a dokumentációnak világos és érthető nyelvezeten kell tájékoztatást nyújtania a szolgáltatás jellegéről, a kifejlesztett eszközökről, a várható működési teljesítményről és feltételekről és az esetlegesen felmerülő kockázatokról; felhívja ezért a bűnüldöző és igazságügyi hatóságokat, hogy biztosítsanak proaktív és teljes körű átláthatóságot a bűnüldözési és igazságszolgáltatási célokat szolgáló mesterségesintelligencia-rendszereket számukra nyújtó magánvállalatok esetében; ezért javasolja nyílt forráskódú szoftverek lehetőség szerinti alkalmazását;

    18.

    ösztönzi a bűnüldöző és igazságügyi hatóságokat, hogy azonosítsák és értékeljék azokat a területeket, ahol egyes személyre szabott mesterségesintelligencia-megoldások előnyösek lehetnek, valamint osszák meg egymással a mesterséges intelligencia bevezetésével kapcsolatos bevált gyakorlatokat; kéri a tagállamokat és az uniós ügynökségeket, hogy a bűnüldözésben vagy az igazságszolgáltatásban használt mesterségesintelligencia-rendszerek esetében fogadjanak el megfelelő beszerzési eljárásokat annak biztosítása érdekében, hogy azok megfeleljenek az alapvető jogoknak és az alkalmazandó jogszabályoknak, beleértve annak biztosítását, hogy a szoftverdokumentációk és algoritmusok rendelkezésre álljanak és hozzáférhetők legyenek az illetékes és felügyeleti hatóságok számára felülvizsgálat céljából; felszólít különösen olyan kötelező erejű szabályokra, amelyek előírják a köz- és magánszféra közötti partnerségek, szerződések és beszerzések, valamint a beszerzésük céljának közzétételét; hangsúlyozza, hogy a hatóságok számára biztosítani kell a szükséges finanszírozást és szakértelmet, hogy garantálni lehessen a mesterséges intelligencia bevezetéséhez kapcsolódó etikai, jogi és műszaki követelmények maradéktalan betartását;

    19.

    kéri, hogy a mesterségesintelligencia-rendszerek és a döntéshozatali eljárás legyenek nyomon követhetők, ami – kötelező dokumentációs kötelezettségek révén – körvonalazza funkcióit, meghatározza a rendszerek képességeit és korlátait, és aminek segítségével nyilván lehet tartani, hogy a döntéshez szükséges attribútumok honnan származnak; hangsúlyozza annak fontosságát, hogy a képzési adatokat, azok hátterét, célját, pontosságát és közvetett következményeit, valamint az algoritmusok építői és fejlesztői általi feldolgozását és az alapvető jogoknak való megfelelését teljes körűen dokumentálják; kiemeli, hogy mindenkor biztosítani kell annak lehetőségét, hogy a mesterséges intelligencia számításait emberek számára érthető formára egyszerűsítsék;

    20.

    az MI-rendszereknek a jogérvényesítésben vagy az igazságszolgáltatásban történő bevezetése vagy telepítése előtt kötelező alapjogi hatásvizsgálatot kér az alapvető jogokat érintő esetleges kockázatok felmérése érdekében; emlékeztet arra, hogy az előzetes adatvédelmi hatásvizsgálat kötelező minden olyan – különösen az új technológiákat használó – adatkezelési módszer esetében, amely valószínűleg nagy kockázatot jelent a természetes személyek jogaira és szabadságaira nézve, és véleménye szerint ez a helyzet a bűnüldözés és az igazságszolgáltatás terén használt összes MI-technológia esetében; hangsúlyozza az adatvédelmi hatóságok és az alapjogi ügynökségek szakértelmének fontosságát a rendszerek értékelésében; hangsúlyozza, hogy ezen alapjogi hatásvizsgálatokat a lehető legnyilvánosabban és a civil társadalom aktív bevonásával kell elvégezni; követeli, hogy a hatásvizsgálatok egyértelműen határozzák meg az azonosított kockázatok kezeléséhez szükséges biztosítékokat, és azokat a lehető legnagyobb mértékben tegyék nyilvánosan hozzáférhetővé bármely MI-rendszer bevezetése előtt;

    21.

    hangsúlyozza, hogy csak a mesterséges intelligenciával kapcsolatos, független értékeléssel rendelkező szilárd európai irányítás teszi lehetővé az alapvető jogokkal kapcsolatos elvek szükséges működését; a bűnüldöző szervek és az igazságszolgáltatás által használt valamennyi MI-rendszer független hatóság által végzett, kötelező időszakos ellenőrzését kéri azokban az esetekben, amikor fennáll annak lehetősége, hogy jelentősen befolyásolják az egyének életét, az algoritmikus rendszerek, hátterük, céljuk, pontosságuk, teljesítményük és méretük tesztelése és értékelése céljából, üzembe helyezésük utáni pedig a nem kívánt és káros hatások felderítése, kivizsgálása, diagnosztizálása és orvoslása, valamint az MI-rendszerek tervezett teljesítményének biztosítása érdekében; ezért egyértelmű intézményi keret létrehozására szólít fel e célból, beleértve a megfelelő szabályozási és felügyeleti ellenőrzést, a teljes körű végrehajtás biztosítása, valamint a mesterséges intelligencia szükségességével és arányosságával kapcsolatos, teljes körű tájékoztatáson alapuló demokratikus vita garantálása érdekében a büntető igazságszolgáltatás területén; hangsúlyozza, hogy ezen ellenőrzések eredményeit nyilvános nyilvántartásokban hozzáférhetővé kell tenni, hogy a polgárok megismerjék a bevezetett MI-rendszereket, illetve hogy milyen jogorvoslati intézkedéseket hoztak az alapvető jogok megsértésének esetére;

    22.

    hangsúlyozza, hogy a mesterséges intelligencia és a kapcsolódó technológiák fejlesztése keretében, az adatkezelés különböző szakaszaiban végzett osztályozások, értékelések és előrejelzések során használt adatkészletek és algoritmikus rendszerek a személyek hasonló jellemzőkkel bíró csoportjaival szembeni eltérő bánásmódhoz és közvetlen vagy közvetett megkülönböztetéshez is vezethetnek, különösen mivel a prediktív rendészeti algoritmusok tanításához használt adatok a folyamatban lévő felügyelet prioritásait tükrözik, és ennek következtében a meglévő elfogultságok megismétléséhez és felerősítéséhez vezethetnek; hangsúlyozza ezért, hogy az MI-technológiákhoz – különösen a bűnüldöző szervek és az igazságszolgáltatás általi használatra – interdiszciplináris kutatásra és tartalomra van szükség többek között a tudományos és technológiai tanulmányok, a kritikai faji tanulmányok, a fogyatékossággal foglalkozó tanulmányok és a társadalmi kontextushoz igazított egyéb tudományágak területéről, beleértve a különbségek felépítését, a besorolással kapcsolatos munkát és annak következményeit; hangsúlyozza ezért, hogy szisztematikusan be kell fektetni abba, hogy ezeket a szabályokat minden szinten beépítsék a mesterséges intelligenciával kapcsolatos tanulmányokba és kutatásba; hangsúlyozza továbbá, hogy biztosítani kell, hogy a bűnüldöző szervek és az igazságszolgáltatás számára MI-rendszereket tervező, fejlesztő, tesztelő, karbantartó, telepítő és beszerző csapatok – a megkülönböztetés kockázatának csökkentését célzó nem technikai eszközökként – lehetőség szerint tükrözzék általában a társadalom sokféleségét;

    23.

    kiemeli emellett, hogy a megfelelő elszámoltathatósághoz, felelősség- és kötelezettségvállaláshoz átfogó szakmai képzésre van szükség az etikai rendelkezéseket, valamint az MI-technológia lehetséges veszélyeit, korlátait és megfelelő használatát illetően, különösen a rendőrségi és igazságügyi dolgozók esetében; hangsúlyozza, hogy a megfelelő szakmai képzéseknek és képesítéseknek szavatolniuk kell, hogy a döntéshozók – mivel az adatállományok akár diszkriminatív és elfogult adatokon is alapulhatnak – jártassággal rendelkezzenek a torzítás eshetőségével kapcsolatban; támogatja az annak biztosítását célzó figyelemfelhívó és ismeretterjesztő kezdeményezések létrehozását, hogy a bűnüldözésben és az igazságszolgáltatásban dolgozó egyének ismerjék és értsék az MI-rendszerek használatához kapcsolódó korlátokat, képességeket és kockázatokat, ideértve az automatizálással járó torzulás kockázatát is; emlékeztet arra, hogy a mesterséges intelligenciával kapcsolatos megállapításokban, pontszámokban és ajánlásokban elkerülhetetlenül rasszista elfogultsághoz vezet, ha a rendőri erők feladataik ellátása során történt rasszista példáit beépítik a mesterséges intelligencia tanításához használt adatkészletekbe; ezért ismételten arra kéri a tagállamokat, hogy mozdítsák elő a megkülönböztetés elleni politikákat, és dolgozzanak ki rasszizmus elleni nemzeti cselekvési terveket a rendfenntartás és az igazságszolgáltatás területén;

    24.

    megjegyzi, hogy a prediktív rendészet a bűnüldözés területén használt MI-alkalmazások egyike, figyelmeztet azonban arra, hogy habár a prediktív rendészet képes elemezni a szükséges adatkészleteket a mintázatok és az összefüggések azonosítása érdekében, azonban nem adhat választ az okozati kérdésekre és nem adhat megbízható előrejelzést az egyéni viselkedéssel kapcsolatban, és ezért nem képezheti a beavatkozás kizárólagos alapját; rámutat, hogy az Egyesült Államok több városában megszüntették a prediktív rendészeti rendszereket az ellenőrzéseket követően; emlékeztet arra, hogy az Állampolgári Jogi, Bel- és Igazságügyi Bizottság küldöttségének 2020. februárban az Egyesült Államokba való látogatása során New York város és Cambridge (Massachusetts) rendőrsége arról tájékoztatta a képviselőket, hogy a hatékonyság hiánya, a megkülönböztető hatás és a gyakorlati működésképtelenség miatt fokozatosan megszüntették prediktív rendészeti programjaikat, és inkább a közösségi rendfenntartás felé fordultak; megjegyzi, hogy ez a bűnözési mutatók csökkenését eredményezte; ellenzi ezért, hogy a bűnüldöző hatóságok azzal a céllal használják a mesterséges intelligenciát, hogy egyének vagy csoportok tekintetében a történelmi adatok és múltbeli viselkedés, csoporttagság, helyszín, vagy bármely más hasonló tulajdonság alapján viselkedési előrejelzéseket készítsenek, és ezek alapján próbálják meg azonosítani azokat az embereket, akik bűncselekményt követhetnek el;

    25.

    tudomásul veszi az arcfelismerés használatának különböző típusait, például – de nem kizárólag – az ellenőrzést/hitelesítést (azaz egy élő arcnak a személyazonosító okmányban szereplő fényképhez való igazítása, pl. intelligens határigazgatás), az azonosítást (azaz a fényképek egy meghatározott adatbázisával való összevetését) és a felderítést (azaz arcok valós idejű felderítését olyan forrásokból, mint például a CCTV-felvételek, és azoknak az adatbázisokhoz való hozzárendelését, pl. valós idejű megfigyelés), amelyek mindegyike különböző következményekkel jár az alapvető jogok védelme tekintetében; szilárd meggyőződése, hogy az arcfelismerő rendszerek bűnüldöző hatóságok általi telepítését egyértelműen szükséges célokra kell korlátozni az arányosság és a szükségesség elvének és az alkalmazandó jog teljes körű tiszteletben tartása mellett; újólag megerősíti, hogy az arcfelismerő technológia alkalmazásának meg kell felelnie legalább az adattakarékossággal, az adatok pontosságával, a tárolás korlátozásával, az adatbiztonsággal és az elszámoltathatósággal kapcsolatos követelményeknek, jogszerűnek, méltányosnak, átláthatónak kell lennie, valamint a tagállami vagy az uniós jogban egyértelműen meghatározott konkrét, kifejezett és jogszerű célt kell szolgálnia; úgy véli, hogy az ellenőrzési és hitelesítési rendszereket csak akkor lehet továbbra is telepíteni és sikeresen használni, ha káros hatásaik csökkenthetők, és a fenti kritériumok teljesülnek;

    26.

    felszólít továbbá a más emberi jellemzők – például testtartás, ujjlenyomat, DNS, hang, illetve egyéb biometrikus jelek és viselkedésjegyek – automatikus elemzésére és/vagy felismerésére irányuló, köztereken való használat végleges betiltására;

    27.

    az azonosítási funkcióval ellátott arcfelismerő rendszerek – a szigorúan a bűncselekmények áldozatainak azonosítása céljából történő használat kivételével – bűnüldözési célú telepítésének moratóriumára szólít fel azonban mindaddig, amíg a technikai standardok nem tekinthetők az alapvető jogoknak teljes mértékben megfelelőnek, a belőlük származó eredmények torzultak és nem megkülönböztetésmentesek, a jogi keret nem biztosít szigorú biztosítékokat a visszaélések ellen, valamint szigorú demokratikus ellenőrzést és felügyeletet, és nem áll rendelkezésre empirikus bizonyíték az ilyen technológiák telepítésének szükségességét és arányosságát illetően; megjegyzi, hogy amennyiben a fenti kritériumok nem teljesülnek, a rendszereket nem szabad használni vagy telepíteni;

    28.

    komoly aggodalmát fejezi ki a magántulajdonú arcfelismerési adatbázisok – például a Clearview AI, azaz a közösségi hálózatokról és az internet más részeiről, köztük uniós polgároktól jogellenesen összegyűjtött több mint három milliárd képet tartalmazó adatbázis – bűnüldöző szervek és hírszerző szolgálatok általi használata miatt; kéri a tagállamokat, hogy kötelezzék a bűnüldöző szerveket arra, hogy hozzák nyilvánosságra, használják-e a Clearview AI által fejlesztett technológiát, vagy más szolgáltatók hasonló technológiáit; emlékeztet az Európai Adatvédelmi Testület véleményére, miszerint az Európai Unióban a Clearview AI-hoz hasonló szolgáltatások bűnüldöző hatóságok általi igénybevétele „valószínűleg nem egyeztethető össze az uniós adatvédelmi rendszerrel”; kéri a magántulajdonú arcfelismerési adatbázisok bűnüldözésben való használatának betiltását;

    29.

    tudomásul veszi a prümi határozat (8) lehetséges módosításáról szóló bizottsági megvalósíthatósági tanulmányt, beleértve az arcképeket is; tudomásul veszi az azzal kapcsolatos korábbi kutatásokat, hogy egyetlen lehetséges új azonosító, pl. íriszazonosítás vagy arcfelismerés sem lenne ugyanolyan megbízható kriminalisztikai szempontból, mint a DNS vagy az ujjlenyomat; emlékezteti a Bizottságot, hogy a jogalkotási javaslatnak minden esetben bizonyítékokon kell alapulnia, és tiszteletben kell tartania az arányosság elvét; sürgeti a Bizottságot, hogy egy teljes körű hatásvizsgálatot, valamint az európai adatvédelmi biztos és az Európai Adatvédelmi Testület ajánlásainak figyelembevételét követően csak akkor bővítse a prümi határozat keretét, ha szilárd tudományos bizonyítékok támasztják alá, hogy az arcfelismerés a DNS-hez vagy az ujjlenyomathoz képest kriminalisztikai szempontból megbízható;

    30.

    hangsúlyozza, hogy a biometrikus adatok felhasználása tágabb értelemben az emberi méltósághoz való jog elvéhez kapcsolódik, amely a Charta által garantált valamennyi alapvető jog alapját képezi; úgy véli, hogy az alapvető jogokra nézve egyedi kockázatokat vethet fel a biometrikus adatok távoli azonosítási célokra való felhasználása és gyűjtése, például a közterületeken, valamint a repülőtéri határellenőrzésekhez használt automatizált határellenőrzési kapuknál végzett arcfelismerés útján, és ennek következményei jelentősen eltérhetnek a felhasználás céljától, körülményeitől és körétől függően; hangsúlyozza az érzelemfelismerő technológiák – például a szemmozgást és a pupillaméret változását észlelő kamerák – vitatott tudományos érvényességét a bűnüldözés keretében; úgy véli, hogy a biometrikus azonosításnak a bűnüldözés és az igazságszolgáltatás keretében történő használatát mindig „magas kockázatúnak” kell tekinteni, és ezért a Bizottság mesterséges intelligenciával foglalkozó magas szintű szakértői csoportjának ajánlásai szerint további követelményeknek kell alávetni;

    31.

    mélységes aggodalmának ad hangot a Horizont 2020 program keretében finanszírozott azon kutatási projektek miatt, amelyek mesterséges intelligenciát telepítenek a külső határokra, ideértve például az iBorderCtrl projektet, egy olyan, Magyarországon, Lettországban és Görögországban tesztelt „intelligens hazugságvizsgáló rendszert” is, amelynek keretében az utazók az utazás előtt webkamera segítségével részt vesznek egy automatizált, számítógépes interjún, és ennek alapján, illetve egy 38 mikro-arckifejezést vizsgáló, mesterséges intelligencián alapuló elemzésre támaszkodva profilt alkotnak róluk; felhívja a Bizottságot ezért, hogy jogalkotási és nem jogalkotási eszközökkel, szükség esetén pedig kötelezettségszegési eljárások révén ültesse át a gyakorlatba a biometrikus adatoknak, többek között az arcképeknek a bűnüldözési célú, a közterületek tömeges megfigyelés alá vonásához vezető kezelésére vonatkozó tilalmat; kéri továbbá a Bizottságot, hogy a továbbiakban ne finanszírozzon olyan biometrikus technológiával kapcsolatos kutatást vagy olyan programok bevezetését, amelyek a közterületeken végzett tömeges megfigyeléshez vezethetnek; ezzel összefüggésben kiemeli, hogy különös figyelmet kell fordítani és szigorú keretet kell alkalmazni a drónok rendőrségi műveletek során történő használatára;

    32.

    támogatja a Bizottság mesterséges intelligenciával foglalkozó magas szintű szakértői csoportjának az egyének mesterséges intelligencián alapuló tömeges pontozása betiltásának támogatására vonatkozó ajánlásait; úgy véli, hogy a polgárok hatóságok általi nagyarányú normatív pontozásának minden formája – különösen a bűnüldözés és az igazságszolgáltatás területén – az autonómia elvesztéséhez vezet, veszélybe sodorja a megkülönböztetés tilalmának elvét és az uniós értékekkel – különösen az uniós jogban is rögzített emberi méltósággal – összeegyeztethetetlennek minősülhet;

    33.

    fokozott általános átláthatóságot kér az MI-alkalmazások Unión belüli használata tekintetében egy átfogó értelmezés kialakítása céljából; kéri a tagállamokat, hogy nyújtsanak átfogó tájékoztatást a bűnüldöző és igazságügyi hatóságaik által használt eszközökről, a használt eszközök típusairól, használatuk céljairól, a kapcsolódó bűncselekmények típusairól, valamint az ezen eszközöket kifejlesztő vállalatok és szervezetek nevéről; kéri a bűnüldöző hatóságokat és az igazságszolgáltatást, hogy tájékoztassák a nyilvánosságot is, és biztosítsanak kellő átláthatóságot abban az esetben, ha hatáskörük gyakorlása során mesterséges intelligenciát és kapcsolódó technológiákat használnak, ideértve a szóban forgó technológia hamispozitív- és hamisnegatív-arányainak közzétételét is; kéri, hogy a Bizottság egyetlen helyen gyűjtse össze és frissítse az információkat; kéri a Bizottságot, hogy tegye közzé és frissítse a mesterséges intelligencia igazságszolgáltatási és bűnüldözési feladatokkal megbízott uniós ügynökségek általi használatára vonatkozó információkat is; felhívja az Európai Adatvédelmi Testületet, hogy értékelje a bűnüldöző hatóságok és az igazságszolgáltatás által használt mesterségesintelligencia-technológiák és -alkalmazások jogszerűségét;

    34.

    emlékeztet arra, hogy az MI-alkalmazások, többek között a bűnüldözéssel és az igazságszolgáltatással összefüggésben használt alkalmazások világszerte rohamosan fejlődnek; sürgeti az összes európai érdekelt felet, köztük a tagállamokat és a Bizottságot, hogy nemzetközi együttműködés révén biztosítsák az EU-n kívüli partnerek bevonását a normák nemzetközi szintű emelése, valamint a mesterséges intelligencia használatára vonatkozó közös és kiegészítő jogi és etikai keret kialakítása érdekében, különösen a bűnüldözés és az igazságszolgáltatás tekintetében, amely teljes mértékben tiszteletben tartja a Chartát, az európai adatvédelmi vívmányokat és szélesebb körben az emberi jogokat;

    35.

    felhívja az EU Alapjogi Ügynökségét, hogy az Európai Adatvédelmi Testületettel és az európai adatvédelmi biztossal együttműködésben dolgozzon ki tervezetet átfogó iránymutatásokra, ajánlásokra és bevált gyakorlatokra a bűnüldöző és igazságügyi hatóságok általi használatra szolgáló MI-alkalmazások és -megoldások fejlesztésére, használatára és telepítésére vonatkozó kritériumok és feltételek további pontosítása érdekében; vállalja, hogy tanulmányt készít a bűnüldözésben érvényesítendő adatvédelemről szóló irányelv (9) végrehajtásáról annak megállapítása érdekében, hogy a bűnüldöző és igazságügyi hatóságok adatkezelési tevékenységei során hogyan biztosították a személyes adatok védelmét, különösen az új technológiák kifejlesztése vagy bevezetése során; felhívja továbbá a Bizottságot annak megfontolására, hogy szükség van-e a bűnüldöző és igazságügyi hatóságok által az MI-alkalmazások és -megoldások fejlesztésére, használatára és alkalmazására vonatkozó kritériumok és feltételek további pontosítására irányuló konkrét jogalkotási fellépésre;

    36.

    utasítja elnökét, hogy továbbítsa ezt az állásfoglalást a Tanácsnak és a Bizottságnak.

    (1)  HL L 119., 2016.5.4., 1. o.

    (2)  HL L 119., 2016.5.4., 89. o.

    (3)  HL L 295., 2018.11.21., 39. o.

    (4)  HL L 201., 2002.7.31., 37. o.

    (5)  HL L 135., 2016.5.24., 53. o.

    (6)  HL C 362., 2021.9.8., 63. o.

    (7)  HL C 263., 2018.7.25., 82. o.

    (8)  A Tanács 2008/615/IB határozata (2008. június 23.) a különösen a terrorizmus és a határokon átnyúló bűnözés elleni küzdelemre irányuló, határokon átnyúló együttműködés megerősítéséről (HL L 210., 2008.8.6., 1. o.).

    (9)  Az Európai Parlament és a Tanács (EU) 2016/680 irányelve (2016. április 27.) a személyes adatoknak az illetékes hatóságok által a bűncselekmények megelőzése, nyomozása, felderítése, a vádeljárás lefolytatása vagy büntetőjogi szankciók végrehajtása céljából végzett kezelése tekintetében a természetes személyek védelméről és az ilyen adatok szabad áramlásáról, valamint a 2008/977/IB tanácsi kerethatározat hatályon kívül helyezéséről (HL L 119., 2016.5.4., 89. o.).


    Top