This document is an excerpt from the EUR-Lex website
Document 52021IP0405
European Parliament resolution of 6 October 2021 on artificial intelligence in criminal law and its use by the police and judicial authorities in criminal matters (2020/2016(INI))
Usnesení Evropského parlamentu ze dne 6. října 2021 o umělé inteligenci v trestním právu a jejímu využívání policií a soudními orgány v trestních věcech (2020/2016(INI))
Usnesení Evropského parlamentu ze dne 6. října 2021 o umělé inteligenci v trestním právu a jejímu využívání policií a soudními orgány v trestních věcech (2020/2016(INI))
Úř. věst. C 132, 24.3.2022, p. 17–26
(BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)
24.3.2022 |
CS |
Úřední věstník Evropské unie |
C 132/17 |
P9_TA(2021)0405
Umělá inteligence v trestním právu a její využívání policií a soudními orgány v trestních věcech
Usnesení Evropského parlamentu ze dne 6. října 2021 o umělé inteligenci v trestním právu a jejímu využívání policií a soudními orgány v trestních věcech (2020/2016(INI))
(2022/C 132/02)
Evropský parlament,
— |
s ohledem na Smlouvu o Evropské unii, a zejména na články 2 a 6 této smlouvy, a na Smlouvu o fungování Evropské unie, a zejména na článek 16 této smlouvy, |
— |
s ohledem na Listinu základních práv Evropské unie (dále jen „Listina), a zejména její články 6, 7, 8, 11, 12, 13, 20, 21, 24 a 47, |
— |
s ohledem na Úmluvu o ochraně lidských práv a základních svobod, |
— |
s ohledem na Úmluvu Rady Evropy o ochraně osob se zřetelem na automatizované zpracování osobních dat (ETS č. 108) a na její dodatkový protokol („Úmluva 108+“), |
— |
s ohledem na Evropskou etickou chartu pro využívání umělé inteligence v soudních systémech, kterou vydala komise Rady Evropy pro hodnocení efektivity justice (CEPEJ), |
— |
s ohledem na sdělení Komise ze dne 8. dubna 2019 s názvem „Budování důvěry v umělou inteligenci zaměřenou na člověka“ COM(2019)0168), |
— |
s ohledem na etické pokyny pro důvěryhodnou umělou inteligenci, které zveřejnila odborná skupina na vysoké úrovni pro umělou inteligenci v rámci Komise dne 8. dubna 2019, |
— |
s ohledem na bílou knihu Komise ze dne 19. února 2020 s názvem „O umělé inteligenci – evropský přístup k excelenci a důvěře“ (COM(2020)0065), |
— |
s ohledem na sdělení Komise ze dne 19. února 2020 s názvem „Evropská strategie pro data“ (COM(2020)0066), |
— |
s ohledem na nařízení Evropského parlamentu a Rady (EU) 2016/679 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů a o volném pohybu těchto údajů a o zrušení směrnice 95/46/ES (obecné nařízení o ochraně osobních údajů) (1), |
— |
s ohledem na směrnici Evropského parlamentu a Rady (EU) 2016/680 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů příslušnými orgány za účelem prevence, vyšetřování, odhalování či stíhání trestných činů nebo výkonu trestů, o volném pohybu těchto údajů a o zrušení rámcového rozhodnutí Rady 2008/977/SVV (2), |
— |
s ohledem na nařízení Evropského parlamentu a Rady (EU) 2018/1725 ze dne 23. října 2018 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů orgány, institucemi a jinými subjekty Unie a o volném pohybu těchto údajů a o zrušení nařízení (ES) č. 45/2001 a rozhodnutí č. 1247/2002/ES (3), |
— |
s ohledem na směrnici Evropského parlamentu a Rady 2002/58/ES ze dne 12. července 2002 o zpracování osobních údajů a ochraně soukromí v odvětví elektronických komunikací (směrnice o soukromí a elektronických komunikacích) (4), |
— |
s ohledem na nařízení Evropského parlamentu a Rady (EU) 2016/794 ze dne 11. května 2016 o Agentuře Evropské unie pro spolupráci v oblasti prosazování práva (Europol) a o zrušení a nahrazení rozhodnutí 2009/371/SVV, 2009/934/SVV, 2009/935/SVV, 2009/936/SVV a 2009/968/SVV (5), |
— |
s ohledem na své usnesení ze dne 19. června 2020 o protestech proti rasismu v návaznosti na smrt George Floyda (6), |
— |
s ohledem na své usnesení ze dne 14. března 2017 o dopadech dat velkého objemu na základní práva: soukromí, ochrana údajů, zákaz diskriminace, bezpečnost a prosazování práva (7), |
— |
s ohledem na slyšení ve Výboru pro občanské svobody, spravedlnost a vnitřní věci (LIBE) dne 20. února 2020 o umělé inteligenci v trestním právu a jejím využívání policií a soudními orgány v trestních věcech, |
— |
s ohledem na zprávu mise výboru LIBE ve Spojených státech amerických v únoru 2020, |
— |
s ohledem na článek 54 jednacího řádu, |
— |
s ohledem na stanoviska Výboru pro vnitřní trh a ochranu spotřebitelů a Výboru pro právní záležitosti, |
— |
s ohledem na zprávu Výboru pro občanské svobody, spravedlnost a vnitřní věci (A9-0232/2021), |
A. |
vzhledem k tomu, že digitální technologie obecně, a šíření zpracování údajů a analýz umělou inteligencí obzvlášť, s sebou přináší mimořádné naděje a rizika; vzhledem k tomu, že umělá inteligence v posledních letech zaznamenala velký pokrok a je jednou ze strategických technologií 21. století, která má potenciál přinášet značné výhody z hlediska účinnosti, přesnosti a pohodlnosti, a přináší proto pozitivní změnu evropského hospodářství a společnosti, avšak také velká rizika pro základní práva a demokracii založenou na právním státu; vzhledem k tomu, že umělá inteligence nesmí být považována sama o sobě za cíl, ale za nástroj, který slouží lidem s konečným cílem zvyšovat kvalitu jejich života, schopností a bezpečnosti; |
B. |
vzhledem k tomu, že navzdory pokračujícímu pokroku v operační rychlosti a paměťové kapacitě počítačů zatím neexistují žádné programy, které by mohly odpovídat lidské flexibilitě v širších oblastech nebo při úkolech vyžadujících porozumění souvislostem nebo kritickou analýzu; vzhledem k tomu, že některé aplikace umělé inteligence dosáhly při plnění určitých specifických úkolů např. „legal tech“) úrovně výkonnosti odborníků a profesionálů a mohou přinést výsledky dramaticky odlišné rychlosti a rozsahu; |
C. |
vzhledem k tomu, že některé země včetně několika členských států více využívají aplikace umělé inteligence nebo zabudované systémy umělé inteligence při prosazování práva a v soudnictví než jiné, což je částečně způsobeno nedostatečnou regulací a rozdíly v právní úpravě, která buď umožňuje, nebo zakazuje používání umělé inteligence k určitým účelům; vzhledem k tomu, že stále častější využívání umělé inteligence v oblasti trestního práva je založeno zejména na naději, že by to snížilo určité typy trestné činnosti a vedlo k objektivnějším rozhodnutím; vzhledem k tomu, že tyto sliby však ne vždy platí; |
D. |
vzhledem k tomu, že základní práva a svobody zakotvené v Listině by měly být zaručeny po celou dobu životního cyklu umělé inteligence a souvisejících technologií, zejména během jejich navrhování, vývoje, zavádění a používání, a měly by se vztahovat na prosazování práva za všech okolností; |
E. |
vzhledem k tomu, že technologie umělé inteligence by měla být vyvíjena tak, aby se lidé stali středem pozornosti, měla by si zasluhovat důvěru veřejnosti a vždy pracovat ve službách lidí; vzhledem k tomu, že konečná bezpečnostní pojistka systémů umělé inteligence musí být navržena tak, aby mohly být vždy vypnuty lidským provozovatelem; |
F. |
vzhledem k tomu, že systémy umělé inteligence jsou navrženy na ochranu a ku prospěchu všech členů společnosti (včetně zranitelné a marginalizované části obyvatelstva) musí být nediskriminační, bezpečné, vysvětlitelné ve svých rozhodnutích a transparentní a musí respektovat lidskou nezávislost a základní práva, aby tak byly důvěryhodné, jak je popsáno v pokynech pro etické využívání umělé inteligence vypracovaných odbornou skupinou na vysoké úrovni pro umělou inteligenci; |
G. |
vzhledem k tomu, že Unie a členské státy nesou zásadní odpovědnost za zajištění toho, aby se rozhodnutí, která se týkají životního cyklu a používání aplikací umělé inteligence v oblasti soudnictví a prosazování práva, prováděla transparentním způsobem, plně zaručovala základní práva a zejména se nedopouštěla pokračování diskriminace, předpojatosti nebo předsudků tam, kde existují; vzhledem k tomu, že příslušná politická rozhodnutí by měla respektovat zásady nezbytnosti a přiměřenosti, aby byla zaručena ústavnost a spravedlivý a humánní soudní systém; |
H. |
vzhledem k tomu, že aplikace umělé inteligence mohou nabízet široké možnosti v oblasti prosazování práva, zejména při zlepšování pracovních postupů donucovacích a soudních orgánů a účinnějšího boje proti některým druhům trestných činů, především finanční trestné činnosti, praní peněz, financování terorismu a sexuálnímu zneužívání on line a vykořisťování dětí, jakož i některým druhům kyberkriminality, čímž přispívají k bezpečnosti a ochraně občanů EU zatímco současně mohou přinášet značná rizika pro základní práva lidí; vzhledem k tomu, že jakékoli plošné použití umělé inteligence za účelem hromadného sledování by bylo nepřiměřené; |
I. |
vzhledem k tomu, že vývoj a provoz systémů umělé inteligence pro policejní a soudní orgány znamená zapojení více jednotlivců, organizací, přístrojů, softwarových algoritmů a lidských uživatelů v často složitém a náročném prostředí; vzhledem k tomu, že používání umělé inteligence při prosazování práva a v soudnictví se nachází v různých vývojových fázích, od koncepčního vývoje přes prototypizaci nebo vyhodnocování až po použití po schválení; vzhledem k tomu, že v budoucnu mohou vzniknout nové možnosti využití, neboť technologie se díky probíhajícímu vědeckému výzkumu na celém světě zkvalitňují; |
J. |
vzhledem k tomu, že je zcela nezbytný jasný model přidělování právní odpovědnosti za potenciální škodlivé dopady systémů umělé inteligence v trestním právu; vzhledem k tomu, že regulační předpisy v této oblasti by měly vždy zachovávat lidskou odpovědnost a jejich cílem musí být především zamezit škodlivým účinkům; |
K. |
vzhledem k tomu, že v konečném důsledku je odpovědností členských států zajistit plné dodržování základních práv při používání systémů umělé inteligence v oblasti prosazování práva a v soudnictví; |
L. |
vzhledem k tomu, že vztah mezi ochranou základních práv a účinnými policejními operacemi musí být vždy základním prvkem diskusí o tom, zda a jak by umělá inteligence měla být využívána v oblasti prosazování práva, kde mohou mít rozhodnutí dlouhodobé důsledky pro život a svobodu jednotlivců; vzhledem k tomu, že je zejména důležité, že umělá inteligence má potenciál být trvalou součástí našeho prostředí trestního soudnictví tím, že bude poskytovat vyšetřovací analýzy a pomoc; |
M. |
vzhledem k tomu, že umělá inteligence se používaná při prosazování práva v aplikacích, jež zahrnují například technologie rozpoznávání obličeje – např. při prohledávání databází podezřelých osob a při identifikaci obětí obchodování s lidmi či sexuální vykořisťování a zneužívání dětí –, automatické rozpoznávání registračních značek, identifikaci mluvčího, rozpoznávání řeči, technologie odezírání ze rtů, odposlouchávání (např. algoritmy pro detekci výstřelu), nezávislý výzkum a analýzy identifikovaných databází, předpověď (prediktivní policejní a kriminální analýzy přístupového bodu), nástroje pro detekci chování, pokročilé virtuální nástroje pitvy pro pomoc při zjišťování příčiny smrti, nezávislé nástroje k odhalování finančního podvodu a financování terorismu, sledování sociálních médií (získávání a shromažďování údajů pro jejich vytěžování při spojování) a automatizované systémy sledování, které zahrnují různé rozpoznávací schopnosti (jako např. rozpoznání srdečního rytmu a termovizní kamery); vzhledem k tomu, že výše zmíněné aplikace mohou mít spolu s dalšími potenciálními nebo budoucími aplikacemi technologie umělé inteligence v oblasti prosazování práva značně rozdílné stupně spolehlivosti a přesnosti a dopad na ochranu základních práv a dynamiku systémů trestního soudnictví; vzhledem k tomu, že mnoho z těchto nástrojů je využíváno ve zemích mimo EU, ale podle acquis a judikatury Unie v oblasti ochrany údajů by byly nezákonné; vzhledem k tomu, že rutinní používání algoritmů, a to i s malou mírou falešné pozitivity, může vést k chybným varováním tím, že bude výrazně přesahovat počet správných varování; |
N. |
vzhledem k tomu, že nástroje umělé inteligence využívá rovněž soudnictví v některých zemích po celém světě při podpoře rozhodnutí o vazbě, při udělování trestů, vypočítávání pravděpodobností opakování trestného činu a při udělování probace, řešení sporů on-line, správu judikatury a poskytování zjednodušeného přístupu k právu; vzhledem k tomu, že to vedlo k narušení a omezení množství příležitostí pro osoby jiné barvy pleti a jiné menšiny; vzhledem k tomu, že v současné době je v Evropské unii, s výjimkou několika členských států, jejich použití omezeno hlavně na občanskoprávní sféru; |
O. |
vzhledem k tomu, že používání umělé inteligence představuje při prosazování práva řadu potenciálně vysokých a v některých případech nepřijatelných rizik, jako jsou neprůhledné rozhodování, různé druhy diskriminace a chyby vlastní základnímu algoritmu, které mohou být posilovány cyklickou zpětnou vazbou, jakož i rizika spojená s ochranou soukromí a osobních údajů, ochrana svobody projevu a informací a presumpce neviny, právo na účinnou nápravu a spravedlivý proces i veškerá rizika pro svobodu a bezpečnost jednotlivců; |
P. |
vzhledem k tomu, že systémy umělé inteligence při prosazování práva a v soudnictví jsou ohroženy útoky, které se jich mohou zmocnit, útoky proti informačním systémům nebo ovlivněním dat („data poisoning“), kdy je vnesen chybný soubor dat za účelem dosažení zkreslených výsledků; vzhledem k tomu, že v těchto situacích jsou potenciální výsledné škody ještě závažnější a mohou vyústit v exponenciálně větší míru poškození jednotlivců i skupin; |
Q. |
vzhledem k tomu, že zavádění umělé inteligence v oblasti vymáhání práva a soudnictví by nemělo být považováno za pouze otázku technické proveditelnosti, ale spíše za politické rozhodnutí týkající se navrhování a cílů systémů vymáhání práva a systémů trestního soudnictví; vzhledem k tomu, že moderní trestní právo je založeno na myšlence, že orgány reagují na trestný čin teprve po jeho spáchání, bez předpokladu, že všichni lidé jsou nebezpeční a musí být neustále monitorováni, aby se zabránilo možnému protiprávnímu jednání; vzhledem k tomu, že techniky dohledu založené na umělé inteligenci tento přístup hluboce zpochybňují a je naléhavě nutné, aby zákonodárci na celém světě důkladně posoudili důsledky povolení nasazení technologií, které snižují úlohu člověka při prosazování práva a soudnictví; |
1. |
znovu opakuje, že vzhledem k tomu, že jádrem umělé inteligence je zpracovávání velkého množství údajů, platí pro všechny oblasti umělé inteligence právo na soukromý život a ochranu osobních údajů a nutnost plně dodržovat právní rámec Unie na ochranu údajů a soukromí; připomíná proto, že EU již zavedla normy pro ochranu údajů pro prosazování práva, které tvoří základ jakékoli budoucí regulace umělé inteligence pro prosazování práva a soudnictví; připomíná, že zpracování osobních údajů by mělo být zákonné a korektní, účely zpracování by měly být konkrétní, výslovné a legitimní, zpracování by mělo být přiměřené, relevantní a ne nadměrné vzhledem k účelu, pro který jsou údaje zpracovávány, mělo by být přesné, aktualizované a nepřesné údaje by měly být, pokud neplatí omezení, opraveny nebo vymazány, údaje by neměly být uchovávány déle, než je nezbytné, měly by být stanoveny jasné a vhodné lhůty pro výmaz nebo pro pravidelný přezkum potřeby uchovávání těchto údajů a měly by být zpracovávány bezpečným způsobem; zdůrazňuje také, že by se mělo zabránit možné identifikaci osob aplikací umělé inteligence využívající údaje, jež byly předtím anonymizovány; |
2. |
znovu potvrzuje, že všechna řešení umělé inteligence pro prosazování práva a soudnictví musí rovněž plně respektovat zásady lidské důstojnosti, nediskriminace, svobody pohybu, presumpce neviny a práva na obhajobu včetně práva nevypovídat, svobody projevu a informací, svobody shromažďování a sdružování, rovnosti před zákonem, zásady rovnosti prostředků a práva na účinnou právní ochranu a na spravedlivý proces v souladu s Listinou a Evropskou úmluvou o lidských právech; zdůrazňuje, že používání aplikací umělé inteligence musí být zakázáno, pokud je neslučitelné se základními právy; |
3. |
uznává, že rychlost, s jakou jsou na celém světě vyvíjeny aplikace umělé inteligence, neumožňuje vyčerpávající výčet aplikací, a proto je s ohledem na neustálý vývoj technologií nutný jasný a soudržný model správy, který zaručí jak základní práva jednotlivců, tak právní jasnost pro vývojáře; domnívá se však, že vzhledem k úloze a odpovědnosti policejních a soudních orgánů a dopadu rozhodnutí, která přijímají za účelem prevence, vyšetřování, odhalování nebo stíhání trestných činů nebo výkonu trestů, musí být používání aplikací umělé inteligence klasifikováno jako vysoce rizikové v případech, kdy může významně ovlivnit životy jednotlivců; |
4. |
v tomto ohledu se domnívá, že jakékoli nástroje umělé inteligence, které jsou vyvinuty nebo použity při prosazování práva nebo v soudnictví, by měly být přinejmenším bezpečné, robustní, zabezpečené a vhodné pro daný účel, měly by dodržovat zásady spravedlnosti, minimalizace údajů, odpovědnosti, transparentnosti, nediskriminace a vysvětlitelnosti a že jejich vývoj, zavedení a používání by měly procházet posouzením rizik a měl by se na ně vztahovat přísný test nezbytnosti a přiměřenosti, kde záruky by měly být přiměřené zjištěným rizikům; zdůrazňuje, že důvěra občanů v používání umělé inteligence vyvinuté, zaváděné a používané v EU je podmíněna úplným splněním těchto kritérií; |
5. |
uznává pozitivní přínos některých typů aplikací umělé inteligence pro práci orgánů prosazování práva a soudních orgánů v celé Unii; zdůrazňuje např. posílenou správu judikatury prostřednictvím nástrojů umožňujících dodatečné možnosti vyhledávání; domnívá se, že existuje celá řada dalších možných využití umělé inteligence v oblasti prosazování práva a soudnictví, která by mohla být prozkoumána s přihlédnutím k pěti zásadám Etické charty o využívání umělé inteligence v soudních systémech a jejich prostředí, kterou přijala CEPEJ, a se zvláštním zřetelem na „využití, která je třeba zvažovat s největšími výhradami“, jež CEPEJ určila; |
6. |
zdůrazňuje, že technologie mohou být přesměrovány na jiný účel, a požaduje proto přísnou demokratickou kontrolu a nezávislý dohled nad jakoukoli technologií založenou na umělé inteligenci, kterou používají orgány prosazování práva a soudní orgány, zejména pokud jde o technologie, jež lze použít pro hromadné sledování nebo hromadné profilování; s velkým znepokojením sleduje potenciál některých technologií umělé inteligence pro účely hromadného sledování v oblasti prosazování práva; zdůrazňuje právní požadavek zabránit masovému sledování pomocí technologií umělé inteligence, které z definice nesplňuje zásady nezbytnosti a přiměřenosti, a zakázat používání aplikací, které by k němu mohly vést; |
7. |
zdůrazňuje, že přístup některých nečlenských zemí EU k vývoji, zavádění a používání technologií hromadného sledování nepřiměřeně zasahuje do základních práv, a proto by jej EU neměla následovat; zdůrazňuje proto, že záruky proti zneužívání technologie umělé inteligence ze strany orgánů prosazování práva a soudních orgánů musí být regulovány jednotně v celé Unii; |
8. |
zdůrazňuje, že při používání aplikací umělé inteligence, jako je strojové učení, včetně algoritmů, na nichž jsou takové aplikace založeny, může docházet k systematické předpojatosti a diskriminaci; poznamenává, že chyby mohou být spjaty se základními soubory dat, a to zejména při používání historických údajů, které zavádějí vývojáři algoritmů, nebo se vytváří při zavedení systémů do skutečného světa; poukazuje na to, že výsledky poskytované aplikacemi umělé inteligence jsou nutně ovlivněny kvalitou použitých údajů a že tato přirozená předpojatost má tendenci postupně narůstat, a tím udržovat a zesilovat stávající diskriminaci, zejména u osob patřících k určitým etnickým skupinám nebo rasovým komunitám; |
9. |
zdůrazňuje skutečnost, že mnohé v současnosti používané algoritmicky řízené identifikační technologie neúměrně zkreslují a nesprávně klasifikují, a tím poškozují rasově odlišné osoby, osoby patřící k určitým etnickým komunitám, osoby LGBTI, děti a starší osoby, jakož i ženy; připomíná, že jednotlivci mají nejen právo být správně identifikováni, ale mají také právo nebýt identifikováni vůbec, pokud to právní předpisy nevyžadují z důvodu naléhavých a oprávněných veřejných zájmů; zdůrazňuje, že předpovědi umělé inteligence založené na charakteristikách konkrétní skupiny osob vedou k posilování a opakování stávajících forem diskriminace; domnívá se, že je třeba vyvinout značné úsilí, aby se zabránilo automatizované diskriminaci a předpojatosti; vyzývá k zavedení přísných dodatečných záruk v případě, že jsou systémy umělé inteligence v oblasti prosazování práva nebo v soudnictví užívány vůči nezletilým osobám nebo ve vztahu k nim; |
10. |
zdůrazňuje asymetrii moci mezi těmi, kteří „zaměstnávají“ technologie umělé inteligence, a těmi, kteří jsou jim vystaveni; zdůrazňuje, že je nezbytné, aby se využívání umělé inteligence policejními a soudními orgány v trestních věcech nestalo faktorem nerovnosti, sociálního rozkolu nebo vyloučení; zdůrazňuje dopad používání nástrojů umělé inteligence na práva podezřelých osob na obhajobu, obtíže při získávání smysluplných informací o fungování těchto nástrojů a následné obtíže při napadání jejich výsledků u soudu, zejména ze strany vyšetřovaných osob; |
11. |
bere na vědomí rizika spojená zejména s únikem údajů, narušením bezpečnosti údajů a neoprávněným přístupem k osobním údajům a dalším informacím souvisejícím například s trestním vyšetřováním nebo soudními případy, které zpracovávají systémy umělé inteligence; zdůrazňuje, že je třeba pečlivě zvážit hlediska ochrany a bezpečnosti systémů umělé inteligence, které se používají při prosazování práva a v soudnictví, a že tyto systémy musí být dostatečně silné a odolné, aby se v případě zlovolných útoků na tyto systémy zabránilo potenciálním katastrofickým důsledkům; zdůrazňuje význam bezpečnosti již od návrhu, jakož i zvláštního lidského dohledu před provozem některých kritických aplikací, a proto vyzývá orgány prosazování práva a soudní orgány, aby používaly pouze aplikace umělé inteligence, které dodržují zásadu ochrany soukromí a údajů již od návrhu, aby se zabránilo plíživému vývoji funkcí; |
12. |
zdůrazňuje, že žádný systém umělé inteligence používaný při prosazování práva nebo v soudnictví by neměl mít možnost poškodit fyzickou integritu lidských bytostí ani rozdělovat práva nebo ukládat jednotlivcům právní povinnosti; |
13. |
uznává, že vzhledem ke složitosti vývoje a provozu systémů umělé inteligence je třeba správně vymezit právní odpovědnost a ručení za případné škody; považuje za nezbytné vytvořit jasný a spravedlivý režim pro přidělování právní odpovědnosti a ručení za potenciální nepříznivé důsledky těchto vyspělých digitálních technologií; zdůrazňuje však, že prvořadým cílem musí být zabránit tomu, aby se tyto důsledky vůbec projevily; vyzývá k důslednému uplatňování zásady předběžné opatrnosti u všech aplikací umělé inteligence v souvislosti s prosazováním práva; zdůrazňuje, že právní odpovědnost a ručení musí vždy nést fyzická nebo právnická osoba, která musí být vždy identifikována za rozhodnutí přijatá s podporou UI; zdůrazňuje proto, že je třeba zajistit transparentnost podnikových struktur, které vytvářejí a spravují systémy umělé inteligence; |
14. |
domnívá se, že pro zajištění účinnosti uplatňování práv na obhajobu a transparentnosti vnitrostátních systémů trestního soudnictví je nezbytné, aby podmínky, způsoby a důsledky používání nástrojů umělé inteligence v oblasti prosazování práva a soudnictví, jakož i práva dotčených osob, a postupy pro účinné a dostupné možnosti domoci se nápravy, a to i u soudu, reguloval konkrétní, jasný a přesný právní rámec; zdůrazňuje právo stran trestního řízení na přístup ke shromažďování údajů a souvisejícím posouzením prováděným nebo získaným prostřednictvím aplikací umělé inteligence; zdůrazňuje, že je nutné, aby vykonávající orgány zapojené do justiční spolupráce při rozhodování o žádosti o vydání (nebo předání) do jiného členského státu nebo země mimo EU posoudily, zda by použití nástrojů umělé inteligence v žádající zemi nemohlo prokazatelně ohrozit základní právo na spravedlivý proces; vyzývá Komisi, aby vydala pokyny, jak takové posouzení v souvislosti s justiční spoluprací v trestních věcech provádět; trvá na tom, že členské státy by měly v souladu s platnými právními předpisy zajistit, aby jednotlivci byli o skutečnosti, že jsou v jejich případě ze strany donucovacích orgánů nebo soudů uplatňovány aplikace umělé inteligence, informováni; |
15. |
poukazuje na to, že pokud se lidé budou spoléhat pouze na údaje, profily a doporučení vytvořená stroji, nebudou schopni provést nezávislé posouzení; zdůrazňuje potenciálně závažné nepříznivé důsledky, zejména v oblasti prosazování práva a spravedlnosti, kdy jednotlivci mají přílišnou důvěru ve zdánlivě objektivní a vědeckou povahu nástrojů umělé inteligence a nezvažují možnost, že jejich výsledky jsou nesprávné, neúplné, irelevantní nebo diskriminační; upozorňuje, že se na výsledky systémů umělé inteligence nesmíme příliš spoléhat, a zdůrazňuje, že veřejné orgány si musí vybudovat důvěru a znalosti, aby mohly algoritmická doporučení zpochybňovat nebo zvrátit; domnívá se, že je důležité mít ohledně těchto technologických řešení realistická očekávání a neslibovat v oblasti prosazování práva dokonalá řešení a odhalení všech spáchaných trestných činů; |
16. |
zdůrazňuje, že v kontextu soudnictví a prosazování práva musí každé rozhodnutí s právním nebo podobným účinkem vždy učinit člověk, který za ně může nést odpovědnost; domnívá se, že ti, kteří jsou podrobeni systému založenému na umělé inteligenci, musí mít přístup k opravným prostředkům; připomíná, že podle právních předpisů EU má osoba právo nebýt předmětem rozhodnutí, které pro ni má právní účinky nebo se jí významně dotýká a které je založeno výhradně na automatizovaném zpracování údajů; zdůrazňuje rovněž, že automatizované individuální rozhodování nesmí být založeno na zvláštních kategoriích osobních údajů, pokud nejsou k dispozici vhodná opatření pro zajištění práv a svobod a oprávněných zájmů subjektu údajů; zdůrazňuje, že právní předpisy EU zakazují profilování, které vede k diskriminaci fyzických osob na základě zvláštních kategorií osobních údajů; zdůrazňuje, že rozhodnutí v oblasti prosazování práva jsou téměř vždy rozhodnutími, která mají vzhledem k výkonné povaze donucovacích orgánů a jejich kroků pro dotčenou osobu právní účinek; konstatuje, že používání umělé inteligence může ovlivnit lidská rozhodnutí a mít dopad na všechny fáze trestního řízení; domnívá se proto, že orgány využívající systémy umělé inteligence musí dodržovat mimořádně vysoké právní standardy a zajistit lidský zásah, zejména při analýze údajů získaných z těchto systémů; proto trvá na tom, že je třeba zachovat svrchovanou diskreční pravomoc soudců a rozhodování případ od případu; požaduje zákaz používání umělé inteligence a souvisejících technologií pro navrhování soudních rozhodnutí; |
17. |
požaduje vysvětlitelnost algoritmů, transparentnost, sledovatelnost a ověřitelnost jako nedílnou součást dohledu, aby bylo zajištěno, že vývoj, zavádění a používání systémů umělé inteligence v rámci soudnictví a prosazování práva jsou v souladu se základními právy, že jim občané důvěřují, že výsledky získané z algoritmů umělé inteligence jsou srozumitelné pro uživatele a pro ty, na něž se vztahují, a že existuje transparentnost ve zdrojových údajích a v tom, jak systém dospěl ke konkrétním závěrům; zdůrazňuje, že v zájmu zajištění technické transparentnosti, robustnosti a přesnosti by měly být donucovacími nebo soudními orgány v Unii pořizovány pouze takové nástroje a systémy, jejichž algoritmy a logiku lze kontrolovat alespoň ze strany policie a soudnictví a ze strany nezávislých auditorů, aby bylo možné je hodnotit, kontrolovat a prověřovat, a trvá na tom, že nesmí být prodejcem uzavřeny nebo označeny za chráněné; dále poukazuje na to, že dokumentace by měla jasným a srozumitelným jazykem poskytovat informace o povaze služby, vyvinutých nástrojích, výkonnosti a podmínkách, za nichž lze očekávat, že tyto nástroje budou fungovat, a o rizicích, která mohou způsobit; vyzývá proto soudní a donucovací orgány, aby zajistily aktivní, plnou transparentnost vůči soukromým společnostem, které jim systémy umělé inteligence pro účely prosazování práva a soudnictví poskytují; doporučuje proto, aby byl pokud možno používán software s otevřeným zdrojovým kódem; |
18. |
vybízí donucovací a soudní orgány, aby určily a posoudily oblasti, v nichž by některá individuálně uzpůsobená řešení umělé inteligence mohla být přínosná, a aby si vyměňovaly osvědčené postupy týkající se zavádění umělé inteligence; vyzývá členské státy a agentury EU, aby přijaly vhodné postupy zadávání veřejných zakázek na systémy umělé inteligence používané v oblasti prosazování práva nebo soudnictví s cílem zajistit jejich soulad se základními právy a platnými právními předpisy, včetně zajištění toho, aby softwarová dokumentace a algoritmy byly dostupné a přístupné příslušným orgánům a orgánům dohledu za účelem přezkumu; vyzývá zejména k přijetí závazných pravidel vyžadujících zveřejňování informací o partnerstvích veřejného a soukromého sektoru, smlouvách a zakázkách a o účelu, pro který jsou dané systémy pořizovány; zdůrazňuje, že je třeba poskytnout orgánům potřebné finanční prostředky a vybavit je náležitými odbornými znalostmi, aby bylo zaručeno plné dodržování etických, právních a technických požadavků spojených se zaváděním umělé inteligence; |
19. |
požaduje sledovatelnost systémů umělé inteligence a rozhodovacího procesu, jež vymezuje jejich schopnosti a hranice a prostřednictvím povinné dokumentace eviduje, odkud pocházejí rozhodující atributy rozhodnutí; zdůrazňuje, že je důležité uchovávat úplnou dokumentaci školicích údajů, jejich kontext, účel, přesnost a vedlejší účinky, jakož i jejich zpracování tvůrci a vývojáři algoritmů a jejich soulad se základními právy; zdůrazňuje, že musí být vždy možné omezit výpočty systému umělé inteligence na formu, která je pro člověka srozumitelná; |
20. |
žádá, aby bylo před zavedením nebo použitím jakéhokoli systému umělé inteligence při prosazování práva a v soudnictví povinně provedeno posouzení dopadů na základní práva, aby bylo možné odhadnout potenciální rizika; připomíná povinnost předchozího posouzení dopadu na ochranu údajů u všech druhů zpracování, zejména při použití nových technologií, u nichž lze předpokládat, že vyvolají vysoké riziko pro práva a svobody fyzických osob, a zastává názor, že to je případ všech technologií umělé inteligence v oblasti prosazování práva a soudnictví; zdůrazňuje význam odborných znalostí orgánů pro ochranu údajů a agentur pro základní práva pro hodnocení těchto systémů; zdůrazňuje, že tato posouzení dopadu na základní práva by měla být prováděna co nejotevřeněji a za aktivní účasti občanské společnosti; požaduje, aby posouzení dopadu rovněž jasně definovala ochranná opatření nezbytná k odstranění zjištěných rizik a aby byla v co největší možné míře zveřejněna ještě před zavedením jakéhokoli systému umělé inteligence; |
21. |
zdůrazňuje, že pouze spolehlivá evropská správa umělé inteligence s nezávislým hodnocením umožňuje nezbytnou funkčnost zásad základních práv; vyzývá k pravidelnému povinnému kontrolování všech systémů umělé inteligence, které se využívají při prosazování práva a v soudnictví a mohou mít významný dopad na život jednotlivců, nezávislým orgánem, aby se, jakmile jsou v provozu, testovaly a hodnotily algoritmické systémy, jejich kontext, účel, přesnost, výkonnost a rozsah, s cílem odhalit, prošetřit, diagnostikovat a napravit jakékoli nežádoucí a nepříznivé účinky a zajistit, aby systémy umělé inteligence fungovaly zamýšleným způsobem; vyzývá proto k vytvoření jasného institucionálního rámce pro tento účel, včetně řádného regulačního a dohledového rámce, s cílem zajistit plné provádění a zaručit plně informovanou demokratickou diskusi o nezbytnosti a přiměřenosti umělé inteligence v oblasti trestního soudnictví; zdůrazňuje, že výsledky těchto auditů by měly být zpřístupněny ve veřejných rejstřících, aby občané věděli, že jsou systémy umělé inteligence zavedeny a jaká opatření jsou přijímána pro nápravu porušování základních práv; |
22. |
zdůrazňuje, že datové soubory a algoritmické systémy používané při klasifikaci, posuzování a předpovídání v různých fázích zpracování údajů při vývoji umělé inteligence a souvisejících technologií mohou rovněž vést k rozdílnému zacházení se skupinami osob a jejich přímé a nepřímé diskriminaci, zejména z toho důvodu, že údaje používané pro učení prediktivních policejních algoritmů odrážejí priority probíhajícího dohledu a v konečném důsledku mohou vést k opakování a posilování stávajících předsudků; proto zdůrazňuje, že technologie umělé inteligence, zejména jsou-li využívány v oblasti prosazování práva a soudnictví, vyžadují mezioborový výzkum a vstupy, včetně vědeckých a technologických studií, kritických rasových studií nebo studií zaměřených na zdravotní postižení a dalších oborů ze sociální oblasti, mimo jiné ohledně toho, jak jsou vytvářeny rozdíly, jak probíhá klasifikační práce a jaké jsou její důsledky; zdůrazňuje proto, že je třeba systematicky investovat do začlenění těchto oborů do studie a výzkumu umělé inteligence na všech úrovních; zdůrazňuje rovněž, že je třeba zajistit, aby týmy, které tyto systémy navrhují, vyvíjejí, testují, udržují, zavádějí a pořizují pro účely prosazování práva a soudnictví, pokud možno zohledňovaly rozmanitost společnosti obecně jakožto netechnický prostředek ke snížení rizika diskriminace; |
23. |
mimoto zdůrazňuje, že náležitá odpovědnost vyžaduje značnou specializovanou odbornou přípravu týkající se etických ustanovení, možných nebezpečí, omezení a řádného používání technologií umělé inteligence, zejména u policejních a soudních zaměstnanců; zdůrazňuje, že by mělo být na základě odborného vzdělání a kvalifikace zajištěno, aby byly osoby přijímající rozhodnutí vyškoleny v otázkách případného zkreslení, neboť soubory dat mohou být založeny na diskriminačních a předpojatých údajích; podporuje zavádění osvětových a vzdělávacích iniciativ s cílem zajistit, aby jednotlivci pracující v oblasti prosazování práva a soudnictví měli povědomí a znalosti o omezeních, schopnostech a rizicích, která s sebou používání systémů umělé inteligence nese, včetně rizika automatizace; připomíná, že zahrnutí případů rasismu ze strany policejních sil při plnění jejich povinností do souborů údajů o umělé inteligenci nevyhnutelně povede k rasistické předpojatosti zjištění, hodnocení a doporučení vytvořených umělou inteligencí; znovu proto vyzývá členské státy, aby podporovaly antidiskriminační politiky a vypracovaly národní akční plány proti rasismu v oblasti policejní práce a soudního systému; |
24. |
konstatuje, že v oblasti prosazování práva se v rámci aplikací umělé inteligence používají prediktivní policejní algoritmy, avšak varuje, že ačkoli mohou být v rámci prediktivního policejního dohledu analyzovány soubory údajů nezbytné pro identifikaci vzorců a korelací, nelze tím zodpovědět otázku příčinné souvislosti a nelze tím spolehlivě předvídat chování jednotlivce, a tato praxe tudíž nemůže být jediným důvodem pro zásah; poukazuje na to, že některá města ve Spojených státech používání prediktivních policejních systémů po provedení auditů ukončila; připomíná, že během pracovní cesty výboru LIBE do Spojených států v únoru 2020 byli jeho členové informováni policejními odděleními New York City a Cambridge (Massachusetts) o tom, že v důsledku nedostatečné účinnosti, diskriminačního dopadu a neúspěšnosti v praxi postupně ukončila své programy prediktivního policejního dohledu a místo toho se přiklonila ke komunitní činnosti; konstatuje, že to vedlo ke snížení míry trestné činnosti; staví se tedy proti tomu, aby donucovací orgány využívaly umělou inteligenci k předvídání chování jednotlivců nebo skupin na základě historických údajů a dosavadního chování, členství ve skupině, umístění nebo jakýchkoliv jiných podobných charakteristik, za účelem identifikace osob, které by mohly spáchat trestný čin; |
25. |
bere na vědomí různé způsoby rozpoznávání obličeje, jako je mimo jiné ověřování (tj. porovnání živého obličeje s fotografií v dokladu totožnosti, např. v případě inteligentních hranic), identifikace (tj. porovnání fotografie se sadou fotografií v databázi) a ztotožňování (tj. ztotožňování obličeje v reálném čase ze zdrojů, jako jsou kamerové záznamy, a jejich porovnání s databázemi, např. sledování v reálném čase), z nichž každý má dopady na ochranu základních práv; je pevně přesvědčen, že zavádění systémů rozpoznávání obličeje v oblasti prosazování práva by mělo být omezeno na jasně odůvodněné účely, a to při plném dodržování platných právních předpisů; znovu potvrzuje, že používání technologie rozpoznávání obličeje musí splňovat přinejmenším požadavky na minimalizaci údajů, přesnost údajů, omezení uchovávání údajů, bezpečnost údajů a odpovědnost a že musí být zákonné, spravedlivé a transparentní a sledovat konkrétní, jasně vyjádřený a legitimní účel, který je jednoznačně vymezen v právních předpisech členských států nebo Unie; zastává názor, že systémy ověřování mohou být nadále zaváděny a úspěšně používány pouze tehdy, pokud lze omezit jejich negativní účinky a splnit výše uvedená kritéria; |
26. |
dále vyzývá k trvalému zákazu používání automatizované analýzy a rozpoznávání jiných lidských prvků ve veřejně přístupných prostorách, jako jsou chůze, otisky prstů, DNA, hlas a další biometrické a behaviorální signály; |
27. |
žádá však o moratorium na zavádění systémů rozpoznávání obličeje pro účely prosazování práva, jež mají identifikační funkci, pokud nejsou využívány výhradně k identifikaci obětí trestných činů, dokud nebude možné považovat technické normy za plně souladné se základními právy, získané výsledky budou nezkreslené a nediskriminační, právní rámec bude poskytovat striktní záruky proti zneužití a důslednou demokratickou kontrolu a dohled a bude empiricky prokázána nezbytnost a zajištěna proporcionalita zavádění takových technologií; konstatuje, že pokud výše uvedená kritéria nejsou splněna, systémy by neměly být používány ani zaváděny; |
28. |
vyjadřuje hluboké znepokojení nad tím, že donucovací orgány a zpravodajské služby používají soukromé databáze rozpoznávání obličeje, jako je aplikace umělé inteligence ClearView, která obsahuje více než tři miliardy snímků, jež byly nezákonně získány ze sociálních sítí a dalších částí internetu, a to i od občanů EU; vyzývá členské státy, aby donucovacím orgánům uložily povinnost zveřejnit informace o tom, zda používají technologii ClearView nebo obdobné technologie od jiných poskytovatelů; připomíná stanovisko Evropského sboru pro ochranu údajů (EDPB), že využívání služby, jako je aplikace ClearView, donucovacími orgány v Evropské unii by „pravděpodobně nebylo v souladu s režimem ochrany údajů EU“; požaduje zákaz používání soukromých databází pro rozpoznávání obličeje při vymáhání práva; |
29. |
bere na vědomí studii proveditelnosti Komise o možných změnách prümského rozhodnutí (8), mimo jiné pokud jde o snímky obličeje; bere na vědomí dřívější výzkum, že ve forenzním kontextu by nebyly potenciální nové identifikátory, např. rozpoznávání duhovky či obličeje, tak spolehlivé, jako je DNA nebo otisky prstů; připomíná Komisi, že každý legislativní návrh musí být založen na důkazech a musí respektovat zásadu přiměřenosti; naléhavě vyzývá Komisi, aby rozšířila rámec prümského rozhodnutí až po provedení úplného posouzení dopadů a po zohlednění doporučení Evropského inspektora ochrany údajů (EDPS) a Evropského sboru pro ochranu údajů, a to pouze v případě, že budou existovat pádné vědecké důkazy o spolehlivosti rozpoznávání obličeje ve forenzním kontextu ve srovnání s DNA nebo s otisky prstů; |
30. |
zdůrazňuje, že používání biometrických údajů obecněji souvisí se zásadou práva na lidskou důstojnost, která je základem všech základních práv zaručených Listinou; domnívá se, že používání a sběr biometrických údajů pro účely identifikace na dálku, například prostřednictvím rozpoznávání obličeje na veřejných místech a při automatických hraničních kontrolách uplatňovaných na letištích, může představovat zvláštní riziko pro základní práva, jehož důsledky by se mohly výrazně lišit v závislosti na účelu, kontextu a rozsahu použití; dále zdůrazňuje spornou vědeckou platnost technologií rozpoznávání, jako jsou kamery, které snímají pohyby očí a změny velikosti zorniček, v rámci prosazování práva; zastává názor, že používání biometrické identifikace v kontextu prosazování práva a soudnictví by mělo být vždy považováno za „vysoké riziko“, a proto by mělo podléhat dalším požadavkům, jak doporučuje odborná skupina Komise na vysoké úrovni pro umělou inteligenci; |
31. |
vyjadřuje hluboké znepokojení nad výzkumnými projekty financovanými v rámci programu Horizont 2020, které využívají umělou inteligenci na vnějších hranicích, jako je projekt iBorderCtrl, „inteligentní systém detekce lži“ profilující cestující na základě automatizovaného počítačového pohovoru uskutečněného přes webovou kameru cestujícího před uskutečněním cesty, a analýza 38 mikrogest založená na umělé identifikaci, která je testována v Maďarsku, Lotyšsku a Řecku; vyzývá proto Komisi, aby prostřednictvím legislativních a nelegislativních prostředků a v případě potřeby prostřednictvím řízení pro porušení povinnosti zavedla zákaz veškerého zpracovávání biometrických údajů, včetně snímků obličeje, pro účely vymáhání práva, jež vede k hromadnému sledování ve veřejně přístupných prostorách; dále vyzývá Komisi, aby přestala financovat biometrický výzkum nebo zavádění programů, jež by mohly vést k nerozlišujícímu hromadnému sledování ve veřejných prostorách; v této souvislosti zdůrazňuje, že je třeba věnovat zvláštní pozornost používání dronů v policejních operacích a uplatňovat v této oblasti přísný rámec; |
32. |
podporuje doporučení odborné skupiny Komise na vysoké úrovni pro umělou inteligenci, která se vyslovila pro zákaz hromadného posuzování jednotlivců na základě technologií umělé inteligence; domnívá se, že rozsáhlé normativní posuzování občanů ze strany veřejných orgánů v jakékoli podobě, zejména v oblasti prosazování práva a soudnictví, vede ke ztrátě nezávislosti, ohrožuje zásadu nediskriminace a nelze je považovat za slučitelné se základními právy, zejména s lidskou důstojností, zakotvenými v právních předpisech EU; |
33. |
vyzývá k celkově větší transparentnosti s cílem dosáhnout komplexního pochopení používání aplikací umělé inteligence v Unii; žádá členské státy, aby poskytly kompletní informace o nástrojích, jež využívají jejich donucovací a soudní orgány, druzích využívaných nástrojů, účelech, k nimž jsou využívány, typech trestné činnosti, pro něž jsou využívány, a názvy společností nebo organizací, které tyto nástroje vyvinuly; vyzývá donucovací a soudní orgány, aby rovněž informovaly veřejnost a zajistily dostatečnou transparentnost, pokud jde o používání umělé inteligence a souvisejících technologií při výkonu jejich pravomocí, včetně zveřejňování míry falešné pozitivity a falešné negativity těchto technologií; požaduje, aby Komise shromažďovala a aktualizovala informace na jednom místě; vyzývá Komisi, aby rovněž zveřejňovala a aktualizovala informace o používání umělé inteligence agenturami Unie pověřenými prosazováním práva a justičními úkoly; vyzývá Evropský sbor pro ochranu osobních údajů, aby posoudil zákonnost těchto technologií a aplikací umělé inteligence používaných donucovacími a soudními orgány; |
34. |
připomíná, že aplikace umělé inteligence, včetně aplikací používaných v souvislosti s prosazováním práva a soudnictvím, jsou na celém světě vyvíjeny velmi rychle; naléhavě vyzývá všechny evropské zainteresované strany, včetně členských států a Komise, aby prostřednictvím mezinárodní spolupráce zajistily zapojení partnerů mimo EU s cílem zvýšit standardy na mezinárodní úrovni a nalézt společný doplňkový právní a etický rámec pro využívání umělé inteligence, zejména v kontextu prosazování práva a soudnictví, který bude v plném rozsahu respektovat Listinu, evropské acquis v oblasti ochrany údajů a lidská práva; |
35. |
vyzývá Agenturu EU pro základní práva, aby ve spolupráci s Evropským sborem pro ochranu osobních údajů a evropským inspektorem ochrany údajů vypracovala komplexní pokyny, doporučení a osvědčené postupy s cílem dále upřesnit kritéria a podmínky pro vývoj, používání a zavádění aplikací a řešení umělé inteligence pro účely prosazování práva a soudnictví; zavazuje se, že vypracuje studii o provádění směrnice o prosazování práva (9) s cílem určit, jak je při zpracovávání údajů donucovacími a soudními orgány zajištěna ochrana osobních údajů, zejména při vývoji nebo zavádění nových technologií; dále vyzývá Komisi, aby zvážila, zda jsou zapotřebí konkrétní legislativní opatření týkající se dalšího vymezení kritérií a podmínek pro vývoj, používání a zavádění aplikací a řešení umělé inteligence donucovacími a soudními orgány; |
36. |
pověřuje svého předsedu, aby předal toto usnesení Radě a Komisi. |
(1) Úř. věst. L 119, 4.5.2016, s. 1.
(2) Úř. věst. L 119, 4.5.2016, s. 89.
(3) Úř. věst. L 295, 21.11.2018, s. 39.
(4) Úř. věst. L 201, 31.7.2002, s. 37.
(5) Úř. věst. L 135, 24.5.2016, s. 53.
(6) Úř. věst. C 362, 8.9.2021, s. 63.
(7) Úř. věst. C 263, 25.7.2018, s. 82.
(8) Rozhodnutí Rady 2008/615/SVV ze dne 23. června 2008 o posílení přeshraniční spolupráce, zejména v boji proti terorismu a přeshraniční trestné činnosti (Úř. věst. L 210, 6.8.2008, s. 1).
(9) Směrnice Evropského parlamentu a Rady (EU) 2016/680 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů příslušnými orgány za účelem prevence, vyšetřování, odhalování či stíhání trestných činů nebo výkonu trestů, o volném pohybu těchto údajů a o zrušení rámcového rozhodnutí Rady 2008/977/SVV (Úř. věst. L 119, 4.5.2016, s. 89).