Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52021IP0405

    Euroopan parlamentin päätöslauselma 6. lokakuuta 2021 tekoälystä rikosoikeudessa ja sen käytöstä poliisi- ja oikeusviranomaisten suorittamassa rikosasioiden käsittelyssä (2020/2016(INI))

    EUVL C 132, 24.3.2022, p. 17–26 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    24.3.2022   

    FI

    Euroopan unionin virallinen lehti

    C 132/17


    P9_TA(2021)0405

    Tekoäly rikosoikeudessa ja sen käyttö poliisi- ja oikeusviranomaisten suorittamassa rikosasioiden käsittelyssä

    Euroopan parlamentin päätöslauselma 6. lokakuuta 2021 tekoälystä rikosoikeudessa ja sen käytöstä poliisi- ja oikeusviranomaisten suorittamassa rikosasioiden käsittelyssä (2020/2016(INI))

    (2022/C 132/02)

    Euroopan parlamentti, joka

    ottaa huomioon Euroopan unionista tehdyn sopimuksen ja erityisesti sen 2 ja 6 artiklan sekä Euroopan unionin toiminnasta tehdyn sopimuksen ja erityisesti sen 16 artiklan,

    ottaa huomioon Euroopan unionin perusoikeuskirjan ja erityisesti sen 6, 7, 8, 11, 12, 13, 20, 21, 24 ja 47 artiklan,

    ottaa huomioon ihmisoikeuksien ja perusvapauksien suojaamiseksi tehdyn yleissopimuksen,

    ottaa huomioon Euroopan neuvoston yleissopimuksen yksilöiden suojelusta henkilötietojen automaattisessa tietojenkäsittelyssä (ETS 108) ja sen muutospöytäkirjan (yleissopimus 108+),

    ottaa huomioon oikeuslaitoksen toimivuutta tarkastelevan Euroopan neuvoston pysyvän komitean (CEPEJ) eurooppalaisen eettisen peruskirjan tekoälyn käytöstä oikeusjärjestelmissä ja niiden ympäristössä,

    ottaa huomioon 8. huhtikuuta 2019 annetun komission tiedonannon luottamuksen rakentamisesta ihmiskeskeiseen tekoälyyn (COM(2019)0168),

    ottaa huomioon komission tekoälyä käsittelevän korkean tason asiantuntijaryhmän 8. huhtikuuta 2019 julkaisemat luotettavaa tekoälyä koskevat eettiset ohjeet,

    ottaa huomioon 19. helmikuuta 2020 annetun komission valkoisen kirjan ”Tekoälystä – Eurooppalainen lähestymistapa huippuosaamiseen ja luottamukseen” (COM(2020)0065),

    ottaa huomioon 19. helmikuuta 2020 annetun komission tiedonannon ”Euroopan datastrategia” (COM(2020)0066),

    ottaa huomioon luonnollisten henkilöiden suojelusta henkilötietojen käsittelyssä ja näiden tietojen vapaasta liikkuvuudesta ja direktiivin 95/46/EY kumoamisesta 27. huhtikuuta 2016 annetun Euroopan parlamentin ja neuvoston asetuksen (EU) 2016/679 (yleinen tietosuoja-asetus) (1),

    ottaa huomioon luonnollisten henkilöiden suojelusta toimivaltaisten viranomaisten suorittamassa henkilötietojen käsittelyssä rikosten ennalta estämistä, tutkimista, paljastamista tai rikoksiin liittyviä syytetoimia tai rikosoikeudellisten seuraamusten täytäntöönpanoa varten sekä näiden tietojen vapaasta liikkuvuudesta ja neuvoston puitepäätöksen 2008/977/YOS kumoamisesta 27. huhtikuuta 2016 annetun Euroopan parlamentin ja neuvoston direktiivin (EU) 2016/680 (2),

    ottaa huomioon luonnollisten henkilöiden suojelusta unionin toimielinten, elinten ja laitosten suorittamassa henkilötietojen käsittelyssä ja näiden tietojen vapaasta liikkuvuudesta sekä asetuksen (EY) N:o 45/2001 ja päätöksen N:o 1247/2002/EY kumoamisesta 23. lokakuuta 2018 annetun Euroopan parlamentin ja neuvoston asetuksen (EU) 2018/1725 (3),

    ottaa huomioon henkilötietojen käsittelystä ja yksityisyyden suojasta sähköisen viestinnän alalla 12. heinäkuuta 2002 annetun Euroopan parlamentin ja neuvoston direktiivin 2002/58/EY (sähköisen viestinnän tietosuojadirektiivi) (4),

    ottaa huomioon Euroopan unionin lainvalvontayhteistyövirastosta (Europol) sekä neuvoston päätösten 2009/371/YOS, 2009/934/YOS, 2009/935/YOS, 2009/936/YOS ja 2009/968/YOS korvaamisesta ja kumoamisesta 11. toukokuuta 2016 annetun Euroopan parlamentin ja neuvoston asetuksen (EU) 2016/794 (5),

    ottaa huomioon 19. kesäkuuta 2020 antamansa päätöslauselman rasisminvastaisista mielenosoituksista George Floydin kuoleman johdosta (6),

    ottaa huomioon 14. maaliskuuta 2017 antamansa päätöslauselman massadatan vaikutuksista perusoikeuksiin: yksityisyys, tietosuoja, syrjimättömyys, turvallisuus ja lainvalvonta (7),

    ottaa huomioon kansalaisvapauksien sekä oikeus- ja sisäasioiden valiokunnassa (LIBE) 20. helmikuuta 2020 pidetyn kuulemisen tekoälystä rikosoikeudessa ja sen käytöstä poliisi- ja oikeusviranomaisten suorittamassa rikosasioiden käsittelyssä,

    ottaa huomioon raportin LIBE-valiokunnan tiedonhankintamatkasta Yhdysvaltoihin helmikuussa 2020,

    ottaa huomioon työjärjestyksen 54 artiklan,

    ottaa huomioon sisämarkkina- ja kuluttajansuojavaliokunnan sekä oikeudellisten asioiden valiokunnan lausunnot,

    ottaa huomioon kansalaisvapauksien sekä oikeus- ja sisäasioiden valiokunnan mietinnön (A9-0232/2021),

    A.

    ottaa huomioon, että digitaaliteknologia yleensä ja erityisesti tekoälyn mahdollistama tietojenkäsittelyn ja data-analyysien lisääntyminen tuovat mukanaan erittäin suuria lupauksia ja riskejä; ottaa huomioon, että viime vuosina tekoäly on ottanut suuren harppauksen eteenpäin, ja se on yksi 2000-luvun strategisista teknologioista, jolla on mahdollisuus tuottaa huomattavia tehokkuuteen, tarkkuuteen ja käyttömukavuuteen liittyviä hyötyjä ja vaikuttaa siten myönteisesti Euroopan talouteen ja yhteiskuntaan, mutta josta voi myös aiheutua suuria riskejä perusoikeuksille ja oikeusvaltioperiaatteeseen perustuville demokratioille; toteaa, että tekoäly ei ole itsetarkoitus vaan väline, joka palvelee ihmisiä ja jonka perimmäisenä tavoitteena on lisätä ihmisten hyvinvointia, valmiuksia ja turvallisuutta;

    B.

    toteaa, että tietokoneiden prosessointinopeuden ja muistikapasiteetin jatkuvasta kehittymisestä huolimatta ei ole vielä olemassa ohjelmia, joiden joustavuus olisi ihmisen tasolla laajempien aihealueiden käsittelyssä tai tehtävissä, jotka edellyttävät asiayhteyden tai kriittisen analyysin ymmärtämistä; panee merkille, että jotkin tekoälysovellukset ovat saavuttaneet asiantuntijoita ja ammattilaisia vastaavan tason tiettyjen tarkasti rajattujen tehtävien (esimerkiksi oikeudellinen teknologia) suorittamisessa ja että ne kykenevät tuottamaan tuloksia valtavasti nopeammin ja suuremmassa laajuudessa;

    C.

    ottaa huomioon, että joissakin maissa, useat jäsenvaltiot mukaan lukien, tekoälysovelluksia tai sulautettuja tekoälyjärjestelmiä käytetään lainvalvonnassa ja oikeuslaitoksessa enemmän kuin toisissa, mikä johtuu osittain sääntelyn puutteesta ja sellaisista sääntelyeroista, jotka mahdollistavat tai kieltävät tekoälyn käyttämisen tiettyihin tarkoituksiin; toteaa, että tekoälyn lisääntyvä käyttö rikosoikeuden alalla perustuu erityisesti lupauksiin siitä, että se vähentäisi tietyntyyppistä rikollisuutta ja johtaisi objektiivisempiin päätöksiin; toteaa, että nämä lupaukset eivät kuitenkaan aina pidä paikkaansa;

    D.

    katsoo, että perusoikeuskirjassa vahvistetut perusoikeudet ja -vapaudet olisi taattava tekoälyn ja siihen liittyvän teknologian koko elinkaaren ajan, erityisesti niiden suunnittelun, kehittämisen, käyttöönoton ja käytön aikana, ja että niitä olisi sovellettava lain täytäntöönpanoon kaikissa olosuhteissa;

    E.

    katsoo, että tekoälyteknologiaa olisi kehitettävä siten, että ihmiset asetetaan sen keskiöön, että se ansaitsee kansalaisten luottamuksen ja toimii aina ihmisten palveluksessa; toteaa, että tekoälyjärjestelmät on aina suunniteltava niin, että käyttäjällä on tarvittaessa mahdollisuus sulkea järjestelmä;

    F.

    katsoo, että tekoälyjärjestelmät on suunniteltava kaikkien yhteiskunnan jäsenten suojaksi ja eduksi (suunnittelussa on otettava huomioon heikoimmassa asemassa olevat ja syrjityt väestöryhmät), niiden on oltava syrjimättömiä, turvallisia, päätöksissään helppotajuisia ja avoimia ja niissä on kunnioitettava ihmisen itsemääräämisoikeutta ja perusoikeuksia, jotta ne täyttäisivät tekoälyä käsittelevän korkean tason asiantuntijaryhmän eettisissä ohjeissa määritellyt luotettavuuden vaatimukset;

    G.

    ottaa huomioon, että unionilla on yhdessä jäsenvaltioiden kanssa ratkaiseva vastuu sen varmistamisesta, että tekoälysovellusten elinkaareen ja käyttöön liittyvät päätökset oikeuslaitoksen ja lainvalvonnan alalla tehdään avoimesti, niillä turvataan täysimääräisesti perusoikeuksien toteutuminen eivätkä ne varsinkaan edistä olemassaolollaan syrjintää, vinoumia tai ennakkoluuloja; katsoo, että asiaa koskevissa poliittisissa valinnoissa olisi noudatettava tarpeellisuus- ja suhteellisuusperiaatteita, jotta voidaan taata perustuslainmukaisuus sekä oikeudenmukainen ja inhimillinen oikeusjärjestelmä;

    H.

    toteaa, että tekoäly saattaa tarjota suuria mahdollisuuksia myös lainvalvonnan alalla, erityisesti lainvalvontaviranomaisten ja oikeusviranomaisten työskentelymenetelmien parantamisessa ja tietyntyyppisten rikosten, erityisesti talousrikosten, rahanpesun ja terrorismin rahoituksen sekä verkossa tapahtuvan lasten seksuaalisen riiston ja hyväksikäytön sekä tietyntyyppisten kyberrikosten torjunnan tehostamisessa, mikä lisää EU:n kansalaisten turvallisuutta samalla, kun ne saattavat sisältää merkittäviä riskejä ihmisten perusoikeuksien kannalta; katsoo, että tekoälyn yleinen soveltaminen laajamittaiseen valvontaan olisi suhteetonta;

    I.

    ottaa huomioon, että poliisi- ja oikeusviranomaisten käyttämien tekoälyjärjestelmien kehittämisessä ja toiminnassa on mukana useita henkilöitä, organisaatioita, konekomponentteja, ohjelmistoalgoritmeja ja käyttäjiä usein monimutkaisissa ja haastavissa ympäristöissä; ottaa huomioon, että lainvalvonnassa ja oikeuslaitoksissa käytettävät tekoälysovellukset ovat eri kehitysvaiheissa, aina käsitteellistämisvaiheesta prototyyppien luomiseen ja arviointivaiheesta hyväksynnän jälkeiseen käyttöön; ottaa huomioon, että tulevaisuudessa tekoälylle voi löytyä uusia käyttömahdollisuuksia, kun teknologiat kehittyvät maailmanlaajuisesti käynnissä olevan tieteellisen tutkimuksen seurauksena;

    J.

    katsoo, että tekoälyjärjestelmien mahdollisia haitallisia vaikutuksia koskevan oikeudellisen vastuun osoittamiseen tarvitaan rikosoikeuden alalla selkeä malli; katsoo, että tämän alan sääntelyssä olisi aina säilytettävä ihmisen vastuuvelvollisuus ja pyrittävä ennen kaikkea välttämään haitallisia vaikutuksia alun alkaenkin;

    K.

    katsoo, että viime kädessä on jäsenvaltioiden vastuulla taata perusoikeuksien täysimääräinen kunnioittaminen silloin, kun tekoälyjärjestelmiä käytetään lainvalvonnan ja oikeuslaitoksen alalla;

    L.

    ottaa huomioon, että perusoikeuksien suojelun ja tehokkaan poliisitoiminnan välisen suhteen on aina oltava olennainen osa keskusteluja siitä, pitäisikö tekoälyä käyttää lainvalvonnan alalla, jossa päätöksillä voi olla pitkäaikaisia vaikutuksia yksilöiden elämään ja vapauteen, ja miten sitä olisi tällä alalla käytettävä; pitää tätä erityisen tärkeänä, sillä tekoälystä voi tulla pysyvä osa rikosoikeudellista ekosysteemiä, koska sitä voidaan käyttää analyysi- ja tukivälineenä rikostutkinnoissa;

    M.

    toteaa, että lainvalvonnassa käytetään tekoälyä esimerkiksi kasvontunnistustekniikoissa, joiden avulla voidaan mm. etsiä epäiltyjä tietokannoista ja tunnistaa ihmiskaupan tai lasten seksuaalisen riiston ja hyväksikäytön uhreja, automaattisessa rekisterikilpien tunnistamisessa, puhujien tunnistamisessa, puheen tunnistamisessa, huuliltalukutekniikoissa, kuunteluvalvonnassa (esimerkiksi algoritmi laukausten havaitsemiseen), tunnistettujen tietokantojen itsenäisessä tutkimuksessa ja analysoinnissa, ennakoinnissa (ennakoiva poliisitoiminnan ja rikosten hotspot-analysointi), käyttäytymisen havaitsemisvälineissä, kehittyneissä virtuaalisissa ruumiinavausvälineissä kuolinsyyn määrittämistä varten, itsenäisissä välineissä rahoituspetosten ja terrorismin rahoituksen tunnistamiseksi, sosiaalisen median seurannassa (salaaminen ja tietojen kerääminen niiden louhintaan yhteyksiä varten) ja automaattisissa seurantajärjestelmissä, joissa on mukana erilaisia havaitsemisvalmiuksia (esimerkiksi sydämenlyöntien havaitseminen ja lämpökamerat); ottaa huomioon, että edellä mainittujen sovellusten sekä muiden lainvalvonnan alan mahdollisten tai tulevien tekoälysovellusten luotettavuus ja tarkkuus voivat vaihdella suuresti ja vaikuttaa perusoikeuksien suojeluun ja rikosoikeudellisten järjestelmien dynamiikkaan; ottaa huomioon, että monia näistä välineistä käytetään EU:n ulkopuolisissa maissa, mutta että ne olisivat unionin tietosuojasäännöstön ja oikeuskäytännön nojalla laittomia; ottaa huomioon, että algoritmien rutiininomainen käyttöönotto voi johtaa siihen, että aiheettomien varoitusten määrä ylittää selvästi aiheellisten varoitusten määrän, silloinkin kun väärien positiivisten osuus on pieni;

    N.

    ottaa huomioon, että myös monien maiden oikeuslaitokset kaikkialla maailmassa käyttävät tekoälyn välineitä ja sovelluksia muun muassa päätösten tukemiseen tutkintavankeustapauksissa, tuomioissa, uusimista koskevien todennäköisyyksien laskemisessa ja koeajan määrittämisessä sekä verkkovälitteisessä riitojenratkaisussa, oikeuskäytännön hallinnassa ja oikeuden piiriin pääsyn helpottamisessa; ottaa huomioon, että tämä on johtanut muiden kuin valkoisten ihmisten ja muiden vähemmistöjen mahdollisuuksien vääristymiseen ja vähenemiseen; ottaa huomioon, että EU:ssa, joitakin jäsenvaltioita lukuun ottamatta, niiden käyttö rajoittuu tällä hetkellä pääasiassa siviiliasioihin;

    O.

    ottaa huomioon, että tekoälyn käyttöön lainvalvonnassa liittyy useita mahdollisesti suuria ja yksityishenkilöiden perusoikeuksien suojelua koskevia riskejä, joita eräissä tapauksissa on mahdoton hyväksyä, kuten läpinäkymätön päätöksenteko, erityyppinen syrjintä ja taustalla olevan algoritmin virheet, jotka voivat takaisinkytkennän seurauksena kertautua, sekä yksityisyyden ja henkilötietojen suojaan, sananvapauteen ja tiedonvälityksen vapauteen ja syyttömyysolettamaan kohdistuvat riskit sekä tehokkaisiin oikeussuuojakeinoihin ja oikeudenmukaiseen oikeudenkäyntiin ja ihmisten vapauteen ja turvallisuuteen liittyvät riskit;

    P.

    ottaa huomioon, että lainvalvonta- ja oikeusviranomaisten käyttämät tekoälyjärjestelmät ovat myös alttiita tekoälyn käyttöön perustuville hyökkäyksille tietojärjestelmiä vastaan tai harhautuksille, joissa järjestelmään syötetään tarkoituksellisesti väärää tietoa vääristyneiden tulosten aikaansaamiseksi; ottaa huomioon, että näissä tilanteissa tästä aiheutuva vahinko on mahdollisesti vielä merkittävämpi ja voi johtaa eksponentiaalisesti suurempaan vahinkoon sekä yksilöille että ryhmille;

    Q.

    katsoo, että tekoälyn käyttöönottoa lainvalvonnan ja oikeuslaitoksen alalla ei pitäisi nähdä pelkkänä teknisenä toteuttamismahdollisuutena vaan pikemminkin poliittisena päätöksenä, joka koskee lainvalvonta- ja rikosoikeusjärjestelmien suunnittelua ja tavoitteita; toteaa, että nykyaikainen rikosoikeus perustuu ajatukselle, jonka mukaan valtion viranomaiset reagoivat rikokseen sen tapahtumisen jälkeen eivätkä oleta, että kaikki ihmiset ovat vaarallisia ja että heitä on jatkuvasti valvottava mahdollisten rikkomusten estämiseksi; ottaa huomioon, että tekoälyyn perustuvilla valvontatekniikoilla tämä lähestymistapa asetetaan vahvasti kyseenalaiseksi ja edellytetään, että lainsäätäjät kaikkialla maailmassa arvioivat perusteellisesti seurauksia, joita aiheutuu sellaisten teknologioiden käyttöönoton sallimisesta, jotka vähentävät ihmisten roolia lainvalvonnassa ja oikeuskäsittelyssä;

    1.

    toistaa, että koska suurten tietomäärien käsittely on tekoälyn ytimessä, oikeutta yksityiselämän suojaan ja oikeutta henkilötietojen suojaan sovelletaan kaikilla tekoälyn aloilla ja että tietosuojaa ja yksityisyyttä koskevaa unionin oikeudellista kehystä on noudatettava täysimääräisesti; muistuttaa, että EU on jo vahvistanut lainvalvontaa koskevat tietosuojastandardit, jotka muodostavat perustan tekoälyn tulevalle sääntelylle lainsäädännön ja oikeuslaitoksen alalla; muistuttaa, että henkilötietojen käsittelyn olisi oltava laillista ja tasapuolista, käsittelyn tarkoitukset olisi määriteltävä selkeästi ja legitiimisti, että käsittelyn olisi oltava riittävää ja asianmukaista eikä se saisi olla liiallista tarkoitukseensa nähden, että käsittelyn olisi oltava täsmällistä ja ajantasaista, ja epätarkat tiedot olisi oikaistava tai poistettava, paitsi jos rajoituksia sovelletaan, että tietoja ei saisi säilyttää pidempään kuin on tarpeen, että selkeitä ja asianmukaisia määräaikoja olisi asetettava tietojen poistamiselle tai säilyttämistarpeen säännölliselle tarkistamiselle ja että tietojen käsittelyn olisi oltava turvallista; korostaa myös, että olisi estettävä mahdollinen yksittäisten henkilöiden tunnistaminen tekoälysovelluksella, jossa käytetään aiemmin anonymisoitua dataa;

    2.

    vahvistaa, että kaikissa lainvalvontaa ja oikeuslaitosta koskevissa tekoälyratkaisuissa on myös noudatettava täysimääräisesti ihmisarvon, syrjimättömyyden, vapaan liikkuvuuden, syyttömyysolettaman, puolustusoikeuden ja vaitiolo-oikeuden, sananvapauden ja tiedonvälityksen vapauden, kokoontumis- ja yhdistymisvapauden, lain edessä yhdenvertaisuuden, oikeuskeinojen tasapuolisuuden sekä tehokkaita oikeussuojakeinoja koskevan oikeuden ja oikeudenmukaisen oikeudenkäynnin periaatteita Euroopan unionin perusoikeuskirjan ja Euroopan ihmisoikeussopimuksen mukaisesti; painottaa, että tekoälysovellusten käyttö on kiellettävä, jos se on ristiriidassa perusoikeuksien kanssa;

    3.

    toteaa, että tekoälysovellusten nopea kehitys eri puolilla maailmaa ei mahdollista sovellusten tyhjentävää luetteloa ja edellyttää näin ollen selkeää ja johdonmukaista hallintomallia, jolla taataan sekä yksilöiden perusoikeudet että oikeudellinen selkeys kehittäjille, kun otetaan huomioon teknologian jatkuva kehitys; katsoo kuitenkin, että kun otetaan huomioon poliisi- ja oikeusviranomaisten rooli ja vastuu sekä niiden rikosten torjumista, tutkimista, selvittämistä tai syytteeseenpanoa tai rikosoikeudellisten seuraamusten täytäntöönpanoa varten tekemien päätösten vaikutus, tekoälysovellusten käyttö on luokiteltava suuririskiseksi tapauksissa, joissa on mahdollista vaikuttaa merkittävästi yksilöiden elämään;

    4.

    katsoo tässä yhteydessä, että kaikkien lainvalvonta- tai oikeusviranomaisten kehittämien tai käyttämien tekoälyvälineiden olisi oltava vähintään turvallisia, vakaita, varmoja ja tarkoituksenmukaisia, niissä olisi noudatettava oikeudenmukaisuuden, tietojen minimoinnin, vastuuvelvollisuuden, avoimuuden, syrjimättömyyden ja helppokäyttöisyyden periaatteita ja niiden kehittämiseen, käyttöönottoon ja käyttöön olisi sovellettava riskinarviointia ja tiukkaa tarpeellisuus- ja suhteellisuustestausta, jossa suojatoimien olisi oltava suhteessa havaittuihin riskeihin; korostaa, että kansalaisten luottamus EU:ssa kehitetyn, käyttöön otetun ja käytetyn tekoälyn käyttöön edellyttää näiden kriteerien täysimääräistä täyttämistä;

    5.

    panee merkille tietyntyyppisten tekoälysovellusten myönteisen vaikutuksen lainvalvonta- ja oikeusviranomaisten työhön kaikkialla unionissa; korostaa esimerkiksi parantunutta oikeuskäytännön hallintaa, joka on saavutettu lisähakuvaihtoehdot mahdollistavilla välineillä; katsoo, että tekoälyn muita mahdollisia käyttötarkoituksia lainvalvonnassa ja oikeuslaitoksessa voitaisiin tutkia ottaen huomioon CEPEJ:n hyväksymän tekoälyn käyttöä oikeusjärjestelmissä ja niiden ympäristössä koskevan eettisen peruskirjan viisi periaatetta ja kiinnittäen erityistä huomiota CEPEJ:n yksilöimiin ”käyttötarkoituksiin, joihin on suhtauduttava äärimmäisellä varauksella”;

    6.

    korostaa, että kaikkia teknologian käyttötarkoituksia voidaan muuttaa, ja vaatii tiukkaa demokraattista valvontaa ja riippumatonta seurantaa kaikelle poliisi- ja oikeusviranomaisten käyttämälle tekoälyä hyödyntävälle teknologialle, erityisesti jos sitä on mahdollista käyttää laajamittaiseen valvontaan ja profilointiin; panee näin ollen erittäin huolestuneena merkille lainvalvonta-alalla olevat mahdollisuudet tietyillä tekoälyteknologioilla toteutettavaan laajamittaiseen valvontaan; korostaa oikeudellista vaatimusta, jonka mukaan on estettävä laajamittainen valvonta tekoälyteknologialla, joka määritelmän mukaan ei ole tarpeellisuus- ja suhteellisuusperiaatteiden mukaista, ja kiellettävä sellaisten sovellusten käyttö, jotka voivat johtaa siihen;

    7.

    korostaa, että joissakin EU:n ulkopuolisissa maissa massavalvontateknologioiden kehittämisessä, käyttöönotossa ja käytössä omaksuttu lähestymistapa haittaa suhteettomasti perusoikeuksia, minkä vuoksi EU:n ei tule noudattaa sitä; korostaa siksi, että suojatoimia, joilla estetään lainvalvonta- ja oikeusviranomaisten harjoittama tekoälyteknologian väärinkäyttö, on myös säänneltävä yhdenmukaisesti kaikkialla unionissa;

    8.

    korostaa tekoälysovellusten, kuten koneoppimisen, käytön mahdollisesti aiheuttamia vinoumia ja syrjintää myös algoritmeissa, joihin kyseiset sovellukset perustuvat; toteaa, että taustatietoaineistoihin voi sisältyä vääristymiä erityisesti silloin, kun käytetään historiallisia tietoja, algoritmien kehittäjät ottavat ne käyttöön tai kun järjestelmät otetaan käyttöön todellisissa olosuhteissa; huomauttaa, että käytetyn datan laatu vaikuttaa väistämättä tekoälysovellusten tuottamiin tuloksiin ja että tällaiset luontaiset vääristymät ovat taipuvaisia vähitellen lisääntymään ja siten ylläpitämään ja lisäämään olemassa olevaa syrjintää, joka kohdistuu erityisesti tiettyihin etnisiin ryhmiin tai rodullistettuihin yhteisöihin kuuluviin henkilöihin;

    9.

    korostaa, että monet tällä hetkellä käytössä olevat algoritmivetoiset tunnistustekniikat tunnistavat ja luokittelevat suhteettomasti väärin ja aiheuttavat näin ollen vahinkoa rodullistetuille henkilöille, tiettyihin etnisiin yhteisöihin kuuluville henkilöille, hlbti-henkilöille, lapsille ja vanhuksille sekä naisille; muistuttaa, että oikean tunnistamisen oikeuden lisäksi yksilöillä on oikeus jäädä tunnistamattomaksi, ellei laissa edellytetä tunnistamista pakottavista ja oikeutetuista yleiseen etuun liittyvistä syistä; korostaa, että tietyn henkilöryhmän ominaisuuksiin perustuvat tekoälyennusteet lisäävät ja toistavat syrjinnän nykyisiä muotoja; katsoo, että olisi ponnisteltava voimakkaasti automatisoidun syrjinnän ja vääristymien välttämiseksi; vaatii vahvoja lisäsuojatoimia niihin tapauksiin, joissa lainvalvonta- ja oikeusviranomaisten tekoälyjärjestelmien käyttö kohdistuu tai liittyy alaikäisiin;

    10.

    painottaa valtasuhteiden epäsymmetriaa tekoälyteknologian käyttäjien sekä tekoälyteknologian kohteena olevien välillä; pitää erittäin tärkeänä, että poliisi- ja oikeusviranomaisten harjoittama tekoälyn käyttö rikosasioissa ei lisää eriarvoisuutta, sosiaalista eriytymistä tai syrjäytymistä; korostaa tekoälyvälineiden käytön vaikutuksia rikoksesta epäiltyjen puolustusoikeuksiin, hankaluuksia niiden toimintaa koskevien merkityksellisten tietojen saamisessa ja siitä erityisesti tutkinnan kohteena oleville henkilöille aiheutuvaa ongelmaa haastaa tekoälyvälineiden tulokset tuomioistuimessa;

    11.

    panee merkille riskit, joita liittyy erityisesti tekoälyjärjestelmien käsittelemiin henkilötietoihin tai muihin rikostutkintoihin tai oikeusjuttuihin liittyvien tietojen tietovuotoihin, tietoturvaloukkauksiin ja luvattomaan käyttöön; korostaa, että lainvalvonnassa ja oikeuslaitoksessa käytettävien tekoälyjärjestelmien turvallisuusnäkökohtia on tarkasteltava huolellisesti ja niiden on oltava riittävän vakaita ja palautumiskykyisiä, jotta voidaan estää tekoälyjärjestelmiin kohdistuvien vihamielisten hyökkäysten mahdolliset katastrofaaliset seuraukset; korostaa sisäänrakennetun turvallisuuden ja ihmisen suorittaman erityisen valvonnan merkitystä ennen tiettyjen kriittisten sovellusten käyttöä ja kehottaa siksi lainvalvonta- ja oikeusviranomaisia käyttämään ainoastaan tekoälysovelluksia, joissa noudatetaan sisäänrakennetun yksityisyyden ja tietosuojan periaatetta, jotta vältetään toimintojen häiriintyminen;

    12.

    korostaa, että lainvalvonta- ja oikeusviranomaisten käyttämien tekoälyjärjestelmien ei olisi sallittava aiheuttaa haittaa ihmisten fyysiselle koskemattomuudelle eikä jakaa oikeuksia tai asettaa oikeudellisia velvoitteita yksilöille;

    13.

    tunnustaa haasteet, jotka liittyvät mahdollisten haittojen oikeudellisen vastuun ja vastuuvelvollisuuden määrittelyyn, kun otetaan huomioon tekoälyjärjestelmien kehittämisen ja toiminnan monimutkaisuus; katsoo, että on luotava selkeä ja oikeudenmukainen järjestelmä, jonka avulla voidaan osoittaa oikeudellinen vastuu ja korvausvastuu näiden kehittyneiden digitaaliteknologioiden mahdollisista kielteisistä seurauksista; korostaa kuitenkin, että ensisijaisesti on pyrittävä ennaltaehkäisemään tällaisten seurauksien syntyminen; kehottaa siksi soveltamaan ennalta varautumisen periaatetta kaikkiin lainvalvonnan alalla käytettäviin tekoälysovelluksiin; korostaa, että oikeudellisen vastuun ja vastuuvelvollisuuden on aina oltava luonnollisella henkilöllä tai oikeushenkilöllä, joka on aina yksilöitävä tekoälyn tuella tehtävissä päätöksissä; korostaa siksi tarvetta varmistaa tekoälyjärjestelmiä tuottavien ja hallinnoivien yritysrakenteiden avoimuus;

    14.

    katsoo, että sekä puolustusoikeuksien tehokkaan toteuttamisen että kansallisten rikosoikeusjärjestelmien avoimuuden kannalta on olennaisen tärkeää, että tekoälyvälineiden käytön ehtoja, menettelytapoja ja seurauksia lainvalvonnan ja oikeuslaitoksen alalla sekä kohteena olevien henkilöiden oikeuksia ja tuloksellisia ja helposti saatavilla olevia valitus- ja muutoksenhakumenettelyjä sekä oikeudellisia muutoksenhakukeinoja säännellään erityisellä, selkeällä ja täsmällisellä oikeudellisella kehyksellä; korostaa rikosoikeudellisen menettelyn osapuolten oikeutta tutustua tietojenkeruuprosessiin ja siihen liittyviin tekoälysovellusten avulla tehtyihin tai niiden avulla saatuihin arviointeihin; pitää erityisen tarpeellisena, että oikeudellisessa yhteistyössä mukana olevat täytäntöönpanoviranomaiset arvioivat toisen jäsenvaltion tai EU:n ulkopuolisen maan esittämistä luovutus- tai kiinniottopyynnöistä päättäessään, voisiko tekoälyvälineiden käyttö pyynnön esittäneessä maassa vaarantaa perusoikeuden oikeudenmukaiseen oikeudenkäyntiin; kehottaa komissiota antamaan suuntaviivat siitä, miten tällainen arviointi tehdään rikosasioissa tehtävän oikeudellisen yhteistyön yhteydessä; vaatii, että jäsenvaltioiden olisi sovellettavan lainsäädännön mukaisesti varmistettava, että henkilöille tiedotetaan, kun lainvalvontaviranomaiset tai oikeuslaitos käyttävät tekoälysovelluksia heitä koskevissa asioissa;

    15.

    huomauttaa, että jos ihmiset tukeutuvat pelkästään koneiden tuottamiin tietoihin, profiileihin ja suosituksiin, he eivät kykene tekemään riippumatonta arviointia; korostaa mahdollisesti vakavia kielteisiä seurauksia erityisesti lainvalvonnan ja oikeudenkäytön aloilla, kun yksilöt luottavat liikaa tekoälyvälineiden ilmeisen puolueettomaan ja tieteelliseen luonteeseen eivätkä näin ollen ota huomioon mahdollisuutta, että niiden tulokset voivat olla virheellisiä, puutteellisia, merkityksettömiä tai syrjiviä; korostaa, että liiallista riippuvuutta tekoälyjärjestelmien tarjoamista tuloksista olisi vältettävä, ja korostaa, että viranomaisten olisi tärkeää lisätä luottamusta ja tietämystä algoritmin tekemien suositusten kyseenalaistamiseksi; pitää tärkeänä realistisia odotuksia tällaisista teknologisista ratkaisuista ja sitä, että ei luvata täydellisiä lainvalvontaratkaisuja ja kaikkien tehtyjen rikosten havaitsemista;

    16.

    korostaa, että oikeus- ja lainvalvontayhteyksissä jokaisen oikeudellisen tai vastaavan päätöksen tekijänä on aina oltava ihminen, joka voidaan saattaa vastuuseen tehdyistä päätöksistä; katsoo, että tekoälyyn perustuvien järjestelmien käyttäjien on voitava turvautua oikeussuojakeinoihin; muistuttaa, että EU:n oikeuden mukaan henkilöllä on oikeus olla joutumatta sellaisen päätöksen kohteeksi, jolla on häntä koskevia oikeusvaikutuksia tai joka vaikuttaa häneen merkittävästi ja joka perustuu yksinomaan automaattiseen tietojenkäsittelyyn; painottaa lisäksi, että automatisoitu yksittäispäätöstenteko ei saa perustua erityisiin henkilötietoryhmiin, paitsi jos on toteutettu asianmukaiset toimenpiteet rekisteröidyn oikeuksien ja vapauksien sekä oikeutettujen etujen suojaamiseksi; korostaa, että EU:n lainsäädännössä kielletään erityisiin henkilötietoryhmiin perustuva profilointi, joka johtaa luonnollisiin henkilöihin kohdistuvaan syrjintään; painottaa, että lainvalvontaviranomaisten ja niiden toimien täytäntöönpanevan luonteen vuoksi lainvalvonnan alalla tehdyillä päätöksillä on lähes aina asianomaista henkilöä koskevia oikeusvaikutuksia; panee merkille, että tekoälyn käyttö voi vaikuttaa ihmisten tekemiin päätöksiin ja että sillä voi olla vaikutuksia rikosprosessien kaikkiin vaiheisiin; katsoo siksi, että tekoälyjärjestelmiä käyttävien viranomaisten on ylläpidettävä erittäin tiukkoja oikeudellisia normeja ja varmistettava ihmisen osallistuminen, erityisesti analysoitaessa tällaisista järjestelmistä peräisin olevia tietoja; edellyttää siksi, että tuomareiden suvereeni harkinta ja tapauskohtainen päätöksenteko on säilytettävä; kehottaa kieltämään tekoälyn ja siihen liittyvän teknologian käyttämisen oikeudellisten päätösten ehdottamiseen;

    17.

    kehottaa huolehtimaan algoritmien ymmärrettävyydestä, läpinäkyvyydestä, jäljitettävyydestä ja todennettavuudesta välttämättömänä valvonnan osana sen varmistamiseksi, että oikeuslaitoksen ja lainvalvonnan tekoälyjärjestelmien kehittämisessä, käyttöönotossa ja käytössä noudatetaan perusoikeuksia, ja kansalaiset luottavat niihin, ja että tekoälyalgoritmien tuottamat tulokset voidaan tehdä käyttäjien ja näiden järjestelmien piiriin kuuluvien ymmärrettäviksi ja että lähdetiedot ja järjestelmän lopputulokseen päätymisen tavat ovat avoimia; huomauttaa, että teknisen läpinäkyvyyden, luotettavuuden ja tarkkuuden varmistamiseksi unionin lainvalvonta- tai oikeusviranomaisten olisi voitava ostaa ainoastaan sellaisia välineitä ja järjestelmiä, joiden algoritmit ja logiikka ovat tarkastettavissa ja ainakin poliisin ja oikeuslaitoksen sekä riippumattomien tarkastajien saatavilla, jotta mahdollistetaan niiden arviointi, tarkastus ja tutkinta, eivätkä myyjät saa sulkea niitä tai merkitä niitä omistusoikeudellisiksi; toteaa, että dokumentaatiota olisi toimitettava selkeällä ja ymmärrettävällä kielellä palvelun luonteesta, siihen kehitetyistä välineistä, suorituskyvystä ja toimintaedellytyksistä sekä mahdollisista riskeistä; kehottaa siksi oikeus- ja lainvalvontaviranomaisia varmistamaan ennakoivan ja täyden avoimuuden yksityisille yrityksille, jotka tarjoavat niille tekoälyjärjestelmiä lainvalvontaa ja oikeuslaitosta varten; suosittelee siksi avoimen lähdekoodin ohjelmistojen käyttöä mahdollisuuksien mukaan;

    18.

    kannustaa lainvalvonta- ja oikeusviranomaisia määrittämään ja arvioimaan aloja, joilla jotkin räätälöidyt tekoälyratkaisut voisivat olla hyödyllisiä, ja vaihtamaan parhaita käytäntöjä tekoälyn käyttöönotosta; kehottaa jäsenvaltioita ja EU:n virastoja ottamaan käyttöön asianmukaiset julkiset hankintamenettelyt tekoälyjärjestelmille, kun niitä käytetään lainvalvonta- tai oikeudellisessa yhteydessä, jotta varmistetaan, että järjestelmät ovat perusoikeuksien ja sovellettavan lainsäädännön mukaisia, mukaan lukien sen varmistaminen, että ohjelmistoasiakirjat ja algoritmit ovat toimivaltaisten viranomaisten ja valvontaviranomaisten saatavilla ja valmiina tarkastusta varten; kehottaa erityisesti laatimaan sitovia sääntöjä, jotka velvoittavat julkistamaan julkisen ja yksityisen sektorin kumppanuudet, sopimukset ja hankinnat sekä niiden hankinnan tarkoituksen; korostaa, että viranomaisille on tarjottava tarvittava rahoitus ja asiantuntemus tekoälyn käyttöönottoon liittyvien eettisten, oikeudellisten ja teknisten vaatimusten täysimääräisen noudattamisen varmistamiseksi;

    19.

    kehottaa jäljittämään tekoälyjärjestelmät ja niiden toimintaa kuvaavat päätöksentekoprosessit, joissa määritellään järjestelmien valmiudet ja rajoitukset, ja seuraamaan pakollisella asiakirja-aineistolla, mistä päätöksen määrittelevät ominaisuudet ovat peräisin; korostaa, että on tärkeää säilyttää täydellinen dokumentointi koulutusdatasta, sen asiayhteydestä, tarkoituksesta, tarkkuudesta ja sivuvaikutuksista sekä algoritmien rakentajien ja kehittäjien suorittamasta tietojen käsittelystä ja perusoikeuksien noudattamisesta; tähdentää, että aina on oltava mahdollisuus esittää tekoälyjärjestelmien tekemät laskelmat ihmiselle ymmärrettävässä muodossa;

    20.

    kehottaa tekemään pakollisen perusoikeuksia koskevan vaikutustenarvioinnin ennen tekoälyjärjestelmien täytäntöönpanoa tai käyttöönottoa lainvalvonnassa tai oikeuslaitoksessa, jotta voidaan arvioida mahdolliset perusoikeuksiin kohdistuvat riskit; muistuttaa, että aiempi tietosuojaa koskeva vaikutustenarviointi on pakollinen kaiken tyyppiselle ja etenkin uutta teknologiaa hyödyntävälle käsittelylle, johon todennäköisesti liittyy luonnollisten henkilöiden vapauksien ja oikeuksien kannalta korkea riski, ja katsoo, että tämä pätee myös useimpiin lainvalvonnan ja oikeuslaitoksen alalla käytettäviin tekoälyteknologioihin; korostaa tietosuojaviranomaisten ja perusoikeusvirastojen asiantuntemusta järjestelmien arvioinnissa; korostaa, että nämä perusoikeuksia koskevat vaikutustenarvioinnit olisi toteutettava mahdollisimman avoimesti ja kansalaisyhteiskunnan aktiivisella osallistumisella; vaatii, että vaikutustenarvioinneissa määritellään myös selkeästi suojatoimet, jotka ovat tarpeen tunnistettujen riskien käsittelemiseksi, ja että ne asetetaan mahdollisimman laajasti julkisesti saataville ennen tekoälyjärjestelmien käyttöönottoa;

    21.

    korostaa, että ainoastaan riippumattomasti arvioidulla vankalla eurooppalaisella tekoälyn hallinnoinnilla on mahdollista varmistaa perusoikeusperiaatteiden toteutuminen; kehottaa riippumatonta viranomaista tekemään kaikille lainvalvonta- ja oikeusviranomaisten käyttämille tekoälyjärjestelmille säännöllisesti pakollisia tarkastuksia, jos järjestelmillä on mahdollisuus aiheuttaa merkittäviä vaikutuksia yksittäisten ihmisten elämään, ja testaamaan ja arvioimaan algoritmijärjestelmien kontekstia, tarkoitusta, tarkkuutta, suorituskykyä ja soveltamisalaa niiden käyttöönoton jälkeen, jotta voidaan havaita, tutkia, diagnosoida ja korjata mahdolliset ei-toivotut ja haitalliset vaikutukset ja varmistaa, että tekoälyjärjestelmät toimivat suunnitellusti; kehottaa siksi luomaan tätä varten selkeän institutionaalisen kehyksen, johon sisältyy asianmukainen sääntely- ja valvontavalvonta, jotta varmistetaan täysimääräinen täytäntöönpano ja taataan täysin tietoon perustuva demokraattinen keskustelu tekoälyn tarpeellisuudesta ja oikeasuhteisuudesta rikosoikeuden alalla; korostaa, että näiden tarkastusten tulokset olisi asetettava saataville julkisiin rekistereihin, jotta kansalaiset tietävät, onko tekoälyjärjestelmiä otettu käyttöön ja mihin toimenpiteisiin on ryhdytty perusoikeuksien loukkausten estämiseksi;

    22.

    painottaa, että taustatietoaineistot ja algoritmiset järjestelmät, joita käytetään tekoälyn ja siihen liittyvän teknologian kehittämisen yhteydessä ja tietojenkäsittelyn eri vaiheissa luokitusten, arviointien ja ennusteiden laatimiseen, voivat johtaa myös sellaisten ihmisryhmien erilaiseen kohteluun ja suoraan ja välilliseen syrjintään, joihin kuuluvilla on yhteisiä ominaisuuksia, etenkin jos ennakoivien poliisialgoritmien opetuksessa käytetty data vastaa käytössä olevia tarkkailun painopisteitä ja saattaa siksi tuottaa ja vahvistaa nykyisiä vinoumia; painottaa siksi, että etenkin lainvalvonta- ja oikeusalalla käyttöön otettavat tekoälyteknologiat edellyttävät monialaista tutkimusta ja panostusta, joita ovat muun muassa luonnontieteelliset ja teknologiset tutkimukset, kriittiset rotututkimukset, vammaisuutta käsittelevät tutkimukset ja muut sosiaalisen tilanteen huomioon ottavat tieteenalat, joilla käsitellään muun muassa erojen kehittymistä sekä luokitustyötä ja sen seurauksia; tähdentää, että sen vuoksi on järjestelmällisesti investoitava siihen, että tällaiset alat yhdistetään tekoälyä koskevaan tutkimukseen kaikilla tasoilla; pitää myös tärkeänä, että näiden tekoälyjärjestelmien suunnittelusta, kehittämisestä, testaamisesta, ylläpidosta, käyttöönotosta ja hankinnasta vastaavissa työryhmissä otetaan huomioon järjestelmien käytön ja yleensä yhteiskunnan monimuotoisuus syrjinnän riskin vähentämiseksi muuten kuin teknisin keinoin;

    23.

    korostaa edelleen, että erityisesti poliisi- ja oikeusalan henkilöstölle on annettava merkittävää erikoiskoulutusta tekoälyteknologian eettisistä säännöksistä, mahdollisista vaaroista, rajoituksista ja asianmukaisesta käytöstä, jotta heihin voi kohdistaa riittävän vastuuvelvollisuuden, vastuun ja korvausvastuun vaatimukset; korostaa, että olisi varmistettava soveltuvan koulutuksen ja pätevyyksien avulla, että päätöksentekijät ovat perillä vinoutumien mahdollisuudesta, sillä data-aineistot voivat perustua syrjivään ja ennakkoasenteisiin perustuvaan dataan; kannattaa tietoisuuden lisäämistä ja koulutusta koskevien aloitteiden laatimista, jotta voidaan varmistaa, että lainvalvonnassa ja oikeuslaitoksessa työskentelevät henkilöt ovat tietoisia tekoälyjärjestelmien käyttöön liittyvistä rajoituksista, valmiuksista ja riskeistä, mukaan lukien automaation vinoumien riski, ja että he ymmärtävät ne; muistuttaa, että poliisiviranomaiset sisällyttävät tekoälykoulutuksen tietokokonaisuuksiin rasismitapauksia tehtäviensä hoitamisessa, mikä johtaa väistämättä rasistiseen vinoumaan tekoälyn tuottamissa havainnoissa, pisteytyksissä ja suosituksissa; palauttaa mieliin kehotuksensa, että jäsenvaltioiden olisi edistettävä syrjinnän vastaista politiikkaa ja kehitettävä rasismin vastaisia toimintasuunnitelmia, jotka koskevat myös poliisitoimintaa ja oikeusjärjestelmää;

    24.

    toteaa, että ennakoiva poliisitoiminta on yksi lainvalvonnan alalla käytettävistä tekoälysovelluksista, mutta varoittaa, että vaikka sen avulla voidaan analysoida tarvittavia tietoaineistoja tiettyjen kaavojen ja korrelaatioiden tunnistamiseksi, ennakoiva poliisitoiminta ei kykene määrittämään syy-yhteyksiä eikä ennakoimaan luotettavasti yksittäisen ihmisen käyttäytymistä, eikä se näin ollen voi olla ainoa perusta toimintapäätöksille; huomauttaa, että useat yhdysvaltalaiset kaupungit ovat tarkastusten jälkeen lopettaneet ennakoivan poliisitoiminnan käytön; muistuttaa, että LIBE-valiokunnan Yhdysvaltoihin helmikuussa 2020 tekemän tiedonhankintamatkan aikana valiokunnan jäsenet saivat kuulla New Yorkin ja Cambridgen (Massachusetts) kaupunkien poliisilaitoksen edustajilta, että näissä kaupungeissa oli luovuttu ennakoivan poliisitoiminnan ohjelmista niiden tehottomuuden, syrjivyyden ja käytännön epäonnistumisten takia ja sen sijaan siirrytty lähipoliisitoimintaan; toteaa, että tämä oli johtanut rikosten määrän vähenemiseen; vastustaa siksi lainvalvontaviranomaisten päätöstä käyttää tekoälyä tehdäkseen yksilöitä tai ryhmiä koskevia käyttäytymisennusteita aiempien tietojen ja aiemman käyttäytymisen, ryhmän jäsenyyden, sijainnin tai minkä tahansa muun tällaisen ominaisuuden perusteella ja yrittää näin tunnistaa henkilöt, jotka todennäköisesti syyllistyvät rikokseen;

    25.

    panee merkille kasvojentunnistuksen eri tyypit, kuten muun muassa todentamisen / varmentamisen (reaaliaikaisen kasvon sovittaminen henkilöllisyysasiakirjan valokuvaan, esim. älykkäät rajat), tunnistamisen (esim. valokuvan täsmäyttäminen tiettyyn valokuvia sisältävään tietokantaan) ja havaitsemisen (eli kasvojen reaaliaikainen havaitseminen kameravalvontamateriaalin kaltaisista lähteistä ja niiden yhteensovittaminen tietokantoihin, esim. reaaliaikaiseen valvontaan liittyvät vaikutukset), joilla kaikilla on erilaisia vaikutuksia perusoikeuksien suojelussa; katsoo, että kasvojentunnistusjärjestelmien käyttöönotto lainvalvonnassa olisi rajoitettava selkeästi perusteltuihin tarkoituksiin ja siinä olisi täysimääräisesti noudatettava suhteellisuuden ja tarpeellisuuden periaatteita ja sovellettavaa lainsäädäntöä; vahvistaa, että kasvojentunnistusteknologian käytön on vähintään täytettävä tietojen minimointia, tietojen paikkansapitävyyttä, säilytyksen rajoittamista, tietoturvaa ja vastuuvelvollisuutta koskevat vaatimukset sekä oltava laillista, oikeudenmukaista, läpinäkyvää ja jäsenvaltioiden tai unionin lainsäädännössä selkeästi määritellyn erityisen, nimenomaisen ja oikeutetun tarkoituksen mukaista; katsoo, että todentamis- ja tunnistamisjärjestelmiä voidaan edelleen käyttää ja käyttää menestyksekkäästi vain, jos niiden haitallisia vaikutuksia voidaan lieventää ja edellä mainitut kriteerit täyttyvät;

    26.

    kehottaa lisäksi kieltämään pysyvästi julkisilla paikoilla muiden inhimillisten ominaisuuksien, kuten kasvot, sormenjäljet, DNA, ääni ja muut biometriset ja käyttäytymiseen liittyvät signaalit, automaattisen analysoinnin ja/tai tunnistamisen;

    27.

    kehottaa kuitenkin keskeyttämään kasvojentunnistusjärjestelmien käyttöönoton lainvalvonnassa, paitsi jos tunnistaminen liittyy ainoastaan rikoksen uhrien tunnistamiseen, kunnes teknisten standardien voidaan katsoa olevan täysin perusoikeuksien mukaisia, saadut tulokset ovat puolueettomia ja syrjimättömiä, oikeudellinen kehys tarjoaa tiukkoja suojatoimia väärinkäyttöä vastaan ja tiukkaa demokraattista valvontaa ja on saatavilla empiiristä näyttöä tällaisten teknologioiden käyttöönoton tarpeellisuudesta ja oikeasuhteisuudesta; toteaa, että jos edellä mainitut kriteerit eivät täyty, järjestelmiä ei pitäisi käyttää eikä ottaa käyttöön;

    28.

    pitää erittäin huolestuttavana, että lainvalvontatoimijat ja tiedustelupalvelut käyttävät yksityisiä kasvojentunnistustietokantoja, kuten Clearview-tekoälyä, jonka tietokannan yli kolme miljardia kuvaa on kerätty laittomasti sosiaalisista verkoista ja muista internetin osista, myös EU:n kansalaisilta; kehottaa jäsenvaltioita velvoittamaan lainvalvontatoimijat ilmoittamaan, käyttävätkö ne Clearview-tekoälyteknologiaa tai vastaavaa muiden palveluntarjoajien teknologiaa; muistuttaa Euroopan tietosuojaneuvoston lausunnosta, jonka mukaan Clearview-tekoälyn kaltaisen palvelun käyttäminen unionin lainvalvontaviranomaisten toiminnassa ”ei todennäköisesti ole EU:n tietosuojajärjestelmän mukaista”; kehottaa kieltämään yksityisten kasvojentunnistustietokantojen käytön lainvalvonnassa;

    29.

    panee merkille komission toteutettavuustutkimuksen mahdollisista Prüm-päätökseen (8) tehtävistä muutoksista, myös kasvojentunnistukseen liittyen; panee merkille aiemman tutkimuksen, jonka mukaan mahdolliset uudet tunnisteet, kuten iiris- tai kasvojentunnistus, eivät olisi yhtä luotettavia rikosteknisissä yhteyksissä kuin DNA tai sormenjäljet; muistuttaa komissiota siitä, että kaikkien lainsäädäntöehdotusten on perustuttava näyttöön ja että niissä on noudatettava suhteellisuusperiaatetta; kehottaa komissiota laajentamaan Prüm-päätöksen puitteita vain, jos on olemassa vankkaa tieteellistä näyttöä kasvojentunnistuksen luotettavuudesta rikosteknisissä olosuhteissa DNA:han tai sormenjälkiin verrattuna, ja ainoastaan sen jälkeen, kun se on tehnyt kattavan vaikutustenarvioinnin ja Euroopan tietosuojavaltuutetun ja tietosuojaneuvoston suositukset on otettu huomioon;

    30.

    korostaa, että biometristen tietojen käyttö liittyy laajemmin ihmisarvoa koskevan oikeuden periaatteeseen, joka on kaikkien perusoikeuskirjassa taattujen perusoikeuksien pohjana; katsoo, että biometristen tietojen käyttö ja kerääminen etätunnistusta varten, esimerkiksi tekemällä kasvojentunnistusta julkisissa tiloissa ja lentoasemien rajatarkastuksissa käytettävillä automaattisilla rajatarkastusporteilla, voi aiheuttaa perusoikeuksille erityisiä riskejä, jotka saattavat vaihdella huomattavasti käyttötarkoituksesta, asiayhteydestä ja soveltamisalasta riippuen; korostaa lisäksi, että tunnistamistekniikan, kuten silmän liikkeitä ja pupillien koon muutoksia havaitsevien kameroiden, tieteellinen validiteetti lainvalvonnan yhteydessä on kiistanalainen; katsoo, että biometrisen tunnistamisen käyttöä lainvalvonta- ja oikeuslaitoksissa olisi aina pidettävä ”suurena riskinä” ja siksi siihen olisi sovellettava lisävaatimuksia tekoälyä käsittelevän komission korkean tason asiantuntijaryhmän suositusten mukaisesti;

    31.

    on erittäin huolestunut Horisontti 2020 -puiteohjelmasta rahoitetuista tutkimushankkeista, jotka koskevat tekoälyn käyttöönottoa EU:n ulkorajoilla; toteaa, että yksi näistä on iBorderCtrl-hanke, matkustajia profiloiva ”älykäs valheenpaljastusjärjestelmä”, joka perustuu matkustajan ennen matkaa verkkokamerallaan kuvaamaan tietokoneavusteiseen haastatteluun sekä 38 mikroeleen tekoälypohjaiseen analyysiin ja jota testataan Unkarissa, Latviassa ja Kreikassa; kehottaa siksi komissiota toteuttamaan säädösten ja muiden välineiden sekä tarvittaessa rikkomusmenettelyjen avulla kiellon, joka koskee kaikkea sellaista lainvalvontaa varten toteutettua henkilötietojen ja kasvokuvien biometristä käsittelyä, joka johtaa laajamittaiseen valvontaan yleisessä käytössä olevilla paikoilla; kehottaa edelleen komissiota lopettamaan sellaisen biometrisen tutkimuksen tai biometristen sovellusten käyttöönoton tai ohjelmien rahoittamisen, joka voisi tukea summittaista ja laajamittaista valvontaa yleisillä paikoilla; korostaa tässä yhteydessä, että olisi kiinnitettävä erityistä huomiota droonien käyttöön poliisioperaatioissa ja sovellettava tiukkaa kehystä;

    32.

    tukee tekoälyä käsittelevän komission korkean tason asiantuntijaryhmän suosituksia tekoälyä hyödyntävän yksilöiden laajamittaisen pisteyttämisen kieltämisestä; katsoo, että kaikenlainen viranomaisten toteuttama laajamittainen ja normatiivinen kansalaisten pisteyttäminen – erityisesti lainvalvonnan alalla ja oikeuslaitoksissa – johtaa itsemääräämisoikeuden menettämiseen ja vaarantaa syrjimättömyyden periaatteen eikä sitä yleisestikään voida pitää EU:n oikeuteen kirjattujen perusoikeuksien ja varsinkaan ihmisarvon mukaisena;

    33.

    kehottaa lisäämään yleistä avoimuutta tekoälysovellusten käytöstä unionissa, jotta niitä ymmärrettäisiin kattavammin; pyytää jäsenvaltioita toimittamaan kattavat tiedot lainvalvonta- ja oikeusviranomaistensa käyttämistä välineistä, käytössä olevien välineiden tyypeistä, niiden käyttötarkoituksista, niiden soveltamisella käsiteltävien rikosten tyypeistä sekä näitä välineitä kehittäneiden yritysten tai organisaatioiden nimistä; kehottaa lainvalvonta- ja oikeusviranomaisia antamaan yleisölle riittävän avoimesti tietoa tekoälyn ja siihen liittyvien teknologioiden käyttämisestä toimivaltuuksiensa täytäntöönpanossa esimerkiksi julkaisemalla väärien positiivisten ja väärien negatiivisten osuuden kyseisen teknologian tuloksista; pyytää komissiota kokoamaan ja päivittämään tiedot yhteen paikkaan; kehottaa komissiota myös julkaisemaan ja päivittämään tietoja siitä, miten lainvalvonta- ja lainkäyttötehtävistä vastaavat unionin virastot käyttävät tekoälyä; kehottaa Euroopan tietosuojaneuvostoa arvioimaan lainvalvontaviranomaisten ja oikeuslaitoksen käyttämien tekoälyteknologioiden ja -sovellusten laillisuutta;

    34.

    muistuttaa, että tekoälysovelluksia, mukaan lukien oikeus- ja lainvalvontayhteyksissä käytettävät sovellukset, kehitetään koko maailmassa kiivaalla tahdilla; kehottaa kaikkia eurooppalaisia sidosryhmiä, myös jäsenvaltioita ja komissiota, varmistamaan kansainvälisen yhteistyön avulla EU:n ulkopuolisten kumppaneiden osallistumisen, jotta voidaan tiukentaa normeja kansainvälisellä tasolla ja löytää tekoälyn käytölle yhteinen ja täydentävä oikeudellinen ja eettinen kehys erityisesti lainvalvontaa ja oikeuslaitosta varten ja jossa noudatetaan täysimääräisesti perusoikeuskirjaa, EU:n tietosuojasäännöstöä ja laajemminkin ihmisoikeuksia;

    35.

    kehottaa EU:n perusoikeusvirastoa laatimaan yhteistyössä Euroopan tietosuojaneuvoston ja tietosuojavaltuutetun kanssa kattavia suuntaviivoja, suosituksia ja parhaita käytäntöjä, jotta lainvalvonta- ja oikeusviranomaisten käyttöön voidaan täsmentää kriteerit ja edellytykset tekoälysovellusten ja -ratkaisujen kehittämiselle, käytölle ja käyttöönotolle; sitoutuu tekemään tutkimuksen lainvalvontadirektiivin (9) täytäntöönpanosta selvittääkseen, miten henkilötietojen suoja on varmistettu lainvalvonta- ja oikeusviranomaisten käsittelytoimissa, erityisesti kehitettäessä tai otettaessa käyttöön uutta teknologiaa; kehottaa komissiota lisäksi harkitsemaan, tarvitaanko erityisiä lainsäädäntötoimia, jotka koskevat perusteita ja edellytyksiä, joiden mukaisesti lainvalvonta- ja oikeusviranomaiset voivat kehittää, käyttää ja ottaa käyttöön tekoälysovelluksia ja -ratkaisuja;

    36.

    kehottaa puhemiestä välittämään tämän päätöslauselman neuvostolle ja komissiolle.

    (1)  EUVL L 119, 4.5.2016, s. 1.

    (2)  EUVL L 119, 4.5.2016, s. 89.

    (3)  EUVL L 295, 21.11.2018, s. 39.

    (4)  EYVL L 201, 31.7.2002, s. 37.

    (5)  EUVL L 135, 24.5.2016, s. 53.

    (6)  EUVL C 362, 8.9.2021, s. 63.

    (7)  EUVL C 263, 25.7.2018, s. 82.

    (8)  Neuvoston päätös 2008/615/YOS, tehty 23. kesäkuuta 2008, rajatylittävän yhteistyön tehostamisesta erityisesti terrorismin ja rajatylittävän rikollisuuden torjumiseksi (EUVL L 210, 6.8.2008, s. 1).

    (9)  Euroopan parlamentin ja neuvoston direktiivi (EU) 2016/680, annettu 27. huhtikuuta 2016, luonnollisten henkilöiden suojelusta toimivaltaisten viranomaisten suorittamassa henkilötietojen käsittelyssä rikosten ennalta estämistä, tutkimista, paljastamista tai rikoksiin liittyviä syytetoimia tai rikosoikeudellisten seuraamusten täytäntöönpanoa varten sekä näiden tietojen vapaasta liikkuvuudesta ja neuvoston puitepäätöksen 2008/977/YOS kumoamisesta (EUVL L 119, 4.5.2016, s. 89).


    Top