EUROOPAN KOMISSIO
Bryssel 21.4.2021
COM(2021) 206 final
2021/0106(COD)
Ehdotus
EUROOPAN PARLAMENTIN JA NEUVOSTON ASETUS
TEKOÄLYÄ KOSKEVISTA YHDENMUKAISTETUISTA SÄÄNNÖISTÄ (TEKOÄLYSÄÄDÖS) JA TIETTYJEN UNIONIN SÄÄDÖSTEN MUUTTAMISESTA
{SEC(2021) 167 final} - {SWD(2021) 84 final} - {SWD(2021) 85 final}
PERUSTELUT
1.EHDOTUKSEN TAUSTA
1.1.Ehdotuksen perustelut ja tavoitteet
Nämä perustelut liittyvät ehdotukseen asetukseksi tekoälyä koskevista yhdenmukaistetuista säännöistä (tekoälysäädös). Tekoäly on nopeasti kehittyvä teknologiakokonaisuus, joka voi tuottaa monenlaisia taloudellisia ja yhteiskunnallisia hyötyjä kaikilla teollisuudenaloilla ja kaikessa sosiaalisessa toiminnassa. Tekoälyn käyttö voi tukea yhteiskunnallisesti ja ympäristön kannalta suotuisia tuloksia ja tarjota yrityksille ja Euroopan taloudelle keskeisiä kilpailuetuja parantamalla ennakointia, optimoimalla toimintoja ja resurssien kohdentamista ja räätälöimällä palvelujen tarjoamista. Tällaisia toimia tarvitaan erityisesti vaikutuksiltaan merkittävillä aloilla, joita ovat muun muassa ilmastonmuutos, ympäristö ja terveys, julkinen sektori, rahoitusala, liikkuvuus, sisäasiat ja maatalous. Samat tekijät ja tekniikat, jotka tuottavat tekoälyn sosioekonomisia hyötyjä, voivat kuitenkin aiheuttaa myös uusia riskejä tai kielteisiä seurauksia yksilöille tai yhteiskunnalle. Teknologisen muutoksen nopeuden ja mahdollisten haasteiden vuoksi EU on sitoutunut pyrkimään tasapainoiseen lähestymistapaan. On unionin edun mukaista säilyttää EU:n teknologinen johtoasema ja varmistaa, että eurooppalaiset voivat hyötyä unionin arvojen, perusoikeuksien ja periaatteiden mukaisesti kehitetyistä ja toimivista uusista teknologioista.
Tämä ehdotus vastaa poliittiseen sitoumukseen, josta puheenjohtaja Ursula von der Leyenin ilmoitti komission vuosien 2019–2024 poliittisissa suuntaviivoissaan ”Kunnianhimoisempi unioni” ja jonka mukaan komissio aikoo esittää lainsäädäntöä koordinoidusta eurooppalaisesta lähestymistavasta tekoälyn inhimillisiin ja eettisiin vaikutuksiin. Tämän ilmoituksen jälkeen komissio julkaisi 19. helmikuuta 2020 valkoisen kirjan tekoälystä ”Eurooppalainen lähestymistapa huippuosaamiseen ja luottamukseen”. Valkoisessa kirjassa esitetään toimintapoliittisia vaihtoehtoja siitä, miten voidaan saavuttaa kahtalainen tavoite eli edistää tekoälyn käyttöönottoa ja puuttua tämän teknologian tiettyihin käyttötarkoituksiin liittyviin riskeihin. Tällä ehdotuksella pyritään toteuttamaan jälkimmäinen tavoite ehdottamalla oikeudellista kehystä luotettavaa tekoälyä varten luottamuksen ekosysteemi kehittämiseksi. Ehdotus perustuu EU:n arvoihin ja perusoikeuksiin, ja sen tavoitteena on lisätä ihmisen ja muiden käyttäjien luottamusta tekoälypohjaisten ratkaisujen käyttöön ja kannustaa samalla yrityksiä kehittämään niitä. Tekoälyn olisi oltava työväline ihmisille ja hyvää tuottava voima yhteiskunnassa, jonka perimmäisenä tavoitteena on ihmisten hyvinvoinnin lisääminen. Unionin markkinoilla saatavilla olevaa tai muutoin unionissa oleviin ihmisiin vaikuttavaa tekoälyä koskevien sääntöjen olisi sen vuoksi oltava ihmiskeskeisiä, jotta ihmiset voivat luottaa siihen, että teknologiaa käytetään turvallisesti ja lainsäädännön mukaisesti, myös perusoikeuksia kunnioittaen. Komissio käynnisti valkoisen kirjan julkaisemisen jälkeen laajan sidosryhmien kuulemisen. Siihen osallistui suuri joukko sidosryhmiä, jotka kannattivat laajalti sääntelytoimia tekoälyn lisääntyvän käytön aiheuttamien haasteiden ja huolenaiheiden ratkaisemiseksi.
Ehdotuksella vastataan myös Euroopan parlamentin ja Eurooppa-neuvoston nimenomaisiin pyyntöihin. Ne ovat toistuvasti esittäneet lainsäädäntötoimia, joilla varmistetaan tekoälyjärjestelmille hyvin toimivat sisämarkkinat, joilla sekä tekoälyn hyötyjä että sen riskejä käsitellään asianmukaisesti unionin tasolla. Ehdotuksella tuetaan Eurooppa-neuvoston asettamaa tavoitetta, jonka mukaan unionin olisi oltava globaali edelläkävijä turvallisen, luotettavan ja eettisen tekoälyn kehittämisessä, ja varmistetaan eettisten periaatteiden suojelu, kuten Euroopan parlamentti on erityisesti pyytänyt.
Eurooppa-neuvosto totesi lokakuussa 2017, että EU:n on kiireellisesti käsiteltävä tekoälyn kaltaisia uusia suuntauksia, ”samalla kun varmistetaan tietosuojan, digitaalisten oikeuksien ja eettisten normien korkea taso”. Vuonna 2019 antamissaan päätelmissä koordinoidusta suunnitelmasta Euroopassa tuotetun tekoälyn kehittämisestä ja hyödyntämisestä neuvosto korosti lisäksi, että on tärkeää varmistaa, että Euroopan kansalaisten oikeuksia kunnioitetaan täysimääräisesti, ja kehotti arvioimaan uudelleen asiaa koskevaa voimassa olevaa lainsäädäntöä, jotta se vastaisi tekoälyn mukanaan tuomia uusia mahdollisuuksia ja haasteita. Eurooppa-neuvosto on myös kehottanut määrittämään selkeästi, mitä tekoälysovelluksia olisi pidettävä suuririskisinä.
Neuvosto kehotti 21. lokakuuta 2020 antamissaan viimeisimmissä päätelmissään puuttumaan tiettyjen tekoälyjärjestelmien vaikeaselkoisuuteen, monimutkaisuuteen, puolueellisuuteen, tietynasteiseen ennakoimattomuuteen ja osittain autonomiseen käyttäytymiseen, varmistamaan niiden yhteensopivuus perusoikeuksien kanssa ja helpottamaan oikeudellisten sääntöjen täytäntöönpanoa.
Myös Euroopan parlamentti on tehnyt paljon työtä tekoälyn alalla. Se antoi lokakuussa 2020 useita tekoälyä koskevia päätöslauselmia, joissa käsitellään muun muassa etiikkaa, vastuuta ja tekijänoikeuksia. Näitä seurasivat vuonna 2021 päätöslauselmat tekoälystä rikosasioissa sekä koulutuksessa, kulttuurissa ja audiovisuaalialalla. Euroopan parlamentin päätöslauselmassa tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevien eettisten näkökohtien kehyksestä suositetaan erityisesti, että komissio ehdottaa lainsäädäntötoimia tekoälyn tarjoamien mahdollisuuksien hyödyntämiseksi mutta myös eettisten periaatteiden suojelun varmistamiseksi. Päätöslauselmaan sisältyy ehdotus asetukseksi tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä, käyttöönottoa ja käyttöä koskevista eettisistä periaatteista. Puheenjohtaja von der Leyenin poliittisissa suuntaviivoissaan antaman poliittisen sitoumuksen, joka koskee Euroopan parlamentin SEUT-sopimuksen 225 artiklan nojalla hyväksymiä päätöslauselmia, mukaisesti tässä ehdotuksessa otetaan huomioon edellä mainittu Euroopan parlamentin päätöslauselma noudattaen täysimääräisesti suhteellisuus- ja toissijaisuusperiaatetta ja paremman lainsäädännön periaatetta.
Tätä poliittista taustaa vasten komissio ehdottaa tekoälyä koskevaa sääntelykehystä, jolla on seuraavat erityistavoitteet:
·varmistetaan, että unionin markkinoille saatetut ja siellä käytetyt tekoälyjärjestelmät ovat turvallisia ja noudattavat perusoikeuksia ja unionin arvoja koskevaa voimassa olevaa lainsäädäntöä;
·taataan oikeusvarmuus tekoälyyn tehtävien investointien ja innovoinnin helpottamiseksi;
·tehostetaan tekoälyjärjestelmiin sovellettavia perusoikeuksia ja turvallisuusvaatimuksia koskevan voimassa olevan lainsäädännön hallinnointia ja tehokasta täytäntöönpanoa;
·helpotetaan sisämarkkinoiden kehittämistä laillisille, turvallisille ja luotettaville tekoälysovelluksille ja estetään markkinoiden pirstaloituminen.
Näiden tavoitteiden saavuttamiseksi tässä ehdotuksessa esitetään tekoälyyn sovellettava tasapainoinen ja oikeasuhteinen monialainen sääntelytapa, joka rajoittuu niihin vähimmäisvaatimuksiin, jotka ovat tarpeen tekoälyyn liittyvien riskien ja ongelmien käsittelemiseksi, mutta ei tarpeettomasti rajoita tai estä teknologian kehittämistä tai muutoin korota kohtuuttomasti tekoälyratkaisujen markkinoille saattamisen kustannuksia. Ehdotuksella luodaan vankka ja joustava oikeudellinen kehys. Se on yhtäältä kattava ja tulevaisuuden vaatimukset huomioon ottava perustavanlaatuisissa sääntelyvalinnoissaan, mukaan lukien periaatepohjaiset vaatimukset, jotka tekoälyjärjestelmien olisi täytettävä. Toisaalta siinä otetaan käyttöön oikeasuhteinen sääntelyjärjestelmä, joka perustuu tarkasti määriteltyyn riskiperusteiseen sääntelymalliin, joka ei luo tarpeettomia kaupan rajoituksia ja jossa oikeudelliset toimenpiteet räätälöidään niiden konkreettisten tilanteiden mukaan, jotka aiheuttavat perusteltua huolta tai joiden voidaan kohtuudella ennakoida aiheuttavan tällaista huolta lähitulevaisuudessa. Samaan aikaan oikeudelliseen kehykseen sisältyy joustavia mekanismeja, joiden avulla sitä voidaan mukauttaa dynaamisesti teknologian kehityksen ja uusien huolta aiheuttavien tilanteiden mukaan.
Ehdotuksessa esitetään tekoälyjärjestelmien kehittämistä, markkinoille saattamista ja käyttöä unionissa koskevat yhdenmukaistetut säännöt oikeasuhteisen riskiperusteisen lähestymistavan mukaisesti. Siinä ehdotetaan yhtenäistä tulevaisuuden vaatimukset huomioon ottavaa tekoälyn määritelmää. Tietyt erityisen haitalliset tekoälyyn liittyvät käytännöt kielletään unionin arvojen vastaisina, ja tiettyjen biometristen etätunnistusjärjestelmien käytölle lainvalvonnassa ehdotetaan erityisiä rajoituksia ja suojatoimia. Ehdotuksessa esitetään vakaa riskinarviointimenetelmä sellaisten suuririskisten tekoälyjärjestelmien määrittelemiseksi, jotka aiheuttavat merkittäviä riskejä ihmisten terveydelle ja turvallisuudelle tai perusoikeuksille. Näiden tekoälyjärjestelmien on täytettävä luotettavaa tekoälyä koskevat monialaiset pakolliset vaatimukset ja noudatettava vaatimustenmukaisuuden arviointimenettelyjä ennen kuin ne voidaan saattaa unionin markkinoille. Näiden järjestelmien tarjoajille ja käyttäjille asetetaan myös ennakoitavia, oikeasuhteisia ja selkeitä velvoitteita, jotta varmistetaan turvallisuus ja perusoikeuksia suojaavan voimassa olevan lainsäädännön noudattaminen tekoälyjärjestelmien koko elinkaaren ajan. Joillekin erityisille tekoälyjärjestelmille ehdotetaan vain läpinäkyvyyttä koskevia vähimmäisvaatimuksia, erityisesti kun käytetään chattibotteja tai ”syväväärennöksiä”.
Ehdotetut säännöt pannaan täytäntöön jäsenvaltioiden hallintojärjestelmillä jo olemassa olevien rakenteiden pohjalta ja unionin tason yhteistyömekanismilla perustamalla Euroopan tekoälyneuvosto. Lisäksi ehdotetaan lisätoimenpiteitä innovoinnin tukemiseksi, erityisesti tekoälyn sääntelyn testiympäristöjen ja muiden toimenpiteiden avulla, joilla vähennetään sääntelytaakkaa ja tuetaan pieniä ja keskisuuria yrityksiä (pk-yrityksiä) ja startup-yrityksiä.
1.2.Yhdenmukaisuus muiden alaa koskevien politiikkojen säännösten kanssa
Ehdotuksen monialainen luonne edellyttää täyttä yhdenmukaisuutta sellaisilla aloilla sovellettavan unionin voimassa olevan lainsäädännön kanssa, joilla jo käytetään tai todennäköisesti käytetään lähitulevaisuudessa suuririskisiä tekoälyjärjestelmiä.
Lisäksi varmistetaan yhdenmukaisuus EU:n perusoikeuskirjan ja voimassa olevan tietosuojaa, kuluttajansuojaa, syrjimättömyyttä ja sukupuolten tasa-arvoa koskevan unionin johdetun oikeuden kanssa. Ehdotuksella ei rajoiteta yleisen tietosuoja-asetuksen (asetus (EU) 2016/679) eikä lainvalvontatarkoituksessa käsiteltyjen henkilötietojen suojasta annetun direktiivin (direktiivi (EU) 2016/680) soveltamista vaan täydennetään niitä yhdenmukaistetuilla säännöillä, joita sovelletaan tiettyjen suuririskisten tekoälyjärjestelmien suunnitteluun, kehittämiseen ja käyttöön, sekä biometristen etätunnistusjärjestelmien tiettyjä käyttötarkoituksia koskevilla rajoituksilla. Ehdotuksella täydennetään myös syrjimättömyyttä koskevaa voimassa olevaa unionin lainsäädäntöä asettamalla erityisvaatimuksia, joilla pyritään minimoimaan algoritmisen syrjinnän riski, erityisesti tekoälyjärjestelmien kehittämiseen käytettävien datajoukkojen suunnittelun ja laadun osalta. Näitä vaatimuksia täydennetään testausta, riskinhallintaa, dokumentointia ja ihmisen suorittamaa valvontaa koskevilla velvoitteilla tekoälyjärjestelmien koko elinkaaren aikana. Ehdotus ei rajoita unionin kilpailuoikeuden soveltamista.
Sellaisten suuririskisten tekoälyjärjestelmien osalta, jotka ovat tuotteiden turvakomponentteja, tämä ehdotus sisällytetään nykyiseen alakohtaiseen turvallisuuslainsäädäntöön johdonmukaisuuden varmistamiseksi, päällekkäisyyksien välttämiseksi ja lisärasitteiden minimoimiseksi. Erityisesti uuden lainsäädäntökehyksen soveltamisalaan kuuluviin tuotteisiin (esim. koneet, lääkinnälliset laitteet, lelut) liittyvien suuririskisten tekoälyjärjestelmien osalta tässä ehdotuksessa esitettyjen tekoälyjärjestelmiä koskevien vaatimusten noudattaminen tarkistetaan osana nykyisiä vaatimustenmukaisuuden arviointimenettelyjä, joista säädetään asiaa koskevassa uuden lainsäädäntökehyksen mukaisessa lainsäädännössä. Vaatimusten vuorovaikutuksen osalta voidaan todeta, että vaikka tekoälyjärjestelmille ominaiset turvallisuusriskit on tarkoitus kattaa tämän ehdotuksen vaatimuksilla, uuden lainsäädäntökehyksen mukaisella lainsäädännöllä pyritään varmistamaan lopputuotteen yleinen turvallisuus, minkä vuoksi siihen voi sisältyä erityisiä vaatimuksia, jotka koskevat tekoälyjärjestelmän turvallista liittämistä lopputuotteeseen. Ehdotus koneita koskevaksi asetukseksi, joka hyväksytään samana päivänä kuin tämä ehdotus, vastaa täysin tätä lähestymistapaa. Tätä ehdotusta ei sovelleta suoraan suuririskisiin tekoälyjärjestelmiin, jotka liittyvät vanhan lähestymistavan mukaisen lainsäädännön soveltamisalaan kuuluviin tuotteisiin (esim. ilmailu, autot). Tässä ehdotuksessa esitetyt suuririskisiä tekoälyjärjestelmiä koskevat olennaiset ennakkovaatimukset on kuitenkin otettava huomioon, kun hyväksytään asiaankuuluvaa täytäntöönpano- tai delegoitua lainsäädäntöä kyseisten säädösten nojalla.
Jotta voidaan varmistaa tässä ehdotuksessa esitettyjen velvoitteiden ja rahoituspalveluja koskevan unionin lainsäädännön mukaisten velvoitteiden johdonmukainen täytäntöönpano, rahoituspalvelulainsäädännön valvonnasta vastaavat viranomaiset olisi nimettävä toimivaltaisiksi viranomaisiksi valvomaan tässä ehdotuksessa esitettyjen vaatimusten noudattamista säänneltyjen luottolaitosten tarjoamien tai käyttämien tekoälyjärjestelmien osalta, kun tekoälyjärjestelmiä säännellään jossain määrin epäsuorasti luottolaitosten sisäisen hallinnointi- ja ohjausjärjestelmän yhteydessä. Johdonmukaisuuden lisäämiseksi edelleen vaatimustenmukaisuuden arviointimenettely ja jotkin tämän ehdotuksen mukaiset tarjoajien menettelylliset velvoitteet sisällytetään oikeudesta harjoittaa luottolaitostoimintaa ja vakavaraisuusvalvonnasta annetun direktiivin 2013/36/EU mukaisiin menettelyihin.
Tämä ehdotus on johdonmukainen myös palveluja koskevan sovellettavan unionin lainsäädännön kanssa, mukaan lukien sähköistä kaupankäyntiä koskevalla direktiivillä 2000/31/EY säännellyt välityspalvelut ja komission äskettäin antama ehdotus digitaalisia palveluja koskevaksi säädökseksi.
Sellaisten tekoälyjärjestelmien osalta, jotka ovat vapauden, turvallisuuden ja oikeuden alueen laaja-alaisten tietojärjestelmien komponentteja ja joita hallinnoi laaja-alaisten tietojärjestelmien operatiivisesta hallinnoinnista vastaava Euroopan unionin virasto (eu-LISA), ehdotusta ei sovelleta niihin tekoälyjärjestelmiin, jotka on saatettu markkinoille tai otettu käyttöön ennen kuin yksi vuosi on kulunut tämän asetuksen soveltamispäivästä, paitsi jos laaja-alaisia tietojärjestelmiä koskevien säädösten korvaaminen tai muuttaminen aiheuttaa merkittävän muutoksen kyseisen tekoälyjärjestelmän tai kyseisten tekoälyjärjestelmien rakenteessa tai käyttötarkoituksessa.
1.3.Yhdenmukaisuus unionin muiden politiikkojen kanssa
Ehdotus on osa laajempaa kattavaa toimenpidepakettia, jolla puututaan tekoälyn kehittämisen ja käytön aiheuttamiin ongelmiin, kuten tekoälyä koskevassa valkoisessa kirjassa on esitetty. Sen vuoksi varmistetaan johdonmukaisuus ja täydentävyys komission muiden käynnissä olevien tai suunniteltujen aloitteiden kanssa, joilla pyritään myös puuttumaan näihin ongelmiin, mukaan lukien alakohtaisen tuotelainsäädännön (esim. konedirektiivin ja yleistä tuoteturvallisuutta koskevan direktiivin) tarkistaminen sekä aloitteet, joissa käsitellään uusiin teknologioihin, myös tekoälyjärjestelmiin, liittyviä vastuukysymyksiä. Nämä aloitteet perustuvat tähän ehdotukseen ja täydentävät sitä oikeudellisen selkeyden lisäämiseksi ja tekoälyyn kohdistuvan luottamuksen ekosysteemin kehittämiseksi Euroopassa.
Ehdotus on myös komission yleisen digitaalistrategian mukainen, koska sillä edistetään ihmisen hyväksi toimivaa teknologiaa, joka on yksi tiedonannossa ”Euroopan digitaalista tulevaisuutta rakentamassa” esitettyjen poliittisten suuntaviivojen ja tavoitteiden kolmesta pääpilarista. Siinä vahvistetaan johdonmukaiset, tehokkaat ja oikeasuhteiset puitteet sen varmistamiseksi, että tekoälyä kehitetään tavalla, jolla kunnioitetaan ihmisten oikeuksia ja ansaitaan heidän luottamuksensa. Näin kehitetään Euroopan digitaalista valmiutta ja tehdään seuraavasta vuosikymmenestä digitaalinen vuosikymmenen.
Tekoälyvetoisen innovoinnin edistäminen liittyy myös läheisesti datahallintosäädökseen, avointa dataa koskevaan direktiiviin ja muihin EU:n datastrategiaan liittyviin aloitteisiin, joilla luodaan datan uudelleenkäyttöä, jakamista ja yhdistämistä varten luotettuja mekanismeja ja palveluja, jotka ovat olennaisen tärkeitä korkealaatuisten datavetoisten tekoälymallien kehittämiseksi.
Ehdotuksella vahvistetaan myös merkittävästi unionin roolia maailmanlaajuisten normien ja standardien muotoilussa ja unionin arvojen ja etujen mukaisen luotettavan tekoälyn edistämisessä. Se luo unionille vahvan perustan lisätä yhteistyötä ulkoisten kumppaneidensa, myös kolmansien maiden, kanssa ja kansainvälisillä foorumeilla tekoälyyn liittyvissä kysymyksissä.
2.OIKEUSPERUSTA, TOISSIJAISUUSPERIAATE JA SUHTEELLISUUSPERIAATE
2.1.Oikeusperusta
Ehdotuksen oikeusperusta on Euroopan unionin toiminnasta tehdyn sopimuksen (SEUT) 114 artikla, jossa määrätään toimenpiteistä sisämarkkinoiden toteuttamisen ja toiminnan varmistamiseksi.
Ehdotus on yksi EU:n digitaalisia sisämarkkinoita koskevan strategian keskeinen osa. Ehdotuksen ensisijaisena tavoitteena on varmistaa sisämarkkinoiden moitteeton toiminta vahvistamalla yhdenmukaistetut säännöt, jotka koskevat erityisesti tekoälyteknologiaa hyödyntävien tai erillisinä tekoälyjärjestelminä tarjottavien tuotteiden ja palvelujen kehittämistä, unionin markkinoille saattamista ja käyttöä. Eräät jäsenvaltiot harkitsevat jo kansallisia sääntöjä sen varmistamiseksi, että tekoäly on turvallista ja että sitä kehitetään ja käytetään perusoikeuksia koskevien velvoitteiden mukaisesti. Tämä johtaa todennäköisesti kahteen pääasialliseen ongelmaan: i) sisämarkkinoiden pirstaloituminen olennaisissa kysymyksissä, jotka koskevat erityisesti tekoälytuotteisiin ja -palveluihin sovellettavia vaatimuksia, niiden markkinoille saattamista, käyttöä, vastuuta ja viranomaisten harjoittamaa valvontaa, ja ii) tekoälyjärjestelmien tarjoajien ja käyttäjien oikeusvarmuuden merkittävä heikkeneminen sen suhteen, miten nykyisiä ja uusia sääntöjä sovelletaan kyseisiin järjestelmiin unionissa. Kun otetaan huomioon tuotteiden ja palvelujen laaja liikkuvuus yli rajojen, nämä kaksi ongelmaa voidaan parhaiten ratkaista EU:n yhdenmukaistamislainsäädännöllä.
Ehdotuksessa määritellään yhteiset pakolliset vaatimukset, joita sovelletaan tiettyjen tekoälyjärjestelmien suunnitteluun ja kehittämiseen ennen niiden saattamista markkinoille ja jotka otetaan konkreettisesti käyttöön yhdenmukaistettujen teknisten standardien avulla. Ehdotuksessa käsitellään myös tilannetta sen jälkeen, kun tekoälyjärjestelmät on saatettu markkinoille, yhdenmukaistamalla jälkiseurannan toteuttamistapa.
Koska ehdotus sisältää joitain yksilöiden suojelua henkilötietojen käsittelyssä koskevia erityissääntöjä, joilla rajoitetaan tekoälyjärjestelmien käyttöä reaaliaikaista biometristä etätunnistusta varten julkisissa tiloissa lainvalvontatarkoituksessa, tämä asetus on aiheellista perustaa kyseisten erityissääntöjen osalta SEUT-sopimuksen 16 artiklaan.
2.2.Toissijaisuusperiaate (jaetun toimivallan osalta)
Tekoälyn luonteeseen kuuluu, että se perustuu usein suuriin ja vaihteleviin datajoukkoihin ja voi olla sulautettu mihin tahansa sisämarkkinoilla vapaasti liikkuvaan tuotteeseen tai palveluun, minkä vuoksi jäsenvaltiot eivät voi yksin tehokkaasti saavuttaa tämän ehdotuksen tavoitteita. Lisäksi mahdollisesti toisistaan eroavien kansallisten sääntöjen tilkkutäkki haittaa tekoälyjärjestelmiin liittyvien tuotteiden ja palvelujen saumatonta liikkuvuutta EU:ssa eikä varmista tehokkaasti turvallisuutta ja unionin perusoikeuksien ja arvojen suojelua eri jäsenvaltioissa. Kansalliset lähestymistavat ongelmien ratkaisemiseksi luovat vain lisää oikeudellista epävarmuutta ja esteitä ja hidastavat tekoälyn käyttöönottoa markkinoilla.
Tämän ehdotuksen tavoitteet voidaan saavuttaa paremmin unionin tasolla, jotta vältetään sisämarkkinoiden pirstaloituminen mahdollisesti ristiriitaisiin kansallisiin osiin, jotka estävät tekoälyä hyödyntävien tavaroiden ja palvelujen vapaan liikkuvuuden. Luotettavaa tekoälyä koskeva vankka eurooppalainen sääntelykehys varmistaa myös tasapuoliset toimintaedellytykset ja suojelee kaikkia ihmisiä ja vahvistaa samalla Euroopan kilpailukykyä ja teollista perustaa tekoälyn alalla. Ainoastaan unionin tason yhteisillä toimilla voidaan myös suojella unionin digitaalista suvereniteettia ja hyödyntää sen välineitä ja sääntelyvaltuuksia maailmanlaajuisten sääntöjen ja standardien muotoilussa.
2.3.Suhteellisuusperiaate
Ehdotus perustuu nykyisiin oikeudellisiin kehyksiin ja on oikeasuhteinen ja tarpeellinen sen tavoitteiden saavuttamiseksi, koska siinä noudatetaan riskiperusteista lähestymistapaa ja asetetaan sääntelyrasitteita vain silloin, kun tekoälyjärjestelmä todennäköisesti aiheuttaa suuria riskejä perusoikeuksille ja turvallisuudelle. Muille kuin suuririskisille tekoälyjärjestelmille asetetaan vain hyvin rajoitetut läpinäkyvyysvelvoitteet, jotka koskevat esimerkiksi ilmoittamista tekoälyjärjestelmän käytöstä silloin, kun se on vuorovaikutuksessa ihmisten kanssa. Suuririskisten tekoälyjärjestelmien osalta vaatimukset, jotka koskevat korkealaatuista dataa, dokumentointia ja jäljitettävyyttä, läpinäkyvyyttä, ihmisen suorittamaa valvontaa sekä tarkkuutta ja varmuutta, ovat ehdottoman välttämättömiä niiden riskien lieventämiseksi, joita tekoälystä aiheutuu perusoikeuksille ja turvallisuudelle ja joita muut voimassa olevat oikeudelliset kehykset eivät kata. Yhdenmukaistetut standardit ja niitä tukevat ohjeet ja vaatimustenmukaisuuden valvontavälineet auttavat tarjoajia ja käyttäjiä noudattamaan ehdotuksessa asetettuja vaatimuksia ja minimoivat niiden kustannukset. Toimijoille aiheutuvat kustannukset ovat oikeassa suhteessa asetettuihin tavoitteisiin ja niihin taloudellisiin ja mainehyötyihin, joita toimijat voivat odottaa tästä ehdotuksesta.
2.4.Toimintatavan valinta
Asetuksen valinta oikeudelliseksi välineeksi on perusteltua, koska uusia sääntöjä, kuten tekoälyn määritelmää, tiettyjen haitallisten tekoälyä hyödyntävien käytäntöjen kieltämistä ja tiettyjen tekoälyjärjestelmien luokittelua, on sovellettava yhdenmukaisesti. Asetuksen suora sovellettavuus SEUT 288 artiklan mukaisesti vähentää oikeudellista hajanaisuutta ja helpottaa laillisten, turvallisten ja luotettavien tekoälyjärjestelmien sisämarkkinoiden kehittämistä. Tämä tapahtuu erityisesti ottamalla käyttöön yhdenmukaistetut keskeiset vaatimukset, jotka koskevat suuririskisiksi luokiteltuja tekoälyjärjestelmiä, ja kyseisten järjestelmien tarjoajia ja käyttäjiä koskevat velvoitteet, parantamalla perusoikeuksien suojelua ja tarjoamalla oikeusvarmuutta sekä toimijoille että kuluttajille.
Asetuksen säännökset eivät kuitenkaan ole liian ohjailevia, ja niissä jätetään tilaa jäsenvaltioiden eri tasoilla toteutettaville toimille sellaisten seikkojen osalta, jotka eivät vaaranna aloitteen tavoitteiden saavuttamista. Tämä koskee erityisesti markkinavalvontajärjestelmän sisäistä organisointia ja innovointia edistävien toimenpiteiden käyttöönottoa.
3.JÄLKIARVIOINTIEN, SIDOSRYHMIEN KUULEMISTEN JA VAIKUTUSTENARVIOINTIEN TULOKSET
3.1.Sidosryhmien kuuleminen
Ehdotus on tulosta kaikkien tärkeimpien sidosryhmien laajasta kuulemisesta, jossa on noudatettu komission konsultointiprosessiin sovellettavia yleisiä periaatteita ja vähimmäisvaatimuksia.
Julkinen verkkokuuleminen käynnistettiin 19. helmikuuta 2020 tekoälyä koskevan valkoisen kirjan julkaisemisen yhteydessä, ja se oli avoin 14. kesäkuuta 2020 asti. Kuulemisen tavoitteena oli kerätä näkemyksiä ja mielipiteitä valkoisesta kirjasta. Se oli kohdistettu kaikille asiasta kiinnostuneille julkisen ja yksityisen sektorin sidosryhmille, kuten hallituksille, paikallisviranomaisille, kaupallisille ja ei-kaupallisille järjestöille, työmarkkinaosapuolille, asiantuntijoille, tutkijoille ja yksityishenkilöille. Analysoituaan saadut vastaukset komissio julkaisi tiivistelmän tuloksista ja yksittäiset vastaukset verkkosivustollaan.
Vastauksia saatiin yhteensä 1 215, joista 352 oli yrityksiltä tai liike-elämän järjestöiltä, 406 yksityishenkilöiltä (92 % yksityishenkilöistä EU:sta), 152 korkeakouluilta tai tutkimuslaitoksilta ja 73 viranomaisilta. Kansalaisyhteiskunnan ääntä edusti 160 vastaajaa (9 kuluttajajärjestöä, 129 kansalaisjärjestöä ja 22 ammattiliittoa), 72 vastaajaa osallistui ”muina”. Yritysten ja teollisuuden 352 edustajasta 222 oli yrityksiä ja liike-elämän edustajia, joista 41,5 prosenttia oli mikroyrityksiä sekä pieniä ja keskisuuria yrityksiä. Loput olivat elinkeinoelämän järjestöjä. Kaiken kaikkiaan 84 prosenttia yritysten ja teollisuuden vastauksista tuli EU-27:stä. Kysymyksestä riippuen 81–598 vastaajaa käytti mahdollisuutta esittää huomautuksia vapaamuotoisella tekstillä. EU Survey -verkkosivuston kautta toimitettiin yli 450 kannanottoa joko kyselyvastausten liitteinä (yli 400) tai erillisinä kannanottoina (yli 50).
Sidosryhmät ovat yleisesti yhtä mieltä toimien tarpeesta. Sidosryhmien suuri enemmistö on samaa mieltä siitä, että lainsäädännössä on aukkoja tai että tarvitaan uutta lainsäädäntöä. Useat sidosryhmät kuitenkin varoittavat komissiota välttämään päällekkäisyyksiä, ristiriitaisia velvoitteita ja ylisääntelyä. Useissa kommenteissa korostettiin teknologianeutraalin ja oikeasuhteisen sääntelykehyksen merkitystä.
Sidosryhmät pyysivät enimmäkseen kapeaa, selkeää ja täsmällistä tekoälyn määritelmää. Sidosryhmät korostivat myös, että tekoälyn käsitteen selventämisen lisäksi on tärkeää määritellä käsitteet ’riski’, ’suuririskinen’, ’vähäriskinen’, ’biometrinen etätunnistus’ ja ’vahinko’.
Useimmat vastaajat kannattavat nimenomaisesti riskiperusteista lähestymistapaa. Riskiperusteisen kehyksen käyttöä pidettiin parempana vaihtoehtona kuin kaikkien tekoälyjärjestelmien yleistä sääntelyä. Riskien ja uhkien tyyppien olisi perustuttava alakohtaiseen ja tapauskohtaiseen lähestymistapaan. Riskien arvioinnissa olisi otettava huomioon myös vaikutukset oikeuksiin ja turvallisuuteen.
Sääntelyn testiympäristöt voisivat olla erittäin hyödyllisiä tekoälyn edistämisessä, ja tietyt sidosryhmät, erityisesti liike-elämän järjestöt, suhtautuvat niihin myönteisesti.
Niistä, jotka esittivät kantansa täytäntöönpanomalleista, yli 50 prosenttia, erityisesti elinkeinoelämän järjestöistä, kannatti riskien omaehtoisen ennakkoarvioinnin ja suuririskisten tekoälyjärjestelmien jälkikäteisvalvonnan yhdistelmää.
3.2.Asiantuntijatiedon keruu ja käyttö
Ehdotus perustuu kahden vuoden analyysiin ja sidosryhmien, kuten tutkijoiden, yritysten, työmarkkinaosapuolten, kansalaisjärjestöjen, jäsenvaltioiden ja kansalaisten, tiiviiseen osallistumiseen. Valmistelutyöt aloitettiin vuonna 2018 perustamalla tekoälyä käsittelevä korkean tason asiantuntijaryhmä. Siinä oli mukana 52 tunnettua asiantuntijaa, joiden tehtävänä oli neuvoa komissiota sen tekoälystrategian täytäntöönpanossa. Komissio antoi huhtikuussa 2019 tukensa keskeisille vaatimuksille, jotka esitettiin luotettavaa tekoälyä koskevissa korkean tason asiantuntijaryhmän eettisissä ohjeissa. Ohjeissa oli otettu huomioon yli 500 sidosryhmien kannanottoa. Keskeiset vaatimukset heijastavat laajalle levinnyttä ja yleistä lähestymistapaa, josta on osoituksena monien yksityisten ja julkisten organisaatioiden Euroopassa ja muualla kehittämien eettisten sääntöjen ja periaatteiden suuri määrä ja jonka mukaan tekoälyn kehittämistä ja käyttöä olisi ohjattava tiettyjen keskeisten arvokeskeisten periaatteiden mukaisesti. Luotettavan tekoälyn arviointiluettelon (ALTAI) avulla nämä vaatimukset otettiin käyttöön pilottiprosessissa, johon osallistui yli 350 organisaatiota.
Lisäksi perustettiin tekoälyallianssi foorumiksi, jolla noin 4 000 sidosryhmää voi keskustella tekoälyn teknologisista ja yhteiskunnallisista vaikutuksista ja joka huipentuu vuosittaiseen tekoälyä käsittelevään yleiskokoukseen.
Tätä osallistavaa lähestymistapaa kehitettiin edelleen tekoälyä koskevassa valkoisessa kirjassa, jonka pohjalta saatiin kommentteja yli 1 250 sidosryhmältä, mukaan lukien yli 450 uutta kannanottoa. Komissio julkaisi tältä pohjalta alustavan vaikutustenarvioinnin, josta puolestaan saatiin yli 130 kommenttia. Lisäksi järjestettiin muita sidosryhmien työpajoja ja tapahtumia, joiden tulokset tukevat vaikutustenarvioinnissa tehtyä analyysia ja tässä ehdotuksessa tehtyjä toimintapoliittisia valintoja. Vaikutustenarviointia varten teetettiin myös ulkoinen tutkimus.
3.3.Vaikutustenarviointi
Sääntelyn parantamista koskevan politiikkansa mukaisesti komissio teki tätä ehdotusta koskevan vaikutustenarvioinnin, jota komission sääntelyntarkastelulautakunta tarkasteli. Sääntelyntarkastelulautakunnan kanssa pidettiin kokous 16. joulukuuta 2020, minkä jälkeen se antoi kielteisen lausunnon. Kun vaikutustenarviointia oli tarkistettu huomattavasti huomautusten huomioon ottamiseksi ja vaikutustenarviointi oli toimitettu uudelleen, sääntelyntarkastelulautakunta antoi asiasta myönteisen lausunnon 21. maaliskuuta 2021. Sääntelyntarkastelulautakunnan lausunnot, suositukset ja selvitys siitä, miten ne on otettu huomioon, esitetään vaikutustenarvioinnin liitteessä 1.
Komissio tarkasteli eri toimintavaihtoehtoja ehdotuksen yleisen tavoitteen saavuttamiseksi eli sisämarkkinoiden moitteettoman toiminnan varmistamiseksi luomalla edellytykset luotettavan tekoälyn kehittämiselle ja käytölle unionissa.
Arvioinnissa arvioitiin neljää eriasteista sääntelyä koskevaa toimintavaihtoehtoa:
·Vaihtoehto 1: EU:n säädös vapaaehtoisen merkintäjärjestelmän perustamisesta;
·Vaihtoehto 2: alakohtainen ja tapauskohtainen lähestymistapa;
·Vaihtoehto 3: monialainen EU:n säädös, joka perustuu oikeasuhteiseen riskiperusteiseen lähestymistapaan;
·Vaihtoehto 3+: monialainen EU:n säädös, joka perustuu oikeasuhteiseen riskiperusteiseen lähestymistapaan + muita kuin suuririskisiä tekoälyjärjestelmiä koskevat käytännesäännöt;
·Vaihtoehto 4: monialainen EU:n säädös, jossa asetetaan pakolliset vaatimukset kaikille tekoälyjärjestelmille niiden aiheuttamasta riskistä riippumatta.
Komission vakiintuneen menetelmän mukaan kutakin toimintavaihtoehtoa arvioitiin taloudellisten ja yhteiskunnallisten vaikutusten perusteella keskittyen erityisesti perusoikeuksiin kohdistuviin vaikutuksiin. Parhaaksi arvioitu vaihtoehto on vaihtoehto 3+ eli ainoastaan suuririskisiä tekoälyjärjestelmiä koskeva sääntelykehys sekä kaikkien muiden kuin suuririskisten tekoälyjärjestelmien tarjoajien mahdollisuus noudattaa käytännesääntöjä. Vaatimukset koskevat dataa, dokumentointia ja jäljitettävyyttä, tietojen antamista ja läpinäkyvyyttä, ihmisen suorittamaa valvontaa sekä luotettavuutta ja tarkkuutta, ja ne olisivat pakollisia suuririskisille tekoälyjärjestelmille. Yritykset, jotka ottavat käyttöön muita tekoälyjärjestelmiä koskevia käytännesääntöjä, tekisivät niin vapaaehtoisesti.
Parhaaksi arvioitu vaihtoehto katsottiin tehokkaimmaksi tavaksi saavuttaa ehdotuksen tavoitteet. Koska parhaaksi arvioitu vaihtoehto edellyttää tekoälyn kehittäjiltä ja käyttäjiltä rajoitettua mutta tehokasta toimenpidekokonaisuutta, se rajoittaa perusoikeuksien ja ihmisten turvallisuuden loukkauksiin liittyviä riskejä ja edistää tehokasta valvontaa ja täytäntöönpanoa kohdistamalla vaatimukset vain järjestelmiin, joihin liittyy suuri riski siitä, että tällaisia loukkauksia voi tapahtua. Näin ollen tässä vaihtoehdossa säännösten noudattamisesta aiheutuvat kustannukset pidetään mahdollisimman pieninä, jolloin vältetään tekoälyn käyttöönoton tarpeeton hidastuminen korkeampien hintojen ja noudattamiskustannusten vuoksi. Jotta voidaan puuttua pk-yrityksille mahdollisesti aiheutuviin haittoihin, tähän vaihtoehtoon sisältyy useita säännöksiä, joilla tuetaan pk-yritysten vaatimustenmukaisuutta ja vähennetään niiden kustannuksia, mukaan lukien sääntelyn testiympäristöjen luominen ja velvoite ottaa pk-yritysten edut huomioon vaatimustenmukaisuuden arviointiin liittyviä maksuja asetettaessa.
Parhaaksi arvioitu vaihtoehto lisää ihmisten luottamusta tekoälyyn, yritykset saavat lisää oikeusvarmuutta, eikä jäsenvaltioilla ole mitään syytä ryhtyä yksipuolisiin toimiin, jotka voisivat pirstaloida sisämarkkinoita. Tekoälyn sisämarkkinat todennäköisesti kukoistavat, kun lisääntynyt luottamus kasvattaa kysyntää, saatavilla olevat tarjoukset lisääntyvät paremman oikeusvarmuuden myötä eikä tekoälyjärjestelmien rajat ylittävälle liikkuvuudelle ole esteitä. Euroopan unioni jatkaa nopeasti kasvavan tekoälyn ekosysteemin kehittämistä tekoälyteknologiaa sisältäville tai erillisinä tekoälyjärjestelminä tarjottaville innovatiivisille palveluille ja tuotteille, mikä lisää digitaalista riippumattomuutta.
Yritysten tai viranomaisten, jotka kehittävät tai käyttävät tekoälysovelluksia, jotka aiheuttavat suuren riskin kansalaisten turvallisuudelle tai perusoikeuksille, olisi noudatettava erityisiä vaatimuksia ja velvoitteita. Näiden vaatimusten noudattamisesta aiheutuisi noin 6 000–7 000 euron kustannukset noin 170 000 euron arvoisen keskimääräisen suuririskisen tekoälyjärjestelmän toimittamisesta vuoteen 2025 mennessä. Tekoälyn käyttäjille aiheutuisi myös vuosittaisia kustannuksia ajasta, joka käytetään ihmisen suorittaman valvonnan varmistamiseen silloin, kun se on asianmukaista käyttötapauksesta riippuen. Niiden arvioidaan olevan noin 5 000–8 000 euroa vuodessa. Todentamiskustannukset voivat olla 3 000–7 500 euroa suuririskisten tekoälyjärjestelmien toimittajille. Yrityksillä tai viranomaisilla, jotka kehittävät tai käyttävät tekoälysovelluksia, joita ei ole luokiteltu suuririskisiksi, olisi vain vähäiset tiedonantovelvoitteet. Ne voisivat kuitenkin halutessaan liittyä yhteen ja ottaa yhdessä käyttöön käytännesäännöt noudattaakseen soveltuvia vaatimuksia ja varmistaakseen, että niiden tekoälyjärjestelmät ovat luotettavia. Tällaisessa tapauksessa kustannukset olisivat enintään yhtä suuret kuin suuririskisillä tekoälyjärjestelmillä, mutta todennäköisimmin alhaisemmat.
Toimintavaihtoehtojen vaikutukset eri sidosryhmiin (talouden toimijat/yritykset; vaatimustenmukaisuuden arviointilaitokset, standardointielimet ja muut julkiset elimet; yksityishenkilöt/kansalaiset; tutkijat) selostetaan yksityiskohtaisesti tätä ehdotusta tukevan vaikutustenarvioinnin liitteessä 3.
3.4.Sääntelyn toimivuus ja yksinkertaistaminen
Tässä ehdotuksessa asetetaan velvoite, jota sovelletaan suuririskisten tekoälyjärjestelmien tarjoajiin ja käyttäjiin. Se luo oikeusvarmuutta tarjoajille, jotka kehittävät tällaisia järjestelmiä ja saattavat niitä unionin markkinoille, ja varmistaa, että tekoälyyn liittyvien palvelujen ja tuotteiden rajat ylittävälle tarjoamiselle ei aiheudu esteitä. Tekoälyä käyttävien yritysten kannalta se lisää luottamusta näiden yritysten asiakkaiden keskuudessa. Kansallisten julkishallintojen kannalta se edistää yleistä luottamusta tekoälyn käyttöön ja vahvistaa täytäntöönpanomekanismeja (ottamalla käyttöön eurooppalainen koordinointimekanismi, tarjoamalla asianmukaiset valmiudet ja helpottamalla tekoälyjärjestelmien auditointeja uusilla dokumentointia, jäljitettävyyttä ja läpinäkyvyyttä koskevilla vaatimuksilla). Lisäksi kehyksessä esitetään erityisiä toimenpiteitä innovoinnin tukemiseksi, mukaan lukien sääntelyn testiympäristöt, ja erityisiä toimenpiteitä, joilla tuetaan pieniä käyttäjiä ja suuririskisten tekoälyjärjestelmien tarjoajia uusien sääntöjen noudattamisessa.
Ehdotuksella pyritään myös erityisesti vahvistamaan Euroopan kilpailukykyä ja teollista perustaa tekoälyn alalla. Siinä varmistetaan täysi yhdenmukaisuus tekoälyjärjestelmiin (esim. tuotteisiin ja palveluihin) sovellettavan unionin alakohtaisen lainsäädännön kanssa, mikä lisää selkeyttä ja yksinkertaistaa uusien sääntöjen täytäntöönpanoa.
3.5.Perusoikeudet
Tekoälyn käyttö ja siihen liittyvät erityispiirteet (esim. läpinäkymättömyys, monimutkaisuus, riippuvuus datasta, autonominen käyttäytyminen) voivat vaikuttaa kielteisesti useisiin EU:n perusoikeuskirjassa vahvistettuihin perusoikeuksiin. Tällä ehdotuksella pyritään varmistamaan perusoikeuksien suojelun korkea taso ja puuttumaan eri riskilähteisiin selkeästi määritellyn riskiperusteisen lähestymistavan avulla. Ehdotuksella parannetaan ja edistetään perusoikeuskirjassa suojattujen oikeuksien suojelua, koska siinä vahvistetaan luotettavaa tekoälyä koskevat vaatimukset ja asetetaan oikeasuhteiset velvoitteet kaikille arvoketjun toimijoille. Näitä suojeltavia oikeuksia ovat oikeus ihmisarvoon (1 artikla), yksityiselämän kunnioittaminen ja henkilötietojen suoja (7 ja 8 artikla), syrjimättömyys (21 artikla) sekä naisten ja miesten tasa-arvo (23 artikla). Ehdotuksella pyritään estämään lamaannuttava vaikutus sananvapauteen (11 artikla) ja kokoontumisvapauteen (12 artikla) ja varmistamaan oikeus tehokkaisiin oikeussuojakeinoihin ja puolueettomaan tuomioistuimeen, puolustautumisoikeus ja syyttömyysolettama (47 ja 48 artikla) sekä hyvän hallinnon yleinen periaate. Lisäksi ehdotus, siten kuin sitä sovelletaan tietyillä aloilla, vaikuttaa myönteisesti tiettyjen erityisryhmien oikeuksiin, kuten työntekijöiden oikeuksiin oikeudenmukaisiin ja kohtuullisiin työoloihin (31 artikla) sekä korkeatasoiseen kuluttajansuojaan (28 artikla), lapsen oikeuksiin (24 artikla) ja vammaisten integroitumiseen (26 artikla). Myös oikeus ympäristönsuojelun korkeaan tasoon ja ympäristön laadun parantamiseen (37 artikla) on merkityksellinen ihmisten terveyden ja turvallisuuden kannalta. Ennakkotestausta, riskinhallintaa ja ihmisen suorittamaa valvontaa koskevat velvoitteet helpottavat myös muiden perusoikeuksien kunnioittamista minimoimalla virheellisten tai vinoutuneiden tekoälyavusteisten päätösten riskin kriittisillä aloilla, joita ovat esimerkiksi koulutus, työllisyys, tärkeät palvelut, lainvalvonta ja oikeuslaitos. Jos perusoikeuksia kuitenkin rikotaan, asianomaisten henkilöiden oikeus tehokkaisiin oikeussuojakeinoihin mahdollistetaan varmistamalla tekoälyjärjestelmien läpinäkyvyys ja jäljitettävyys sekä vahvat jälkitarkastukset.
Ehdotuksessa asetetaan joitakin rajoituksia elinkeinovapaudelle (16 artikla) sekä taiteen ja tieteen vapaudelle (13 artikla), jotta varmistetaan yleistä etua koskevien pakottavien syiden, kuten terveyden, turvallisuuden, kuluttajansuojan ja muiden perusoikeuksien suojelun (’vastuullinen innovointi’), noudattaminen, kun suuririskistä tekoälyteknologiaa kehitetään ja käytetään. Nämä rajoitukset ovat oikeasuhteisia ja rajoittuvat siihen, mikä on välttämätöntä vakavien turvallisuusriskien ja todennäköisten perusoikeuksien loukkausten ehkäisemiseksi ja lieventämiseksi.
Läpinäkyvyyttä lisäävät velvoitteet eivät myöskään vaikuta suhteettomasti teollis- ja tekijänoikeuksien suojaa koskevaan oikeuteen (17 artiklan 2 kohta), koska ne rajoittuvat vähimmäistietoihin, jotka ovat tarpeen, jotta yksityishenkilöt voivat käyttää oikeuttaan tehokkaisiin oikeussuojakeinoihin ja jotta valvonta- ja täytäntöönpanoviranomaisia kohtaan taataan tarvittava läpinäkyvyys niiden toimeksiannon mukaisesti. Kaikessa tietojen ilmaisemisessa noudatetaan alan asiaankuuluvaa lainsäädäntöä, mukaan lukien julkistamattoman taitotiedon ja liiketoimintatiedon (liikesalaisuuksien) suojaamisesta laittomalta hankinnalta, käytöltä ja ilmaisemiselta annettu direktiivi 2016/943. Kun viranomaisille ja ilmoitetuille laitoksille on annettava pääsy luottamuksellisiin tietoihin tai lähdekoodiin olennaisten velvoitteiden noudattamisen tutkimiseksi, niille asetetaan sitovat salassapitovelvollisuudet.
4.TALOUSARVIOVAIKUTUKSET
Jäsenvaltioiden on nimettävä valvontaviranomaiset, jotka vastaavat lainsäädännöllisten vaatimusten täytäntöönpanosta. Niiden valvontatehtävässä voitaisiin hyödyntää olemassa olevia järjestelyjä, jotka koskevat esimerkiksi vaatimustenmukaisuuden arviointilaitoksia tai markkinavalvontaa, mutta se edellyttäisi riittävää teknistä asiantuntemusta sekä henkilöresursseja ja taloudellisia resursseja. Kunkin jäsenvaltion olemassa olevasta rakenteesta riippuen tämä voisi merkitä 1–25 kokoaikavastaavaa työntekijää jäsenvaltiota kohti.
Yksityiskohtainen erittely kustannuksista esitetään tähän ehdotukseen liittyvässä rahoitusselvityksessä.
5.LISÄTIEDOT
5.1.Toteuttamissuunnitelmat, seuranta, arviointi ja raportointijärjestelyt
Vankan seuranta- ja arviointimekanismin luominen on ratkaisevan tärkeää sen varmistamiseksi, että ehdotuksella saavutetaan tehokkaasti sen erityistavoitteet. Komissio vastaa ehdotuksen vaikutusten seurannasta. Se perustaa järjestelmän, jolla erilliset suuririskiset tekoälysovellukset rekisteröidään julkiseen EU:n laajuiseen tietokantaan. Rekisteröinnin ansiosta toimivaltaiset viranomaiset, käyttäjät ja muut asiasta kiinnostuneet henkilöt voivat myös tarkistaa, täyttääkö suuririskinen tekoälyjärjestelmä ehdotuksessa esitetyt vaatimukset, ja valvoa tehostetusti niitä tekoälyjärjestelmiä, jotka aiheuttavat suuria riskejä perusoikeuksille. Tietokannan täydentämiseksi tekoälyn tarjoajat velvoitetaan antamaan merkityksellisiä tietoja järjestelmistään ja niiden vaatimustenmukaisuuden arvioinnista.
Lisäksi tekoälyn tarjoajien on ilmoitettava kansallisille toimivaltaisille viranomaisille vakavista vaaratilanteista tai toimintahäiriöistä, jotka rikkovat perusoikeuksia koskevia velvoitteita, heti kun ne saavat tiedon niistä, sekä kaikista tekoälyjärjestelmien takaisinkutsuista tai markkinoilta poistamisista. Tämän jälkeen kansalliset toimivaltaiset viranomaiset tutkivat vaaratilanteet tai toimintahäiriöt, keräävät kaikki tarvittavat tiedot ja toimittavat ne säännöllisesti komissiolle riittävän metadatan kanssa. Komissio täydentää näitä poikkeamia koskevia tietoja tekemällä kattavan analyysin tekoälyn kokonaismarkkinoista.
Komissio julkaisee kertomuksen, jossa arvioidaan ja tarkastellaan uudelleen ehdotettua tekoälykehystä, viiden vuoden kuluttua siitä, kun kehystä aletaan soveltaa.
5.2.Ehdotukseen sisältyvien säännösten yksityiskohtaiset selitykset
5.2.1.SOVELTAMISALA JA MÄÄRITELMÄT (I OSASTO)
I osastossa määritellään asetuksen kohde ja tekoälyjärjestelmien markkinoille saattamista, käyttöönottoa ja käyttöä koskevien uusien sääntöjen soveltamisala. Siinä esitetään myös säädöksessä käytetyt määritelmät. Tekoälyjärjestelmän määritelmästä pyritään tekemään mahdollisimman teknologianeutraali ja tulevaisuuden vaatimukset huomioon ottava, koska tekoälyteknologia ja sen markkinat kehittyvät nopeasti. Tarvittavan oikeusvarmuuden takaamiseksi I osastoa täydennetään liitteellä I, joka sisältää yksityiskohtaisen luettelon tekoälyn kehittämisessä käytetyistä lähestymistavoista ja tekniikoista. Komission mukauttaa luetteloa uuden teknologian kehityksen mukaisesti. Myös tekoälyn arvoketjun keskeiset osallistujat on määritelty selkeästi, kuten tekoälyjärjestelmien tarjoajat ja käyttäjät, jotka kattavat sekä julkiset että yksityiset toimijat tasapuolisten toimintaedellytysten varmistamiseksi.
5.2.2.KIELLETYT TEKOÄLYYN LIITTYVÄT KÄYTÄNNÖT (II OSASTO)
II osastossa esitetään luettelo kielletyistä tekoälyyn liittyvistä käytännöistä. Asetuksessa noudatetaan riskiperusteista lähestymistapaa, jossa erotetaan toisistaan tekoälyn käyttö, joka aiheuttaa i) riskin, joka ei ole hyväksyttävissä, ii) suuren riskin ja iii) vähäisen tai minimaalisen riskin. II osastossa esitetty luettelo kielletyistä käytännöistä kattaa kaikki tekoälyjärjestelmät, joiden käytön katsotaan olevan unionin arvojen vastaista esimerkiksi siksi, että se loukkaa perusoikeuksia. Kielto kattaa käytännöt, jotka tarjoavat merkittäviä mahdollisuuksia manipuloida ihmisiä subliminaalisilla tekniikoilla, joista nämä eivät ole tietoisia, tai käyttää hyväksi tiettyjen haavoittuvien ryhmien, kuten lasten tai vammaisten, haavoittuvuutta, jotta heidän käyttäytymistään voidaan olennaisesti vääristää tavalla, joka todennäköisesti aiheuttaa heille tai toiselle henkilölle psyykkistä tai ruumiillista haittaa. Muut aikuisiin vaikuttavat manipuloivat tai hyväksikäyttävät käytännöt, joita tekoälyjärjestelmät voisivat helpottaa, voisivat kuulua voimassa olevan tietosuojaa, kuluttajansuojaa ja digitaalisia palveluja koskevan lainsäädännön piiriin, jolla taataan, että luonnolliset henkilöt saavat asianmukaista tietoa ja voivat vapaasti päättää olla joutumatta profiloinnin tai muiden käytäntöjen kohteeksi, jotka voivat vaikuttaa heidän käyttäytymiseensä. Ehdotuksessa kielletään myös tekoälyyn perustuva sosiaalinen pisteytys viranomaisten yleisiä tarkoituksia varten. Myös reaaliaikaisten biometristen etätunnistusjärjestelmien käyttö julkisissa tiloissa lainvalvontatarkoituksessa on kielletty tiettyjä rajoitettuja poikkeuksia lukuun ottamatta.
5.2.3.SUURIRISKISET TEKOÄLYJÄRJESTELMÄT (III OSASTO)
III osasto sisältää erityisiä sääntöjä tekoälyjärjestelmille, jotka aiheuttavat suuren riskin luonnollisten henkilöiden terveydelle ja turvallisuudelle tai perusoikeuksille. Riskiperusteisen lähestymistavan mukaisesti nämä suuririskiset tekoälyjärjestelmät ovat sallittuja Euroopan markkinoilla edellyttäen, että ne täyttävät tietyt pakolliset vaatimukset ja niille tehdään vaatimustenmukaisuuden ennakkoarviointi. Tekoälyjärjestelmän luokittelu suuririskiseksi perustuu tekoälyjärjestelmän suunniteltuun käyttötarkoitukseen voimassa olevan tuoteturvallisuuslainsäädännön mukaisesti. Luokittelu suuririskiseksi ei siten riipu ainoastaan tekoälyjärjestelmän toteuttamasta toiminnosta vaan myös siitä erityisestä tarkoituksesta, johon kyseistä järjestelmää käytetään.
III osaston 1 luvussa vahvistetaan luokittelusäännöt ja määritellään kaksi suuririskisten tekoälyjärjestelmien pääluokkaa:
·tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi sellaisten tuotteiden turvakomponentteina, joihin sovelletaan kolmannen osapuolen suorittamaa vaatimustenmukaisuuden ennakkoarviointia;
·muut erilliset tekoälyjärjestelmät, joilla on pääasiassa perusoikeuksiin liittyviä vaikutuksia ja jotka on nimenomaisesti lueteltu liitteessä III.
Liitteessä III oleva luettelo suuririskisistä tekoälyjärjestelmistä sisältää rajallisen määrän tekoälyjärjestelmiä, joiden riskit ovat jo toteutuneet tai todennäköisesti toteutuvat lähitulevaisuudessa. Sen varmistamiseksi, että asetusta voidaan mukauttaa tekoälyn uusiin käyttötarkoituksiin ja sovelluksiin, komissio voi laajentaa tietyillä ennalta määritellyillä alueilla käytettävien suuririskisten tekoälyjärjestelmien luetteloa soveltamalla tiettyjä kriteerejä ja riskinarviointimenetelmiä.
Luvussa 2 vahvistetaan suuririskisiä tekoälyjärjestelmiä koskevat oikeudelliset vaatimukset, jotka koskevat dataa ja datan hallintaa, dokumentointia ja tietojen säilyttämistä, läpinäkyvyyttä ja tietojen antamista käyttäjille, ihmisen suorittamaa valvontaa, luotettavuutta, tarkkuutta ja turvallisuutta. Ehdotetut vähimmäisvaatimukset edustavat jo alan viimeisintä kehitystä monien huolellisten toimijoiden kannalta. Vaatimukset ovat tulosta kahden vuoden valmistelutyöstä ja perustuvat korkean tason asiantuntijaryhmän eettisiin ohjeisiin, joita on pilotoitu yli 350 organisaatiossa. Ne ovat myös pitkälti linjassa muiden kansainvälisten suositusten ja periaatteiden kanssa, millä varmistetaan, että ehdotettu tekoälykehys on yhteensopiva EU:n kansainvälisten kauppakumppaneiden hyväksymien kehysten kanssa. Täsmälliset tekniset ratkaisut näiden vaatimusten täyttämiseksi voidaan antaa standardeilla tai muilla teknisillä eritelmillä tai kehittää muulla tavoin yleisen teknisen tai tieteellisen tietämyksen mukaisesti tekoälyjärjestelmän tarjoajan harkinnan mukaan. Tämä joustavuus on erityisen tärkeää, koska se antaa tekoälyjärjestelmien tarjoajille mahdollisuuden valita, miten ne täyttävät vaatimuksensa, kun otetaan huomioon teknologian ja tieteen viimeisin kehitys tällä alalla.
Luvussa 3 asetetaan suuririskisten tekoälyjärjestelmien tarjoajille selkeät monialaiset velvoitteet. Myös käyttäjille ja muille tekoälyn arvoketjun osapuolille (esim. maahantuojille, jakelijoille ja valtuutetuille edustajille) asetetaan oikeasuhteisia velvoitteita.
Luvussa 4 vahvistetaan puitteet ilmoitetuille laitoksille, jotka voivat osallistua riippumattomina kolmansina osapuolina vaatimustenmukaisuuden arviointimenettelyihin, ja luvussa 5 esitetään yksityiskohtaisesti vaatimustenmukaisuuden arviointimenettelyt, joita on noudatettava kunkin suuririskisen tekoälyjärjestelmän tyypin osalta. Vaatimustenmukaisuuden arviointiin perustuvalla lähestymistavalla pyritään minimoimaan rasite, joka aiheutuu talouden toimijoille sekä ilmoitetuille laitoksille, joiden kapasiteettia on asteittain lisättävä ajan mittaan. Tekoälyjärjestelmiin, jotka on tarkoitettu käytettäviksi uuden lainsäädäntökehyksen nojalla säänneltyjen tuotteiden (esim. koneet, lelut, lääkinnälliset laitteet jne.) turvakomponentteina, sovelletaan samoja ennakko- ja jälkikäteisvalvontamekanismeja kuin tuotteisiin, joiden komponentteja ne ovat. Tärkein ero on se, että ennakko- ja jälkikäteismekanismeilla varmistetaan paitsi alakohtaisessa lainsäädännössä vahvistettujen vaatimusten myös tässä asetuksessa vahvistettujen vaatimusten noudattaminen.
Liitteessä III tarkoitettujen erillisten suuririskisten tekoälyjärjestelmien osalta perustetaan uusi vaatimustenmukaisuus- ja täytäntöönpanojärjestelmä. Tämä noudattaa uuden lainsäädäntökehyksen mukaista mallia, jossa lainsäädäntö pannaan täytäntöön tarjoajien tekemillä sisäisillä tarkastuksilla, lukuun ottamatta biometrisiä etätunnistusjärjestelmiä, joihin sovellettaisiin kolmannen osapuolen suorittamaa vaatimustenmukaisuuden arviointia. Kattava vaatimustenmukaisuuden ennakkoarviointi sisäisten tarkastusten avulla yhdistettynä vahvaan jälkikäteisvalvontaan voisi olla tehokas ja järkevä ratkaisu näille järjestelmille, kun otetaan huomioon, että sääntelytoimia ollaan vasta aloittamassa, sekä se, että tekoälyala on hyvin innovatiivinen ja tarkastuksissa tarvittava asiantuntemus on vasta kertymässä. Sisäisten tarkastusten avulla toteutettu erillisten suuririskisten tekoälyjärjestelmien arviointi edellyttäisi kaikkien asetuksen vaatimusten täysimääräistä, tehokasta ja asianmukaisesti dokumentoitua noudattamista etukäteen sekä luotettavien laatu- ja riskinhallintajärjestelmien ja markkinoille saattamisen jälkeisen seurannan noudattamista. Kun tarjoaja on suorittanut asianmukaisen vaatimustenmukaisuuden arvioinnin, sen olisi rekisteröitävä erilliset suuririskiset tekoälyjärjestelmät komission hallinnoimaan EU:n tietokantaan julkisen avoimuuden ja valvonnan lisäämiseksi ja toimivaltaisten viranomaisten suorittaman jälkivalvonnan vahvistamiseksi. Sen sijaan johdonmukaisuus voimassa olevan tuoteturvallisuuslainsäädännön kanssa edellyttää, että tuotteiden turvakomponentteina olevien tekoälyjärjestelmien vaatimustenmukaisuuden arvioinnissa noudatetaan kolmannen osapuolen suorittamia vaatimustenmukaisuuden arviointimenettelyjä, jotka on jo otettu käyttöön asiaankuuluvassa alakohtaisessa tuoteturvallisuuslainsäädännössä. Uusi vaatimustenmukaisuuden arviointi tarvitaan, jos tekoälyjärjestelmiin tehdään merkittäviä muutoksia (ja erityisesti muutoksia, jotka menevät pidemmälle kuin mitä tarjoaja on ennalta määritellyt teknisessä dokumentaatiossa ja jotka tarkastetaan vaatimustenmukaisuuden ennakkoarvioinnin yhteydessä).
5.2.4.TIETTYJÄ TEKOÄLYJÄRJESTELMIÄ KOSKEVAT LÄPINÄKYVYYSVELVOITTEET (IV OSASTO)
IV osasto koskee tiettyjä tekoälyjärjestelmiä, jotta voidaan ottaa huomioon niiden aiheuttamat erityiset manipulointiriskit. Läpinäkyvyysvelvoitteita sovelletaan järjestelmiin, i) jotka ovat vuorovaikutuksessa ihmisten kanssa, ii) joilla havaitaan tunteita tai määritetään yhteys (sosiaalisiin) luokkiin biometristen tietojen perusteella tai iii) joilla tuotetaan tai manipuloidaan sisältöä (’syväväärennökset’). Kun ihmiset ovat vuorovaikutuksessa tekoälyjärjestelmän kanssa tai heidän tunteitaan tai ominaisuuksiaan tunnistetaan automatisoidusti, heille on ilmoitettava tästä. Jos tekoälyjärjestelmää käytetään tuottamaan tai manipuloimaan kuva-, ääni- tai videosisältöä, joka selvästi muistuttaa aitoa sisältöä, olisi oltava velvollisuus ilmoittaa, että sisältö on tuotettu automatisoiduin keinoin, lukuun ottamatta laillisia tarkoituksia (lainvalvonta, sananvapaus) koskevia poikkeuksia. Näin ihmiset voivat tehdä tietoon perustuvia valintoja tai vetäytyä tietystä tilanteesta.
5.2.5.INNOVOINTIA TUKEVAT TOIMENPITEET (V OSASTO)
V osasto edistää tavoitetta luoda oikeudellinen kehys, joka on innovaatiomyönteinen, tulevaisuuden vaatimukset huomioon ottava ja häiriönsietokykyinen. Tätä varten siinä kannustetaan kansallisia toimivaltaisia viranomaisia perustamaan sääntelyn testiympäristöjä ja vahvistetaan perusedellytykset hallinnolle, valvonnalle ja vastuuvelvollisuudelle. Tekoälyn sääntelyn testiympäristöillä luodaan valvottu ympäristö, jossa innovatiivisia teknologioita voidaan testata rajoitetun ajan toimivaltaisten viranomaisten kanssa sovitun testaussuunnitelman pohjalta. V osasto sisältää myös toimenpiteitä pk-yritysten ja startup-yritysten sääntelytaakan keventämiseksi.
5.2.6.HALLINTO JA TÄYTÄNTÖÖNPANO (VI, VII JA VIII OSASTO)
VI osastossa perustetaan unionin ja kansallisen tason hallintojärjestelmät. Unionin tasolla ehdotuksella perustetaan Euroopan tekoälyneuvosto, joka koostuu jäsenvaltioiden ja komission edustajista. Tekoälyneuvosto helpottaa tämän asetuksen sujuvaa, tehokasta ja yhdenmukaista täytäntöönpanoa edistämällä kansallisten valvontaviranomaisten ja komission välistä tehokasta yhteistyötä ja antamalla neuvoja ja asiantuntemusta komissiolle. Lisäksi se kerää ja jakaa parhaita käytäntöjä jäsenvaltioiden kesken.
Kansallisella tasolla jäsenvaltioiden on nimettävä yksi tai useampi kansallinen toimivaltainen viranomainen ja niiden joukosta kansallinen valvontaviranomainen valvomaan asetuksen soveltamista ja täytäntöönpanoa. Euroopan tietosuojavaltuutettu toimii toimivaltaisena viranomaisena, joka valvoo unionin toimielimiä, virastoja ja elimiä, kun ne kuuluvat tämän asetuksen soveltamisalaan.
VII osaston tarkoituksena on helpottaa komission ja kansallisten viranomaisten seurantatyötä perustamalla EU:n laajuinen tietokanta erillisille suuririskisille tekoälyjärjestelmille, joilla on pääasiassa perusoikeuksiin liittyviä vaikutuksia. Tietokantaa ylläpitää komissio, ja siihen syöttävät tietoja tekoälyjärjestelmien tarjoajat, joiden on rekisteröitävä järjestelmänsä ennen kuin ne saatetaan markkinoille tai otetaan muulla tavoin käyttöön.
VIII osastossa asetetaan tekoälyjärjestelmien tarjoajille seuranta- ja raportointivelvoitteet, jotka koskevat markkinoille saattamisen jälkeistä seurantaa ja raportointia sekä tekoälyyn liittyvien vaaratilanteiden ja toimintahäiriöiden tutkintaa. Markkinavalvontaviranomaiset valvoisivat myös markkinoita ja tutkisivat, noudatetaanko kaikkia markkinoille jo saatettuja suuririskisiä tekoälyjärjestelmiä koskevia velvoitteita ja vaatimuksia. Markkinavalvontaviranomaisilla olisi kaikki markkinavalvonnasta annetun asetuksen (EU) 2019/1020 mukaiset valtuudet. Jälkikäteisvalvonnalla olisi varmistettava, että kun tekoälyjärjestelmä on saatettu markkinoille, viranomaisilla on valtuudet ja resurssit puuttua tilanteeseen, jos tekoälyjärjestelmä aiheuttaa odottamattomia riskejä, jotka edellyttävät nopeita toimia. Ne valvovat myös, että toimijat noudattavat asetuksen mukaisia velvollisuuksiaan. Ehdotuksessa ei säädetä uusien elinten tai viranomaisten automaattisesta perustamisesta jäsenvaltioiden tasolla. Jäsenvaltiot voivat sen vuoksi nimetä nykyisiä alakohtaisia viranomaisia (ja hyödyntää niiden asiantuntemusta), joille annettaisiin myös valtuudet valvoa asetuksen säännösten noudattamista.
Tämä ei millään lailla rajoita perusoikeuksia koskevien velvoitteiden jälkikäteisvalvontaan liittyvän nykyisen järjestelmän soveltamista eikä toimivallan jakoa jäsenvaltioissa. Jos nykyisten valvonta- ja täytäntöönpanoviranomaisten toimeksianto sitä edellyttää, niillä on myös valtuudet pyytää ja saada käyttöönsä kaikki tämän asetuksen mukaisesti säilytettävä dokumentaatio ja tarvittaessa pyytää markkinavalvontaviranomaisia järjestämään suuririskisen tekoälyjärjestelmän testaus teknisin keinoin.
5.2.7.KÄYTÄNNESÄÄNNÖT (IX OSASTO)
IX osastossa luodaan puitteet käytännesääntöjen laatimiselle. Niiden tarkoituksena on kannustaa muiden kuin suuririskisten tekoälyjärjestelmien tarjoajia soveltamaan vapaaehtoisesti suuririskisiä tekoälyjärjestelmiä koskevia pakollisia vaatimuksia (jotka vahvistetaan III osastossa). Muiden kuin suuririskisten tekoälyjärjestelmien tarjoajat voivat itse laatia käytännesäännöt ja panna ne täytäntöön. Käytännesääntöihin voi sisältyä myös vapaaehtoisia sitoumuksia, jotka liittyvät esimerkiksi ekologiseen kestävyyteen, vammaisten henkilöiden esteettömyyteen, sidosryhmien osallistumiseen tekoälyjärjestelmien suunnitteluun ja kehittämiseen sekä kehitysryhmien monimuotoisuuteen.
5.2.8.LOPPUSÄÄNNÖKSET (X, XI JA XII OSASTO)
X osastossa korostetaan kaikkien osapuolten velvollisuutta kunnioittaa tietojen ja datan luottamuksellisuutta ja vahvistetaan säännöt asetuksen täytäntöönpanon yhteydessä saatujen tietojen vaihdolle. X osasto sisältää myös toimenpiteitä, joilla varmistetaan asetuksen tehokas täytäntöönpano säännösten rikkomisesta määrättävillä tehokkailla, oikeasuhteisilla ja varoittavilla seuraamuksilla.
XI osastossa vahvistetaan säädösvallan siirtoa ja täytäntöönpanovaltaa koskevat säännöt. Ehdotuksessa siirretään komissiolle valta antaa tarvittaessa täytäntöönpanosäädöksiä, joilla varmistetaan asetuksen yhdenmukainen soveltaminen, tai delegoituja säädöksiä, joilla päivitetään tai täydennetään liitteissä I–VII olevia luetteloita.
XII osastossa säädetään komission velvollisuudesta arvioida säännöllisesti, onko liitettä III tarpeen päivittää, ja laatia säännöllisesti kertomuksia asetuksen arvioinnista ja uudelleentarkastelusta. Siinä vahvistetaan myös loppusäännökset, mukaan lukien eriytetty siirtymäkausi asetuksen soveltamisen alkamispäivää varten, jotta voidaan helpottaa sujuvaa täytäntöönpanoa kaikkien osapuolten kannalta.
2021/0106 (COD)
Ehdotus
EUROOPAN PARLAMENTIN JA NEUVOSTON ASETUS
TEKOÄLYÄ KOSKEVISTA YHDENMUKAISTETUISTA SÄÄNNÖISTÄ (TEKOÄLYSÄÄDÖS) JA TIETTYJEN UNIONIN SÄÄDÖSTEN MUUTTAMISESTA
EUROOPAN PARLAMENTTI JA EUROOPAN UNIONIN NEUVOSTO, jotka
ottavat huomioon Euroopan unionin toiminnasta tehdyn sopimuksen ja erityisesti sen 16 ja 114 artiklan,
ottavat huomioon Euroopan komission ehdotuksen,
sen jälkeen kun esitys lainsäätämisjärjestyksessä hyväksyttäväksi säädökseksi on toimitettu kansallisille parlamenteille,
ottavat huomioon Euroopan talous- ja sosiaalikomitean lausunnon,
ottavat huomioon alueiden komitean lausunnon,
noudattavat tavallista lainsäätämisjärjestystä,
sekä katsovat seuraavaa:
(1)Tämän asetuksen tarkoituksena on parantaa sisämarkkinoiden toimintaa vahvistamalla yhtenäinen oikeudellinen kehys erityisesti unionin arvojen mukaiselle tekoälyn kehittämiselle, markkinoille saattamiselle ja käytölle. Tämän asetuksen tavoitteet liittyvät useisiin yleistä etua koskeviin pakottaviin syihin, kuten terveyden, turvallisuuden ja perusoikeuksien suojelun korkeaan tasoon, ja sillä varmistetaan tekoälyyn perustuvien tavaroiden ja palvelujen vapaa liikkuvuus rajojen yli, mikä estää jäsenvaltioita asettamasta tekoälyjärjestelmien kehittämistä, markkinoille saattamista ja käyttöä koskevia rajoituksia, ellei sitä nimenomaisesti sallita tällä asetuksella.
(2)Tekoälyjärjestelmiä voidaan ottaa helposti käyttöön useilla talouden ja yhteiskunnan aloilla, myös rajojen yli, ja ne voivat liikkua kaikkialla unionissa. Eräät jäsenvaltiot ovat jo harkinneet kansallisten sääntöjen hyväksymistä sen varmistamiseksi, että tekoäly on turvallista ja että sitä kehitetään ja käytetään perusoikeuksia koskevien velvoitteiden mukaisesti. Toisistaan poikkeavat kansalliset säännöt voivat johtaa sisämarkkinoiden pirstoutumiseen ja heikentää tekoälyjärjestelmiä kehittävien tai käyttävien toimijoiden oikeusvarmuutta. Sen vuoksi olisi varmistettava suojelun yhdenmukainen ja korkea taso koko unionissa ja samalla estettävä erot, jotka haittaavat tekoälyjärjestelmien ja niihin liittyvien tuotteiden ja palvelujen vapaata liikkuvuutta sisämarkkinoilla, vahvistamalla yhdenmukaiset velvoitteet toimijoille ja takaamalla yleiseen etuun liittyvien pakottavien syiden ja henkilöiden oikeuksien yhdenmukainen suojelu koko sisämarkkinoilla Euroopan unionin toiminnasta tehdyn sopimuksen (SEUT) 114 artiklan mukaisesti. Siltä osin kuin tämä asetus sisältää yksilöiden suojelua henkilötietojen käsittelyssä koskevia erityissääntöjä, joilla rajoitetaan tekoälyjärjestelmien käyttöä reaaliaikaista biometristä etätunnistusta varten julkisissa tiloissa lainvalvontatarkoituksessa, tämä asetus on aiheellista perustaa kyseisten erityissääntöjen osalta SEUT-sopimuksen 16 artiklaan. Kun otetaan huomioon nämä erityissäännöt ja SEUT-sopimuksen 16 artiklan käyttö, on aiheellista kuulla Euroopan tietosuojaneuvostoa.
(3)Tekoäly on nopeasti kehittyvä teknologiakokonaisuus, joka voi tuottaa monenlaisia taloudellisia ja yhteiskunnallisia hyötyjä kaikilla teollisuudenaloilla ja kaikessa sosiaalisessa toiminnassa. Tekoälyn käyttö voi tarjota yrityksille keskeisiä kilpailuetuja ja tukea yhteiskunnallisesti ja ympäristön kannalta suotuisia tuloksia esimerkiksi terveydenhuollon, maatalouden, koulutuksen, infrastruktuurin hallinnan, energian, liikenteen ja logistiikan, julkisten palvelujen, turvallisuuden, oikeuden, resurssi- ja energiatehokkuuden sekä ilmastonmuutoksen hillitsemisen ja siihen sopeutumisen aloilla parantamalla ennakointia, optimoimalla toimintoja ja resurssien kohdentamista ja räätälöimällä yksilöille ja organisaatioille tarjolla olevia digitaalisia ratkaisuja.
(4)Samaan aikaan tekoäly voi sen erityiseen sovellukseen ja käyttöön liittyvistä olosuhteista riippuen aiheuttaa riskejä ja vahingoittaa unionin lainsäädännöllä suojattuja yleisiä etuja ja oikeuksia. Tällainen vahinko voi olla aineellista tai aineetonta.
(5)Sen vuoksi tarvitaan unionin oikeudellinen kehys, jossa vahvistetaan tekoälyä koskevat yhdenmukaistetut säännöt, jotta voidaan edistää tekoälyn kehittämistä, käyttöä ja käyttöönottoa sisämarkkinoilla ja samalla taata unionin oikeudessa tunnustettujen ja suojattujen yleisten etujen suojelun, kuten terveyden ja turvallisuuden sekä perusoikeuksien suojelun, korkea taso. Tämän tavoitteen saavuttamiseksi olisi vahvistettava säännöt, joilla säännellään tiettyjen tekoälyjärjestelmien markkinoille saattamista ja käyttöönottoa ja varmistetaan siten sisämarkkinoiden moitteeton toiminta ja annetaan kyseisille järjestelmille mahdollisuus hyötyä tavaroiden ja palvelujen vapaan liikkuvuuden periaatteesta. Vahvistamalla kyseiset säännöt tällä asetuksella tuetaan Eurooppa-neuvoston asettamaa tavoitetta, jonka mukaan unionin olisi oltava globaali edelläkävijä turvallisen, luotettavan ja eettisen tekoälyn kehittämisessä, ja varmistetaan eettisten periaatteiden suojelu, kuten Euroopan parlamentti on erityisesti pyytänyt.
(6)Tekoälyjärjestelmän käsite olisi määriteltävä selkeästi, jotta voidaan taata oikeusvarmuus ja samalla tarjota joustovaraa teknologian tulevan kehityksen huomioon ottamiseksi. Määritelmän olisi perustuttava ohjelmiston keskeisiin toiminnallisiin ominaisuuksiin, erityisesti siihen, että se pystyy tuottamaan tiettyjen ihmisen määrittelemien tavoitteiden osalta tuloksia, kuten sisältöjä, ennusteita, suosituksia tai päätöksiä, jotka vaikuttavat ympäristöön, jonka kanssa järjestelmä on vuorovaikutuksessa joko fyysisessä tai digitaalisessa ulottuvuudesta. Tekoälyjärjestelmät voidaan suunnitella toimimaan eriasteisesti itsenäisesti ja niitä voidaan käyttää erillisinä tai tuotteen osina riippumatta siitä, onko järjestelmä fyysisesti integroitu tuotteeseen (sulautettu) vai palveleeko se tuotteen toiminnallisuutta ilman, että se on integroitu siihen (sulauttamaton). Tekoälyjärjestelmän määritelmää olisi täydennettävä sen kehittämisessä käytettyjen erityisten tekniikoiden ja lähestymistapojen luettelolla, joka olisi pidettävä ajan tasalla markkinoiden ja teknologian kehityksen huomioon ottamiseksi siten, että komissio hyväksyy delegoituja säädöksiä luettelon muuttamiseksi.
(7)Tässä asetuksessa käytetty biometristen tietojen käsite on yhdenmukainen Euroopan parlamentin ja neuvoston asetuksen (EU) 2016/679 4 artiklan 14 alakohdassa, Euroopan parlamentin ja neuvoston asetuksen (EU) 2018/1725 3 artiklan 18 alakohdassa ja Euroopan parlamentin ja neuvoston direktiivin (EU) 2016/680 3 artiklan 13 alakohdassa määritellyn biometristen tietojen käsitteen kanssa ja sitä olisi tulkittava johdonmukaisesti tämän kanssa.
(8)Tässä asetuksessa käytetty biometrisen etätunnistusjärjestelmän käsite olisi määriteltävä toiminnallisesti tekoälyjärjestelmäksi, joka on tarkoitettu luonnollisten henkilöiden tunnistamiseen etäältä vertaamalla henkilön biometrisiä tietoja viitetietokannan sisältämiin biometrisiin tietoihin ja tietämättä ennalta, onko kohteena oleva henkilö läsnä ja voidaanko hänet tunnistaa, riippumatta käytetyistä tekniikoista, prosesseista tai biometristen tietojen tyypeistä. Kun otetaan huomioon reaaliaikaisten ja jälkikäteisten biometrisen etätunnistusjärjestelmien erilaiset ominaisuudet ja käyttötavat sekä niihin liittyvät erilaiset riskit, nämä järjestelmät olisi erotettava toisistaan. Reaaliaikaisissa järjestelmissä biometristen tietojen kerääminen, vertailu ja tunnistaminen tapahtuvat välittömästi, lähes välittömästi tai joka tapauksessa ilman merkittävää viivettä. Tältä osin ei pitäisi olla mahdollista kiertää tämän asetuksen sääntöjä, jotka koskevat kyseisten tekoälyjärjestelmien reaaliaikaista käyttöä, käyttämällä vähäisiä viivästyksiä. Reaaliaikaisissa järjestelmissä käytetään kameran tai muun toiminnoltaan samankaltaisen laitteen tuottamaa ”suoraa” tai ”lähes suoraa” materiaalia, kuten videokuvaa. Jälkikäteisissä järjestelmissä biometriset tiedot on sitä vastoin jo kerätty, ja vertailu ja tunnistaminen tapahtuvat vasta merkittävän viiveen jälkeen. Kyse on kameravalvontajärjestelmien tai yksityisten laitteiden tuottamien kuvien tai videokuvan kaltaisesta materiaalista, joka on luotu ennen kuin järjestelmää käytetään asianomaisiin luonnollisiin henkilöihin.
(9)Tätä asetusta sovellettaessa julkisen tilan käsitteen olisi ymmärrettävä tarkoitettavan mitä tahansa fyysistä paikkaa, johon yleisöllä on pääsy, riippumatta siitä, onko kyseinen paikka yksityisessä vai julkisessa omistuksessa. Käsite ei siten kata paikkoja, jotka ovat luonteeltaan yksityisiä ja joihin kolmansilla osapuolilla, lainvalvontaviranomaiset mukaan luettuina, ei yleensä ole vapaata pääsyä, elleivät kyseiset osapuolet ole nimenomaisesti saaneet kutsua tai lupaa, kuten koteja, yksityisiä kerhoja, toimistoja, varastoja ja tehtaita. Käsite ei kata myöskään verkkoympäristöjä, sillä ne eivät ole fyysisiä tiloja. Pelkästään se, että tiettyyn tilaan pääsyyn voidaan soveltaa tiettyjä edellytyksiä, kuten pääsylippuja tai ikärajoituksia, ei kuitenkaan tarkoita sitä, ettei yleisöllä olisi pääsyä tilaan tässä asetuksessa tarkoitetulla tavalla. Katujen, julkisten rakennusten yleisten osien ja useimpien liikenneinfrastruktuurien lisäksi myös esimerkiksi elokuvateatterit, teatterit, myymälät ja ostoskeskukset ovat yleensä tiloja, joihin yleisöllä on pääsy. Se, onko yleisöllä pääsy tiettyyn tilaan, olisi kuitenkin määritettävä tapauskohtaisesti ottaen huomioon kulloisenkin yksittäisen tilanteen erityispiirteet.
(10)Jotta voidaan varmistaa tasapuoliset toimintaedellytykset ja yksilöiden oikeuksien ja vapauksien tehokas suojelu kaikkialla unionissa, tällä asetuksella vahvistettuja sääntöjä olisi sovellettava tekoälyjärjestelmien tarjoajiin syrjimättömällä tavalla riippumatta siitä, ovatko ne sijoittautuneet unioniin vai kolmanteen maahan, sekä unioniin sijoittautuneisiin tekoälyjärjestelmien käyttäjiin.
(11)Tiettyjen tekoälyjärjestelmien digitaalisen luonteen vuoksi niiden olisi kuuluttava tämän asetuksen soveltamisalaan myös silloin, kun niitä ei saateta markkinoille, oteta käyttöön eikä käytetä unionissa. Tämä koskee esimerkiksi unioniin sijoittautunutta toimijaa, joka hankkii tiettyjä palveluja unionin ulkopuolelle sijoittautuneelta toimijalta sellaisen tekoälyjärjestelmän toteuttaman toiminnon osalta, joka katsotaan suuririskiseksi ja jolla on vaikutuksia unionissa oleviin luonnollisiin henkilöihin. Tällaisessa tapauksessa unionin ulkopuolelle sijoittautuneen toimijan käyttämä tekoälyjärjestelmä voisi käsitellä dataa, joka on kerätty unionissa ja siirretty sieltä laillisesti, ja toimittaa unionissa sijaitsevalle hankintasopimuksen tehneelle toimijalle tästä käsittelystä saatavia tekoälyjärjestelmän tuloksia ilman, että kyseistä tekoälyjärjestelmää saatetaan markkinoille, otetaan käyttöön tai käytetään unionissa. Jotta estettäisiin tämän asetuksen kiertäminen ja varmistettaisiin unionissa sijaitsevien luonnollisten henkilöiden tehokas suojelu, tätä asetusta olisi sovellettava myös kolmanteen maahan sijoittautuneisiin tekoälyjärjestelmien tarjoajiin ja käyttäjiin siltä osin kuin kyseisten järjestelmien tuottamaa tuotosta käytetään unionissa. Jotta otettaisiin kuitenkin huomioon olemassa olevat järjestelyt ja erityiset tarpeet yhteistyöhön sellaisten ulkomaisten kumppanien kanssa, joiden kanssa vaihdetaan tietoja ja todisteita, tätä asetusta ei pitäisi soveltaa kolmannen maan viranomaisiin eikä kansainvälisiin järjestöihin, kun ne toimivat unionin tai sen jäsenvaltioiden kanssa kansallisella tai Euroopan tasolla tehtyjen lainvalvontaa ja rikosoikeudellista yhteistyötä koskevien kansainvälisten sopimusten puitteissa. Tällaisia sopimuksia on tehty kahdenvälisesti jäsenvaltioiden ja kolmansien maiden välillä tai Euroopan unionin, Europolin ja muiden EU:n virastojen sekä kolmansien maiden ja kansainvälisten järjestöjen välillä.
(12)Tätä asetusta olisi sovellettava myös unionin toimielimiin, toimistoihin, elimiin ja virastoihin, kun ne toimivat tekoälyjärjestelmän tarjoajana tai käyttäjänä. Tekoälyjärjestelmät, jotka on kehitetty tai joita käytetään yksinomaan sotilaallisiin tarkoituksiin, olisi jätettävä tämän asetuksen soveltamisalan ulkopuolelle, kun kyseinen käyttö kuuluu Euroopan unionista tehdyn sopimuksen (TEU) V osastossa säännellyn yhteisen ulko- ja turvallisuuspolitiikan yksinomaiseen toimivaltaan. Tämän asetuksen ei pitäisi rajoittaa Euroopan parlamentin ja neuvoston direktiivin 2000/31/EY II luvun IV jaksossa vahvistettujen välityspalvelujen tarjoajien vastuuta koskevien säännösten [sellaisina kuin ne korvataan digipalvelusäädöksen vastaavilla säännöksillä] soveltamista.
(13)Jotta voidaan varmistaa terveyteen, turvallisuuteen ja perusoikeuksiin liittyvien yleisten etujen suojelun yhdenmukainen ja korkea taso, kaikille suuririskisille tekoälyjärjestelmille olisi vahvistettava yhteiset normit. Näiden normien olisi oltava Euroopan unionin perusoikeuskirjan, jäljempänä ’perusoikeuskirja’, mukaisia, syrjimättömiä ja yhteensopivia unionin kansainvälisten kauppasitoumusten kanssa.
(14)Tekoälyjärjestelmiä koskevien oikeasuhteisten ja tehokkaiden sitovien sääntöjen käyttöön ottamiseksi olisi noudatettava selkeästi määriteltyä riskiperusteista lähestymistapaa. Tässä lähestymistavassa tällaisten sääntöjen tyyppi ja sisältö olisi sovitettava niiden riskien voimakkuuden ja laajuuden mukaan, joita tekoälyjärjestelmät voivat aiheuttaa. Sen vuoksi on tarpeen kieltää tietyt tekoälyyn liittyvät käytännöt, vahvistaa suuririskisiä tekoälyjärjestelmiä koskevat vaatimukset ja asianomaisten toimijoiden velvollisuudet sekä asettaa läpinäkyvyysvelvoitteita tietyille tekoälyjärjestelmille.
(15)Tekoälyn monien hyödyllisten käyttötarkoitusten lisäksi kyseistä teknologiaa voidaan myös käyttää väärin ja se voi tarjota uusia ja tehokkaita välineitä käytäntöihin, joihin liittyy manipulointia, hyväksikäyttöä ja sosiaalista valvontaa. Tällaiset käytännöt ovat erityisen haitallisia ja ne olisi kiellettävä, koska ne ovat ihmisarvon kunnioittamista, vapautta, tasa-arvoa, demokratiaa ja oikeusvaltiota koskevien unionin arvojen sekä unionin perusoikeuksien vastaisia, mukaan lukien oikeus syrjimättömyyteen, tietosuoja ja yksityisyyden suoja sekä lapsen oikeudet.
(16)Sellaisten tekoälyjärjestelmien markkinoille saattaminen, käyttöönotto tai käyttö, joiden tarkoituksena on vääristää ihmisten käyttäytymistä, mistä todennäköisesti aiheutuu fyysisiä tai psyykkisiä haittoja, olisi kiellettävä. Tällaisissa tekoälyjärjestelmissä käytetään subliminaalisia komponentteja, joita henkilöt eivät voi havaita, tai hyödynnetään lasten ja ihmisten haavoittuvuuksia, jotka liittyvät heidän ikäänsä tai fyysiseen tai psyykkisen vammaansa. Tällaisen vaikuttamisen tarkoituksena on vääristää henkilön käyttäytymistä olennaisesti tavalla, joka aiheuttaa tai todennäköisesti aiheuttaa haittaa kyseiselle henkilölle tai toiselle henkilölle. Tällaista aikomusta ei voida olettaa, jos ihmisen käyttäytymisen vääristyminen johtuu tekoälyjärjestelmän ulkopuolisista tekijöistä, jotka eivät ole järjestelmän tarjoajan tai käyttäjän hallittavissa. Kielto ei saisi rajoittaa tällaisiin tekoälyjärjestelmiin liittyvää perustelluissa tarkoituksissa tehtävää tutkimusta, jos tällainen tutkimus ei merkitse sellaista tekoälyjärjestelmän käyttöä ihmisen ja koneen välisissä suhteissa, joka altistaa luonnolliset henkilöt haitoille, ja tutkimus suoritetaan tieteellistä tutkimusta koskevien tunnustettujen eettisten normien mukaisesti.
(17)Tekoälyjärjestelmät, joiden avulla viranomaiset toteuttavat tai heidän puolestaan toteutetaan luonnollisten henkilöiden sosiaalista pisteytystä yleistä tarkoitusta varten, voivat johtaa syrjiviin tuloksiin ja tiettyjen ryhmien syrjäytymiseen. Ne voivat loukata oikeutta ihmisarvoon ja syrjimättömyyteen sekä tasa-arvon ja oikeussuojan arvoja. Tällaiset tekoälyjärjestelmät arvioivat tai luokittelevat luonnollisten henkilöiden luotettavuutta heidän sosiaalisen käyttäytymisensä perusteella useissa yhteyksissä tai heidän tunnettujen tai ennakoitujen henkilökohtaisten ominaisuuksiensa tai luonteenpiirteidensä perusteella. Tällaisista tekoälyjärjestelmistä saadut sosiaaliset pisteet voivat johtaa luonnollisten henkilöiden tai kokonaisten henkilöryhmien haitalliseen tai epäedulliseen kohteluun sosiaalisissa yhteyksissä, jotka eivät liity siihen asiayhteyteen, jossa tiedot alun perin tuotettiin tai kerättiin, tai haitalliseen kohteluun, joka on suhteetonta tai perusteetonta heidän sosiaalisen käyttäytymisensä vakavuuteen nähden. Tällaiset tekoälyjärjestelmät olisi sen vuoksi kiellettävä.
(18)Tekoälyjärjestelmien käyttöä luonnollisten henkilöiden reaaliaikaiseen biometriseen etätunnistukseen julkisissa tiloissa lainvalvontatarkoituksessa pidetään erityisen vakavana puuttumisena asianomaisten henkilöiden oikeuksiin ja vapauksiin, sillä se voi vaikuttaa suuren väestönosan yksityiselämään, synnyttää tunteen jatkuvasta valvonnasta ja estää välillisesti kokoontumisvapauden ja muiden perusoikeuksien käyttämisen. Lisäksi tällaisten reaaliaikaisten järjestelmien käyttöön liittyvien vaikutusten välittömyys ja rajalliset mahdollisuudet lisätarkastuksiin tai korjauksiin lisäävät lainvalvontatoimien kohteena olevien henkilöiden oikeuksiin ja vapauksiin kohdistuvia riskejä.
(19)Näiden järjestelmien käyttö lainvalvontatarkoituksiin olisi sen vuoksi kiellettävä lukuun ottamatta kolmea tyhjentävästi lueteltua ja kapeasti määriteltyä tilannetta, joissa käyttö on ehdottoman välttämätöntä sellaisen tärkeän yleisen edun saavuttamiseksi, jonka merkitys on riskejä suurempi. Näihin tilanteisiin kuuluvat mahdollisten rikosten uhrien, myös kadonneiden lasten, etsintä; tietyt luonnollisten henkilöiden henkeen tai fyysiseen turvallisuuteen kohdistuvan uhat tai terrori-iskun uhat; sekä neuvoston puitepäätöksessä 2002/584/YOS tarkoitettujen rikosten tekijöiden tai tällaisista rikoksista epäiltyjen havaitseminen, paikantaminen, tunnistaminen tai syytteeseenpano, jos näistä rikoksista voi asianomaisessa jäsenvaltiossa seurata vapaudenmenetyksen käsittävä rangaistus tai turvaamistoimenpide, jonka enimmäisaika on vähintään kolme vuotta, siten kuin ne on määritelty kyseisen jäsenvaltion oikeudessa. Tällainen kansallisen lainsäädännön mukaisen vapaudenmenetyksen käsittävän rangaistuksen tai turvaamistoimenpiteen vähimmäisaika auttaa osaltaan varmistamaan, että rikoksen olisi oltava riittävän vakava, jotta sillä voidaan tarvittaessa perustella reaaliaikaisten biometristen etätunnistusjärjestelmien käyttö. Lisäksi neuvoston puitepäätöksessä 2002/584/YOS luetelluista 32 rikoksesta jotkin ovat käytännössä todennäköisesti merkityksellisempiä kuin toiset, koska reaaliaikaiseen biometriseen etätunnistukseen turvautuminen on oletettavasti hyvin vaihtelevassa määrin välttämätöntä ja oikeasuhteista, kun eri lueteltujen rikosten tekijöitä tai niistä epäiltyjä pyritään käytännössä havaitsemaan, paikantamaan, tunnistamaan tai panemaan syytteeseen ja kun otetaan huomioon todennäköiset erot vahingon tai mahdollisten kielteisten seurausten vakavuudessa, todennäköisyydessä ja laajuudessa.
(20)Sen varmistamiseksi, että näitä järjestelmiä käytetään vastuullisella ja oikeasuhteisella tavalla, on myös tärkeää vahvistaa, että kussakin näistä kolmesta tyhjentävästi luetellusta ja suppeasti määritellystä tilanteesta olisi otettava huomioon tietyt tekijät, erityisesti pyynnön perusteena olevan tilanteen luonne ja käytön seuraukset kaikkien asianomaisten henkilöiden oikeuksille ja vapauksille sekä käyttöä koskevat suojatoimet ja ehdot. Lisäksi reaaliaikaisten biometristen etätunnistusjärjestelmien käytölle julkisissa tiloissa lainvalvontatarkoituksessa olisi asetettava asianmukaiset aika- ja tilarajat ottaen erityisesti huomioon uhkia, uhreja tai rikoksentekijää koskevat todisteet tai tiedossa olevat seikat. Henkilöitä koskevan viitetietokannan olisi oltava kuhunkin käyttötapaukseen sopiva kussakin edellä mainitussa kolmessa tapauksessa.
(21)Jokaisen reaaliaikaisen biometrisen etätunnistusjärjestelmän käytön julkisissa tiloissa lainvalvontatarkoituksessa olisi edellytettävä jäsenvaltion oikeusviranomaisen tai riippumattoman hallintoviranomaisen nimenomaista ja erityistä lupaa. Tällainen lupa olisi periaatteessa saatava ennen käyttöä, lukuun ottamatta asianmukaisesti perusteltuja kiireellisiä tapauksia eli tilanteita, joissa kyseisten järjestelmien käyttötarve on sellainen, että luvan saamisen ennen käytön aloittamista on tosiasiallisesti ja objektiivisesti mahdotonta. Tällaisissa kiireellisissä tilanteissa käyttö olisi rajoitettava siihen, mikä on ehdottoman välttämätöntä, ja siihen olisi sovellettava asianmukaisia suojatoimia ja ehtoja, jotka määritellään kansallisessa lainsäädännössä ja jotka lainvalvontaviranomainen itse määrittää kunkin yksittäisen kiireellisen käyttötapauksen yhteydessä. Lisäksi lainvalvontaviranomaisen olisi tällaisissa tilanteissa pyrittävä saamaan lupa mahdollisimman pian ja esitettävä samalla syyt siihen, miksi lupaa ei ole voitu pyytää aikaisemmin.
(22)Osana tässä asetuksessa vahvistettuja kattavia puitteita on myös aiheellista säätää, että tällaisen tämän asetuksen mukaisen käytön olisi oltava mahdollista jäsenvaltion alueella vain jos ja siltä osin kuin kyseinen jäsenvaltio on kansallisen lainsäädäntönsä yksityiskohtaisissa säännöissä nimenomaisesti päättänyt säätää mahdollisuudesta sallia tällainen käyttö. Näin ollen jäsenvaltiot voivat tämän asetuksen nojalla olla säätämättä tällaisesta mahdollisuudesta lainkaan tai säätää tällaisesta mahdollisuudesta vain joidenkin tässä asetuksessa yksilöityjen tavoitteiden osalta, joilla sallittu käyttö voidaan perustella.
(23)Tekoälyjärjestelmien käyttö luonnollisten henkilöiden reaaliaikaiseen biometriseen etätunnistukseen julkisissa tiloissa lainvalvontatarkoituksessa edellyttää välttämättä biometristen tietojen käsittelyä. Tämän asetuksen sääntöjä, joissa kielletään tietyin poikkeuksin tällainen käyttö ja jotka perustuvat SEUT-sopimuksen 16 artiklaan, olisi sovellettava erityissäännöksinä (lex specialis) suhteessa direktiivin (EU) 2016/680 10 artiklaan sisältyviin biometristen tietojen käsittelyä koskeviin sääntöihin, eli niillä säännellään kattavasti tällaista käyttöä ja siihen liittyvien biometristen tietojen käsittelyä. Sen vuoksi tällaisen käytön ja käsittelyn olisi oltava mahdollista ainoastaan siinä määrin kuin se on yhteensopivaa tässä asetuksessa vahvistetun kehyksen kanssa, eikä toimivaltaisten viranomaisten pitäisi kyseisen kehyksen ulkopuolella lainvalvontatarkoituksessa toimiessaan voida käyttää tällaisia järjestelmiä ja käsitellä niiden yhteydessä tällaisia tietoja direktiivin (EU) 2016/680 10 artiklassa luetelluin perustein. Tässä yhteydessä tämän asetuksen tarkoituksena ei ole muodostaa oikeusperustaa direktiivin (EU) 2016/680 8 artiklan mukaiselle henkilötietojen käsittelylle. Reaaliaikaisten biometristen etätunnistusjärjestelmien käyttöä julkisissa tiloissa muihin tarkoituksiin kuin lainvalvontaan, myös toimivaltaisten viranomaisten toimesta, ei kuitenkaan pitäisi sisällyttää tässä asetuksessa vahvistettuun erityiskehykseen, joka koskee tällaista käyttöä lainvalvontatarkoituksessa. Tällaisen muussa kuin lainvalvontatarkoituksessa tapahtuvan käytön ei sen vuoksi pitäisi edellyttää tämän asetuksen mukaista lupaa eikä sen täytäntöönpanemiseksi annettujen kansallisen lainsäädännön yksityiskohtaisten sääntöjen soveltamista.
(24)Kaikessa biometristen tietojen ja muiden henkilötietojen käsittelyssä, joka liittyy tekoälyjärjestelmien käyttöön biometriseen tunnistamiseen muussa yhteydessä kuin tässä asetuksessa säännellyssä reaaliaikaisten biometristen etätunnistusjärjestelmien käytössä julkisissa tiloissa lainvalvontatarkoituksessa, myös silloin, kun toimivaltaiset viranomaiset käyttävät kyseisiä järjestelmiä julkisissa tiloissa muihin tarkoituksiin kuin lainvalvontaan, olisi edelleen noudatettava kaikkia asetuksen (EU) 2016/679 9 artiklan 1 kohdasta, asetuksen (EU) 2018/1725 10 artiklan 1 kohdasta ja direktiivin (EU) 2016/680 10 artiklasta johtuvia vaatimuksia.
(25)Euroopan unionista tehtyyn sopimukseen ja Euroopan unionin toiminnasta tehtyyn sopimukseen liitetyn, Yhdistyneen kuningaskunnan ja Irlannin asemasta vapauden, turvallisuuden ja oikeuden alueen osalta tehdyn pöytäkirjan N:o 21 6 a artiklan mukaisesti Irlantia eivät sido tämän asetuksen 5 artiklan 1 kohdan d alakohdassa ja 2 ja 3 kohdassa vahvistetut säännöt, jotka on hyväksytty SEUT-sopimuksen 16 artiklan perusteella ja jotka koskevat jäsenvaltioiden suorittamaa henkilötietojen käsittelyä näiden toteuttaessa SEUT-sopimuksen kolmannen osan V osaston 4 tai 5 luvun soveltamisalaan kuuluvaa toimintaa, siinä tapauksessa, että Irlantia eivät sido rikosasioissa tehtävän oikeudellisen yhteistyön tai poliisiyhteistyön muotoa koskevat säännöt, jotka edellyttävät SEUT-sopimuksen 16 artiklan perusteella vahvistettujen säännösten noudattamista.
(26)Euroopan unionista tehtyyn sopimukseen ja Euroopan unionin toiminnasta tehtyyn sopimukseen liitetyn, Tanskan asemasta tehdyn pöytäkirjan N:o 22 2 ja 2 a artiklan mukaisesti tämän asetuksen 5 artiklan 1 kohdan d alakohdassa ja 2 ja 3 kohdassa vahvistetut säännöt, jotka on hyväksytty SEUT-sopimuksen 16 artiklan perusteella ja jotka koskevat jäsenvaltioiden suorittamaa henkilötietojen käsittelyä näiden toteuttaessa SEUT-sopimuksen kolmannen osan V osaston 4 tai 5 luvun soveltamisalaan kuuluvaa toimintaa, eivät sido Tanskaa eikä niitä sovelleta Tanskaan.
(27)Suuririskisiä tekoälyjärjestelmiä olisi saatettava unionin markkinoille tai otettava käyttöön vain, jos ne täyttävät tietyt pakolliset vaatimukset. Näillä vaatimuksilla olisi varmistettava, että suuririskiset tekoälyjärjestelmät, jotka ovat saatavilla unionissa tai joiden tuloksia muutoin käytetään unionissa, eivät aiheuta kohtuuttomia riskejä unionin tärkeille julkisille eduille, sellaisina kuin ne on tunnustettu ja suojattu unionin lainsäädännössä. Suuririskisiksi määritellyt tekoälyjärjestelmät olisi rajattava järjestelmiin, joilla on merkittävä haitallinen vaikutus ihmisten terveyteen, turvallisuuteen ja perusoikeuksiin unionissa, ja tällaisella rajauksella minimoidaan mahdolliset kansainvälisen kaupan rajoitukset, jos sellaisia on.
(28)Tekoälyjärjestelmät voivat vaikuttaa haitallisesti ihmisten terveyteen ja turvallisuuteen erityisesti silloin, kun tällaiset järjestelmät toimivat tuotteiden komponentteina. Unionin yhdenmukaistamislainsäädännön tavoitteena on helpottaa tuotteiden vapaata liikkuvuutta sisämarkkinoilla ja varmistaa, että markkinoille pääsee ainoastaan turvallisia ja muuten vaatimustenmukaisia tuotteita, ja näiden tavoitteiden mukaisesti on tärkeää, että turvallisuusriskejä, joita tuotteesta kokonaisuudessaan voi aiheutua sen digitaalisten komponenttien, kuten tekoälyjärjestelmien, vuoksi, ehkäistään ja vähennetään asianmukaisesti. Esimerkiksi yhä autonomisempien robottien olisi voitava toimia ja suorittaa tehtävänsä turvallisesti monimutkaisissa ympäristöissä, olipa kyse sitten valmistuksesta tai henkilökohtaisesta avusta ja huolenpidosta. Samoin terveydenhuoltoalalla, jossa panokset ovat elämän ja terveyden kannalta erityisen suuret, yhä kehittyneempien diagnostiikkajärjestelmien ja ihmisten päätöksiä tukevien järjestelmien olisi oltava luotettavia ja tarkkoja. Tekoälyjärjestelmästä perusoikeuskirjassa suojatuille perusoikeuksille aiheutuvan haitallisen vaikutuksen laajuus on erityisen merkityksellinen, kun tekoälyjärjestelmää luokitellaan suuririskiseksi. Näitä oikeuksia ovat muun muassa oikeus ihmisarvoon, yksityis- ja perhe-elämän kunnioittaminen, henkilötietojen suoja, sananvapaus ja tiedonvälityksen vapaus, kokoontumis- ja yhdistymisvapaus, syrjimättömyys, kuluttajansuoja, työntekijöiden oikeudet, vammaisten oikeudet, oikeus tehokkaisiin oikeussuojakeinoihin ja puolueettomaan tuomioistuimeen, oikeus puolustukseen ja syyttömyysolettama sekä oikeus hyvään hallintoon. Näiden oikeuksien lisäksi on tärkeää korostaa, että lapsilla on erityisiä oikeuksia, jotka on vahvistettu EU:n perusoikeuskirjan 24 artiklassa ja Yhdistyneiden kansakuntien lapsen oikeuksien yleissopimuksessa (jota on täydennetty digitaalisen ympäristön osalta lapsen oikeuksien yleissopimuksen yleisessä huomautuksessa nro 25) ja joissa molemmissa edellytetään lasten haavoittuvuuden huomioon ottamista ja lasten hyvinvoinnin kannalta välttämättömän suojelun ja huolenpidon tarjoamista. Perusoikeuskirjaan kirjattu ja unionin politiikoissa täytäntöönpantu perusoikeus korkeaan ympäristönsuojelun tasoon olisi myös otettava huomioon arvioitaessa tekoälyjärjestelmästä mahdollisesti aiheutuvan haitan vakavuutta, myös suhteessa ihmisten terveyteen ja turvallisuuteen.
(29)Sellaisten suuririskisten tekoälyjärjestelmien osalta, jotka ovat tuotteiden tai järjestelmien turvakomponentteja tai ovat itse tuotteita tai järjestelmiä, jotka kuuluvat Euroopan parlamentin ja neuvoston asetuksen (EY) N:o 300/2008, Euroopan parlamentin ja neuvoston asetuksen (EU) N:o 167/2013, Euroopan parlamentin ja neuvoston asetuksen (EU) N:o 168/2013, Euroopan parlamentin ja neuvoston direktiivin 2014/90/EU, Euroopan parlamentin ja neuvoston direktiivin (EU) 2016/797, Euroopan parlamentin ja neuvoston asetuksen (EU) 2018/858, Euroopan parlamentin ja neuvoston asetuksen (EU) 2018/1139 ja Euroopan parlamentin ja neuvoston asetuksen (EU) 2019/2144 soveltamisalaan, on asianmukaista muuttaa mainittuja säädöksiä sen varmistamiseksi, että kun komissio hyväksyy tulevaisuudessa mahdollisia asiaa koskevia delegoituja säädöksiä tai täytäntöönpanosäädöksiä mainittujen säädösten perusteella, se ottaa huomioon tässä asetuksessa vahvistetut suuririskisiä tekoälyjärjestelmiä koskevat pakolliset vaatimukset kunkin alan teknisten ja sääntelyllisten ominaispiirteiden perusteella ja puuttumatta mainituilla säädöksillä perustettuihin olemassa oleviin hallinnointi-, vaatimustenmukaisuuden arviointi- ja valvontamekanismeihin ja -viranomaisiin.
(30)Tekoälyjärjestelmät, jotka ovat tietyn unionin yhdenmukaistamislainsäädännön soveltamisalaan kuuluvien tuotteiden turvakomponentteja tai ovat itse tuotteita, on aiheellista luokitella suuririskisiksi tämän asetuksen mukaisesti, jos kyseiselle tuotteelle tehdään vaatimustenmukaisuuden arviointimenettely kolmatta osapuolta edustavassa vaatimustenmukaisuuden arviointilaitoksessa mainitun asiaa koskevan unionin yhdenmukaistamislainsäädännön mukaisesti. Tällaisia tuotteita ovat erityisesti koneet, lelut, hissit, räjähdysvaarallisissa tiloissa käytettäviksi tarkoitetut laitteet ja suojajärjestelmät, radiolaitteet, painelaitteet, huviveneet, köysiratalaitteistot, kaasumaisia polttoaineita polttavat laitteet sekä lääkinnälliset laitteet ja in vitro ‑diagnostiikkaan tarkoitetut lääkinnälliset laitteet.
(31)Tekoälyjärjestelmän luokittelun suuririskiseksi tämän asetuksen mukaisesti ei välttämättä pitäisi tarkoittaa sitä, että tuotetta, jonka turvakomponentti on tekoälyjärjestelmä, tai itse tekoälyjärjestelmää tuotteena pidetään suuririskisenä tuotteeseen sovellettavassa asiaa koskevassa unionin yhdenmukaistamislainsäädännössä vahvistettujen perusteiden mukaisesti. Tämä koskee erityisesti Euroopan parlamentin ja neuvoston asetusta (EU) 2017/745 ja Euroopan parlamentin ja neuvoston asetusta (EU) 2017/746, joissa säädetään keskisuuren ja suuren riskin tuotteita koskevasta kolmannen osapuolen suorittamasta vaatimustenmukaisuuden arvioinnista.
(32)Erilliset tekoälyjärjestelmät eli muut suuririskiset tekoälyjärjestelmät kuin ne, jotka ovat tuotteiden turvakomponentteja tai jotka ovat itse tuotteita, olisi luokiteltava suuririskisiksi, jos ne suunnitellun käyttötarkoituksensa perusteella aiheuttavat suuren riskin ihmisten terveydelle ja turvallisuudelle tai perusoikeuksille, kun otetaan huomioon sekä mahdollisen haitan vakavuus että sen esiintymistodennäköisyys, ja niitä käytetään asetuksessa erikseen määritellyillä aloilla. Näiden järjestelmien yksilöinti perustuu samoihin menetelmiin ja kriteereihin, joita sovelletaan myös suuririskisten tekoälyjärjestelmien luetteloon tulevaisuudessa tehtäviin muutoksiin.
(33)Luonnollisten henkilöiden biometriseen etätunnistukseen tarkoitettujen tekoälyjärjestelmien tekniset epätarkkuudet voivat johtaa vinoutuneisiin tuloksiin ja aiheuttaa syrjiviä vaikutuksia. Tämä on erityisen tärkeää, kun kyse on iästä, etnisestä alkuperästä, sukupuolesta tai vammasta. Sen vuoksi reaaliaikaiset ja jälkikäteiset biometriset etätunnistusjärjestelmät olisi luokiteltava suuririskisiksi. Kun otetaan huomioon niiden aiheuttamat riskit, molempiin biometrisiin etätunnistusjärjestelmiin olisi sovellettava lokitusvalmiuksia ja ihmisen suorittamaa valvontaa koskevia erityisvaatimuksia.
(34)Kriittisen infrastruktuurin hallinnan ja toiminnan osalta on aiheellista luokitella suuririskisiksi tekoälyjärjestelmät, jotka on tarkoitettu käytettäviksi turvakomponentteina tieliikenteen sekä vesi-, kaasu-, lämmitys- ja sähköhuollon hallinnassa ja toiminnassa, koska niiden viat tai toimintahäiriöt voivat vaarantaa ihmisten hengen ja terveyden suuressa mittakaavassa ja aiheuttaa tuntuvia häiriöitä yhteiskunnallisen ja taloudellisen toiminnan tavanomaisessa harjoittamisessa.
(35)Tekoälyjärjestelmiä, joita käytetään yleissivistävässä tai ammatillisessa koulutuksessa, erityisesti määritettäessä pääsyä oppilaitoksiin tai osoitettaessa henkilöitä niihin tai arvioitaessa henkilöitä kokeissa osana heidän koulutustaan tai sen edellytyksenä, olisi pidettävä suuririskisinä, koska ne voivat määrittää henkilön elämän koulutuksellisen ja ammatillisen suunnan ja siten vaikuttaa heidän kykyynsä turvata toimeentulonsa. Kun tällaiset järjestelmät suunnitellaan ja niitä käytetään epäasianmukaisesti, ne voivat loukata oikeutta koulutukseen ja oikeutta olla joutumatta syrjityksi ja ne voivat jatkaa historiallisia syrjinnän muotoja.
(36)Tekoälyjärjestelmät, joita käytetään työllistämisessä, henkilöstöhallinnossa ja itsenäisen ammatinharjoittamisen mahdollistamisessa, erityisesti henkilöiden rekrytointiin ja valintaan, uralla etenemistä ja työsuhteen päättämistä koskevien päätösten tekemiseen sekä tehtävien jakamiseen työhön liittyvissä sopimussuhteissa oleville henkilöille ja heidän seurantaansa tai arviointiinsa, olisi myös luokiteltava suuririskisiksi, koska kyseiset järjestelmät voivat vaikuttaa merkittävästi näiden henkilöiden tuleviin uranäkymiin ja toimeentuloon. Näiden työhön liittyvien sopimussuhteiden olisi koskettava myös työntekijöitä ja henkilöitä, jotka tarjoavat palveluja alustojen kautta, kuten komission vuoden 2021 työohjelmassa esitetään. Tällaisia henkilöitä ei periaatteessa pitäisi katsoa tässä asetuksessa tarkoitetuiksi käyttäjiksi. Tällaiset järjestelmät voivat koko rekrytointiprosessin ajan sekä työhön liittyvissä sopimussuhteissa olevien henkilöiden arvioinnin, uralla etenemisen tai työsuhteen jatkamisen yhteydessä pitää yllä historiallisia syrjinnän muotoja, jotka kohdistuvat esimerkiksi naisiin, tiettyihin ikäryhmiin, vammaisiin henkilöihin tai henkilöihin, joilla on tietty rodullinen tai etninen alkuperä tai seksuaalinen suuntautuminen. Tekoälyjärjestelmät, joita käytetään näiden henkilöiden suorituskyvyn ja käyttäytymisen seurantaan, voivat vaikuttaa myös heidän tietosuojaa ja yksityisyyden suojaa koskeviin oikeuksiinsa.
(37)Toinen osa-alue, jolla tekoälyjärjestelmien käyttöön on kiinnitettävä erityistä huomiota, on sellaisten olennaisten yksityisten ja julkisten palvelujen ja etujen saatavuus ja käyttö, joita ihmiset tarvitsevat voidakseen osallistua täysipainoisesti yhteiskuntaan tai parantaakseen elintasoaan. Etenkin tekoälyjärjestelmät, joita käytetään arvioitaessa luonnollisten henkilöiden luottopisteytystä tai luottokelpoisuutta, olisi luokiteltava suuririskisiksi tekoälyjärjestelmiksi, koska ne määrittävät kyseisten henkilöiden mahdollisuuden saada taloudellisia resursseja tai olennaisia palveluja, kuten asumis-, sähkö- ja televiestintäpalveluja. Tähän tarkoitukseen käytetyt tekoälyjärjestelmät voivat johtaa henkilöiden tai henkilöryhmien syrjintään ja pitää yllä historiallisia syrjinnän muotoja, jotka perustuvat esimerkiksi rotuun tai etniseen alkuperään, vammaisuuteen, ikään tai sukupuoliseen suuntautumiseen, tai luoda uusia syrjiviä vaikutuksia. Kun otetaan huomioon vaikutusten erittäin rajallinen laajuus ja markkinoilla saatavilla olevat vaihtoehdot, on aiheellista vapauttaa vaatimuksista tekoälyjärjestelmien käyttö luottokelpoisuuden arvioinnissa ja luottopisteytyksessä, kun pienet tarjoajat ottavat järjestelmiä käyttöön omaan käyttöönsä. Luonnolliset henkilöt, jotka hakevat tai saavat viranomaisilta julkisen avun etuuksia ja palveluja, ovat yleensä riippuvaisia näistä etuuksista ja palveluista ja haavoittuvassa asemassa vastuussa oleviin viranomaisiin nähden. Jos tekoälyjärjestelmiä käytetään sen määrittämiseen, olisiko viranomaisten evättävä tällaiset etuudet ja palvelut tai rajoitettava niitä, peruutettava ne tai perittävä ne takaisin, niillä voi olla merkittävä vaikutus henkilöiden toimeentuloon ja ne voivat loukata heidän perusoikeuksiaan, kuten oikeutta sosiaaliseen suojeluun, syrjimättömyyteen, ihmisarvoon tai tehokkaisiin oikeussuojakeinoihin. Tällaiset järjestelmät olisi sen vuoksi luokiteltava suuririskisiksi. Tämä asetus ei kuitenkaan saisi haitata innovatiivisten lähestymistapojen kehittämistä ja käyttöä julkishallinnossa, sillä se hyötyisi vaatimustenmukaisten ja turvallisten tekoälyjärjestelmien laajemmasta käytöstä edellyttäen, että kyseisiin järjestelmiin ei liity suurta oikeushenkilöihin ja luonnollisiin henkilöihin kohdistuvaa riskiä. Myös tekoälyjärjestelmät, joita käytetään pelastus- ja ensihoitopalvelujen lähettämisessä tai tärkeysjärjestyksen määrittämisessä, olisi luokiteltava suuririskisiksi, koska ne tekevät päätöksiä tilanteissa, jotka ovat erittäin kriittisiä ihmisten hengen ja terveyden ja heidän omaisuutensa kannalta.
(38)Lainvalvontaviranomaisten toimille, joihin liittyy tiettyä tekoälyjärjestelmien käyttöä, on ominaista huomattava vallan epätasapaino, ja ne voivat johtaa luonnollisen henkilön valvontaan, pidättämiseen tai vapaudenmenetykseen sekä muihin perusoikeuskirjassa taattuihin perusoikeuksiin kohdistuviin haitallisiin vaikutuksiin. Erityisesti jos tekoälyjärjestelmää ei ole koulutettu laadukkaalla datalla, se ei täytä riittäviä vaatimuksia tarkkuutensa tai luotettavuutensa suhteen tai sitä ei ole suunniteltu ja testattu asianmukaisesti ennen markkinoille saattamista tai muuta käyttöönottoa, se voi valikoida henkilöitä syrjivästi tai muulla tavoin väärin tai epäoikeudenmukaisesti. Lisäksi merkittävien menettelyllisten perusoikeuksien, joita ovat muun muassa oikeus tehokkaisiin oikeussuojakeinoihin ja puolueettomaan tuomioistuimeen sekä oikeus puolustukseen ja syyttömyysolettama, käyttö voisi vaikeutua erityisesti silloin, kun tällaiset tekoälyjärjestelmät eivät ole riittävän läpinäkyviä, selitettävissä olevia ja dokumentoituja. Sen vuoksi on aiheellista luokitella suuririskisiksi joukko tekoälyjärjestelmiä, jotka on tarkoitettu käytettäviksi lainvalvonnan yhteydessä, kun tarkkuus, luotettavuus ja läpinäkyvyys ovat erityisen tärkeitä haitallisten vaikutusten välttämiseksi, kansalaisten luottamuksen säilyttämiseksi sekä vastuuvelvollisuuden ja tehokkaiden oikeussuojakeinojen varmistamiseksi. Kun otetaan huomioon kyseessä olevien toimintojen luonne ja niihin liittyvät riskit, näihin suuririskisiin tekoälyjärjestelmiin olisi katsottava kuuluvan erityisesti tekoälyjärjestelmät, joita lainvalvontaviranomaisten on tarkoitus käyttää yksilöllisiin riskiarviointeihin, valheenpaljastukseen ja vastaaviin välineisiin tai luonnollisen henkilön emotionaalisen tilan havaitsemiseen, ”syväväärennösten” havaitsemiseen, todistusaineiston luotettavuuden arviointiin rikosoikeudellisissa menettelyissä, todellisen tai mahdollisen rikoksen esiintymisen tai toistumisen ennustamiseen luonnollisten henkilöiden profiloinnin tai luonnollisten henkilöiden tai ryhmien persoonallisuuspiirteiden ja ominaispiirteiden tai aiemman rikollisen käyttäytymisen arvioinnin perusteella, rikosten paljastamisen, tutkimisen tai rikoksiin liittyvien syytetoimien yhteydessä tapahtuvaan profilointiin tai luonnollisia henkilöitä koskevaan rikosanalyysiin. Tekoälyjärjestelmiä, jotka on erityisesti tarkoitettu käytettäviksi vero- ja tulliviranomaisten hallinnollisissa menettelyissä, ei pitäisi pitää suuririskisinä tekoälyjärjestelminä, joita lainvalvontaviranomaiset käyttävät rikosten ennalta estämiseen, tutkimiseen, paljastamiseen tai rikoksiin liittyviin syytetoimiin.
(39)Muuttoliikkeen hallinnassa, turvapaikka-asioissa ja rajavalvonnassa käytettävät tekoälyjärjestelmät vaikuttavat ihmisiin, jotka ovat usein erityisen haavoittuvassa asemassa ja riippuvaisia toimivaltaisten viranomaisten toimien tuloksista. Näissä yhteyksissä käytettävien tekoälyjärjestelmien tarkkuus, syrjimätön luonne ja läpinäkyvyys on sen vuoksi erityisen tärkeää, jotta voidaan taata asianomaisten henkilöiden perusoikeuksien kunnioittaminen, erityisesti heidän oikeutensa vapaaseen liikkuvuuteen, syrjimättömyyteen, yksityiselämän ja henkilötietojen suojaan, kansainväliseen suojeluun ja hyvään hallintoon. Sen vuoksi on aiheellista luokitella suuririskisiksi tekoälyjärjestelmät, joita muuttoliikkeen hallinnassa, turvapaikka-asioissa ja rajavalvonnassa vastaavien toimivaltaisten viranomaisten on tarkoitus käyttää valheenpaljastimina ja vastaavina välineinä tai luonnollisen henkilön emotionaalisen tilan havaitsemiseen; jäsenvaltion alueelle saapuvien tai viisumia tai turvapaikkaa hakevien luonnollisten henkilöiden aiheuttamien tiettyjen riskien arvioimiseen; luonnollisten henkilöiden asiaa koskevien asiakirjojen aitouden tarkistamiseen; sekä toimivaltaisten viranomaisten avustamiseen turvapaikka-, viisumi- ja oleskelulupahakemusten ja niihin liittyvien valitusten käsittelyssä, kun tavoitteena on vahvistaa asemaa hakevien luonnollisten henkilöiden kelpoisuus. Tämän asetuksen soveltamisalaan kuuluvien muuttoliikkeen hallinnan, turvapaikka-asioiden ja rajavalvonnan alan tekoälyjärjestelmien olisi oltava Euroopan parlamentin ja neuvoston direktiivissä 2013/32/EU, Euroopan parlamentin ja neuvoston asetuksessa (EY) N:o 810/2009 ja muussa asiaa koskevassa lainsäädännössä säädettyjen asiaankuuluvien menettelyvaatimusten mukaisia.
(40)Tietyt oikeudenhoitoon ja demokraattisiin prosesseihin tarkoitetut tekoälyjärjestelmät olisi luokiteltava suuririskisiksi ottaen huomioon niiden mahdollinen merkittävä vaikutus demokratiaan, oikeusvaltioon, yksilön vapauksiin sekä oikeuteen tehokkaisiin oikeussuojakeinoihin ja puolueettomaan tuomioistuimeen. Erityisesti mahdollisten vinoutumien, virheiden ja läpinäkymättömyyden riskeihin puuttumiseksi on aiheellista luokitella suuririskisiksi tekoälyjärjestelmät, joiden tarkoituksena on auttaa oikeusviranomaisia tutkimaan ja tulkitsemaan tosiseikkoja ja lainsäädäntöä sekä soveltamaan lainsäädäntöä konkreettisiin tosiseikkoihin. Tällaista luokitusta ei kuitenkaan pitäisi ulottaa tekoälyjärjestelmiin, jotka on tarkoitettu puhtaasti hallinnollisiin tukitoimiin, jotka eivät vaikuta oikeudenkäyttöön yksittäisissä tapauksissa, kuten tuomioistuinten päätösten, asiakirjojen tai tietojen anonymisointiin tai pseudonymisointiin, henkilöstön väliseen viestintään, hallinnollisiin tehtäviin tai resurssien jakamiseen.
(41)Sen, että tekoälyjärjestelmä luokitellaan tässä asetuksessa suuririskiseksi, ei pitäisi tulkita osoittavan, että järjestelmän käyttö on välttämättä laillista muiden unionin säädösten tai unionin oikeuden kanssa yhteensopivan kansallisen lainsäädännön nojalla, jota on annettu esimerkiksi henkilötietojen suojasta tai valheenpaljastimien ja vastaavien välineiden tai muiden järjestelmien käytöstä tai luonnollisen henkilön emotionaalisen tilan havaitsemisesta. Tällaisen käytön olisi jatkuttava yksinomaan perusoikeuskirjasta ja sovellettavista unionin johdetun oikeuden säädöksistä ja kansallisesta lainsäädännöstä johtuvien sovellettavien vaatimusten mukaisesti. Tätä asetusta ei pitäisi ymmärtää niin, että siinä säädettäisiin oikeusperustasta henkilötietojen käsittelylle, mukaan lukien tarvittaessa erityiset henkilötietoryhmät.
(42)Jotta voidaan vähentää riskejä, joita unionin markkinoille saatetuista tai muuten käyttöön otetuista suuririskisistä tekoälyjärjestelmistä aiheutuu käyttäjille ja asianomaisille henkilöille, olisi sovellettava tiettyjä pakollisia vaatimuksia, joissa otetaan huomioon järjestelmän suunniteltu käyttötarkoitus sekä tarjoajan perustama riskinhallintajärjestelmä.
(43)Suuririskisiin tekoälyjärjestelmiin olisi sovellettava vaatimuksia, jotka koskevat käytettyjen datajoukkojen laatua, teknistä dokumentaatiota ja tietojen säilyttämistä, läpinäkyvyyttä ja tietojen antamista käyttäjille, ihmisen suorittamaa valvontaa sekä luotettavuutta, tarkkuutta ja kyberturvallisuutta. Nämä vaatimukset ovat tarpeen, jotta voidaan tehokkaasti vähentää terveyteen, turvallisuuteen ja perusoikeuksiin kohdistuvia riskejä, siltä osin kuin niitä esiintyy järjestelmän käyttötarkoituksen perusteella, ja koska muita vähemmän kauppaa rajoittavia toimenpiteitä ei ole kohtuudella käytettävissä, jolloin vältetään perusteettomat kaupan rajoitukset.
(44)Datan korkea laatu on olennaisen tärkeää monien tekoälyjärjestelmien suorituskyvyn kannalta, erityisesti kun käytetään tekniikoita, joihin sisältyy mallien kouluttamista, jotta voidaan varmistaa, että suuririskinen tekoälyjärjestelmä toimii tarkoitetulla tavalla ja turvallisesti eikä siitä tule unionin lainsäädännössä kiellettyä syrjinnän lähdettä. Korkealaatuiset koulutus-, validointi- ja testausdatajoukot edellyttävät asianmukaisia datahallinto- ja hallintakäytäntöjä. Koulutus-, validointi- ja testausdatajoukkojen olisi oltava riittävän merkityksellisiä, edustavia ja virheettömiä ja täydellisiä järjestelmän suunniteltuun käyttötarkoitukseen nähden. Niillä olisi lisäksi oltava asianmukaiset tilastolliset ominaisuudet, myös niiden henkilöiden tai henkilöryhmien osalta, joihin suuririskistä tekoälyjärjestelmää on tarkoitus käyttää. Koulutus-, validointi- ja testausdatajoukoissa olisi erityisesti otettava niiden käyttötarkoituksen edellyttämässä laajuudessa huomioon ne ominaispiirteet, ominaisuudet tai osatekijät, jotka ovat ominaisia sille maantieteelliselle, käyttäytymiseen liittyvälle tai toiminnalliselle ympäristölle tai asiayhteydelle, jossa suuririskistä tekoälyjärjestelmää on tarkoitus käyttää. Jotta voitaisiin suojella muita tekoälyjärjestelmissä esiintyvästä vinoutumisesta mahdollisesti johtuvalta syrjinnältä, tarjoajien olisi voitava käsitellä myös erityisiä henkilötietoryhmiä tärkeän yleisen edun nimissä, jotta voidaan varmistaa suuririskisiin tekoälyjärjestelmiin liittyvien vinoutumien seuranta, havaitseminen ja korjaaminen.
(45)Suuririskisten tekoälyjärjestelmien kehittämiseksi tiettyjen toimijoiden, esimerkiksi tarjoajien, ilmoitettujen laitosten ja muiden asiaankuuluvien tahojen, kuten digitaali-innovaatiokeskittymien, testauslaitosten ja tutkijoiden, olisi voitava saada käyttöönsä ja käyttää korkealaatuisia datajoukkoja tähän asetukseen liittyvillä toiminta-aloillaan. Komission perustama yhteinen eurooppalainen data-avaruus ja datan jakamisen helpottaminen yritysten välillä ja viranomaisten kanssa yleisen edun nimissä ovat ratkaisevan tärkeitä, jotta voidaan tarjota luotettava, vastuullinen ja syrjimätön pääsy korkealaatuiseen dataan tekoälyjärjestelmien koulutusta, validointia ja testausta varten. Esimerkiksi terveydenhuollon alalla eurooppalainen terveysdata-avaruus helpottaa terveysdatan syrjimätöntä saatavuutta ja tekoälyalgoritmien koulutusta näillä datajoukoilla yksityisyyden suojaavalla, turvallisella, oikea-aikaisella, läpinäkyvällä ja luotettavalla tavalla ja asianmukaisen institutionaalisen hallinnon alaisena. Asiaankuuluvat toimivaltaiset viranomaiset, myös alakohtaiset viranomaiset, jotka tarjoavat dataa tai tukevat datan saatavuutta, voivat myös tukea korkealaatuisen datan tarjoamista tekoälyjärjestelmien koulutusta, validointia ja testausta varten.
(46)Tämän asetuksen vaatimusten noudattamisen todentamisen kannalta on olennaisen tärkeää saada tietoa siitä, miten suuririskiset tekoälyjärjestelmät on kehitetty ja miten ne toimivat koko niiden elinkaaren ajan. Tämä edellyttää, että tiedot säilytetään ja että saatavilla on tekninen dokumentaatio, joka sisältää tiedot, joita tarvitaan sen arvioimiseksi, onko tekoälyjärjestelmä asiaankuuluvien vaatimusten mukainen. Tällaisiin tietoihin olisi sisällyttävä järjestelmän yleiset ominaisuudet, valmiudet ja rajoitukset, algoritmit, data, koulutus-, testaus- ja validointiprosessit sekä sovellettua riskinhallintajärjestelmää koskevat asiakirjat. Tekninen dokumentaatio olisi pidettävä ajan tasalla.
(47)Jotta voidaan puuttua läpinäkymättömyyteen, joka voi tehdä tietyistä tekoälyjärjestelmistä käsittämättömiä tai liian monimutkaisia luonnollisille henkilöille, suuririskisiltä tekoälyjärjestelmiltä olisi edellytettävä tiettyä läpinäkyvyyttä. Käyttäjien olisi voitava tulkita järjestelmän tuotosta ja käyttää sitä asianmukaisesti. Suuririskisten tekoälyjärjestelmien mukana olisi sen vuoksi oltava asiaankuuluvat asiakirjat ja käyttöohjeet, joiden olisi sisällettävä ytimekkäitä ja selkeitä tietoja, tarvittaessa myös mahdollisista perusoikeuksiin kohdistuvista riskeistä ja syrjintäriskeistä.
(48)Suuririskiset tekoälyjärjestelmät olisi suunniteltava ja kehitettävä siten, että luonnolliset henkilöt voivat valvoa niiden toimintaa. Tätä varten järjestelmän tarjoajan olisi määritettävä asianmukaiset ihmisen suorittamat valvontatoimenpiteet ennen järjestelmän markkinoille saattamista tai käyttöönottoa. Tällaisilla toimenpiteillä olisi tarvittaessa erityisesti varmistettava, että järjestelmässä on sisäänrakennettuja toiminnallisia rajoituksia, joita järjestelmä ei voi itse ohittaa ja jotka vastaavat ihmiskäyttäjän komentoihin, ja että luonnollisilla henkilöillä, joiden tehtäväksi ihmisen suorittama valvonta on annettu, on tarvittava pätevyys, koulutus ja valtuudet tämän tehtävän hoitamiseksi.
(49)Suuririskisten tekoälyjärjestelmien olisi toimittava johdonmukaisesti koko elinkaarensa ajan ja saavutettava asianmukainen tarkkuuden, luotettavuuden ja kyberturvallisuuden taso yleisesti tunnustetun alan viimeisimmän kehityksen mukaisesti. Tarkkuustaso ja tarkkuusmittarit olisi ilmoitettava käyttäjille.
(50)Tekninen luotettavuus on yksi suuririskisten tekoälyjärjestelmien keskeinen vaatimus. Niiden olisi kestettävä järjestelmän rajoituksiin liittyviä riskejä (esim. virheet, viat, epäjohdonmukaisuudet, odottamattomat tilanteet) sekä ilkivaltaisia toimia, jotka voivat vaarantaa tekoälyjärjestelmän turvallisuuden ja johtaa haitalliseen tai muuten ei-toivottuun käyttäytymiseen. Se, ettei näiltä riskeiltä suojauduta, voi johtaa turvallisuusvaikutuksiin tai vaikuttaa kielteisesti perusoikeuksiin esimerkiksi virheellisten päätösten tai tekoälyjärjestelmän tuottamien väärien tai puolueellisten tulosten vuoksi.
(51)Kyberturvallisuudella on ratkaiseva merkitys varmistettaessa, että tekoälyjärjestelmät kestävät järjestelmän haavoittuvuuksia hyödyntävien vihamielisten kolmansien osapuolten yritykset muuttaa niiden käyttöä, käyttäytymistä tai suorituskykyä tai vaarantaa niiden turvallisuusominaisuudet. Tekoälyjärjestelmiin kohdistuvissa kyberhyökkäyksissä voidaan käyttää hyväksi tekoälyyn liittyviä resursseja, kuten koulutusdatajoukkoja (esim. datamyrkytys) tai koulutettuja malleja (esim. kontradiktoriset hyökkäykset), tai hyödyntää tekoälyjärjestelmän digitaalisten resurssien tai taustalla olevan tieto- ja viestintätekniikkainfrastruktuurin haavoittuvuuksia. Jotta voidaan varmistaa riskeihin nähden asianmukainen kyberturvallisuuden taso, suuririskisten tekoälyjärjestelmien tarjoajien olisi toteutettava asianmukaisia toimenpiteitä ottaen tarvittaessa huomioon myös taustalla oleva tieto- ja viestintätekniikkainfrastruktuuri.
(52)Suuririskisten tekoälyjärjestelmien markkinoille saattamiseen, käyttöönottoon ja käyttöön sovellettavat säännöt olisi osana unionin yhdenmukaistamislainsäädäntöä vahvistettava johdonmukaisesti tuotteiden kaupan pitämiseen liittyvää akkreditointia ja markkinavalvontaa koskevista vaatimuksista annetun Euroopan parlamentin ja neuvoston asetuksen (EY) N:o 765/2008, tuotteiden kaupan pitämiseen liittyvistä yhteisistä puitteista tehdyn Euroopan parlamentin ja neuvoston päätöksen N:o 768/2008/EY sekä markkinavalvonnasta ja tuotteiden vaatimustenmukaisuudesta annetun Euroopan parlamentin ja neuvoston asetuksen (EU) 2019/1020, jäljempänä ’tuotteiden kaupan pitämistä koskeva uusi lainsäädäntökehys’, kanssa.
(53)On asianmukaista, että tietty tarjoajaksi määritelty luonnollinen tai oikeushenkilö ottaa vastuun suuririskisen tekoälyjärjestelmän markkinoille saattamisesta tai käyttöönotosta riippumatta siitä, onko kyseinen luonnollinen henkilö tai oikeushenkilö järjestelmän suunnittelija tai kehittäjä.
(54)Tarjoajan olisi perustettava luotettava laadunhallintajärjestelmä, varmistettava vaaditun vaatimustenmukaisuuden arviointimenettelyn suorittaminen, laadittava asiaa koskeva dokumentaatio ja perustettava vankka markkinoille saattamisen jälkeinen seurantajärjestelmä. Viranomaiset, jotka ottavat käyttöön suuririskisiä tekoälyjärjestelmiä omaan käyttöönsä, voivat tarvittaessa hyväksyä ja panna täytäntöön laadunhallintajärjestelmää koskevat säännöt osana kansallisella tai alueellisella tasolla hyväksyttyä laadunhallintajärjestelmää ottaen huomioon alan erityispiirteet ja kyseisen viranomaisen toimivallan ja organisaation.
(55)Jos suuririskistä tekoälyjärjestelmää, joka on sellaisen tuotteen turvakomponentti, joka kuuluu uuden lainsäädäntökehyksen asiaa koskevan alakohtaisen lainsäädännön soveltamisalaan, ei saateta markkinoille tai oteta käyttöön tuotteesta erillään, uuden lainsäädäntökehyksen asiaa koskevassa lainsäädännössä määritellyn lopputuotteen valmistajan olisi noudatettava tässä asetuksessa vahvistettuja tarjoajan velvollisuuksia ja erityisesti varmistettava, että lopputuotteeseen sulautettu tekoälyjärjestelmä on tämän asetuksen vaatimusten mukainen.
(56)Tämän asetuksen täytäntöönpanon mahdollistamiseksi ja tasapuolisten toimintaedellytysten luomiseksi toimijoille ja ottaen huomioon digitaalisten tuotteiden saataville asettamisen eri muodot on tärkeää varmistaa, että unioniin sijoittautunut henkilö voi kaikissa olosuhteissa antaa viranomaisille kaikki tarvittavat tiedot tekoälyjärjestelmän vaatimustenmukaisuudesta. Siksi jos maahantuojaa ei voida yksilöidä, unionin ulkopuolelle sijoittautuneiden tarjoajien on ennen tekoälyjärjestelmiensä asettamista saataville unionin markkinoilla nimettävä kirjallisella toimeksiannolla unioniin sijoittautunut valtuutettu edustaja.
(57)Uuden lainsäädäntökehyksen periaatteiden mukaisesti asianomaisille talouden toimijoille, kuten maahantuojille ja jakelijoille, olisi asetettava erityisvelvoitteita, jotta voidaan taata oikeusvarmuus ja helpottaa säännösten noudattamista kyseisten toimijoiden keskuudessa.
(58)Kun otetaan huomioon tekoälyjärjestelmien luonne ja niiden käyttöön mahdollisesti liittyvät turvallisuuteen ja perusoikeuksiin kohdistuvat riskit, mukaan lukien tarve varmistaa tekoälyjärjestelmän suorituskyvyn asianmukainen seuranta todellisissa olosuhteissa, on asianmukaista asettaa käyttäjille erityisiä vastuita. Käyttäjien olisi erityisesti käytettävä suuririskisiä tekoälyjärjestelmiä käyttöohjeiden mukaisesti, ja tarvittaessa olisi säädettävä tietyistä muista tekoälyjärjestelmien toiminnan seurantaa ja tietojen säilyttämistä koskevista velvoitteista.
(59)Tekoälyjärjestelmän käyttäjän olisi ymmärrettävä tarkoittavan luonnollista tai oikeushenkilöä, viranomaista, virastoa tai muuta tahoa, jonka valvonnassa tekoälyjärjestelmää käytetään, paitsi jos tekoälyjärjestelmää käytetään henkilökohtaisessa muussa kuin ammattitoiminnassa.
(60)Tekoälyn arvoketjun monimutkaisuuden vuoksi asiaankuuluvien kolmansien osapuolten, erityisesti ohjelmistojen, ohjelmistotyökalujen ja komponenttien sekä ennalta koulutettujen mallien ja datan myyntiin ja toimittamiseen osallistuvien kolmansien osapuolten tai verkkopalvelujen tarjoajien, olisi tarpeen mukaan tehtävä yhteistyötä tarjoajien ja käyttäjien kanssa, jotta ne voivat noudattaa tämän asetuksen mukaisia velvoitteitaan, sekä tämän asetuksen nojalla perustettujen toimivaltaisten viranomaisten kanssa.
(61)Standardoinnilla olisi oltava keskeinen rooli, jotta tarjoajien käyttöön saadaan teknisiä ratkaisuja, joilla voidaan varmistaa tämän asetuksen noudattaminen. Tarjoajien olisi voitava osoittaa noudattavansa tämän asetuksen vaatimuksia noudattamalla Euroopan parlamentin ja neuvoston asetuksessa (EU) N:o 1025/2012 määriteltyjä yhdenmukaistettuja standardeja. Komissio voisi kuitenkin hyväksyä yhteisiä teknisiä eritelmiä aloilla, joilla ei ole yhdenmukaistettuja standardeja tai joilla ne ovat riittämättömiä.
(62)Jotta voidaan varmistaa suuririskisten tekoälyjärjestelmien korkea luotettavuus, kyseisille järjestelmille olisi tehtävä vaatimustenmukaisuuden arviointi ennen kuin ne saatetaan markkinoille tai otetaan käyttöön.
(63)Jotta voidaan minimoida toimijoille aiheutuva rasite ja välttää mahdolliset päällekkäisyydet, sellaisten suuririskisten tekoälyjärjestelmien, jotka kuuluvat voimassa olevan unionin yhdenmukaistamislainsäädännön soveltamisalaan uutta lainsäädäntökehystä koskevan lähestymistavan mukaisesti, tämän asetuksen vaatimusten mukaisuutta on asianmukaista arvioida osana kyseisessä lainsäädännössä jo säädettyä vaatimustenmukaisuuden arviointia. Tämän asetuksen vaatimusten sovellettavuus ei näin ollen saisi vaikuttaa asiaa koskevassa uuden lainsäädäntökehyksen mukaisessa lainsäädännössä säädetyn vaatimustenmukaisuuden arvioinnin erityiseen logiikkaan, menetelmiin tai yleiseen rakenteeseen. Tämä lähestymistapa otetaan täysin huomioon tämän asetuksen ja [koneasetuksen] vuorovaikutuksessa. Tämän asetuksen vaatimuksilla puututaan koneiden turvatoimintoja ohjaavien tekoälyjärjestelmien turvallisuusriskeihin, kun taas tietyillä [koneasetuksen] erityisvaatimuksilla varmistetaan tekoälyjärjestelmän turvallinen integrointi koneisiin niin, että niiden kokonaisturvallisuus ei vaarannu. [Koneasetuksessa] sovelletaan samaa tekoälyjärjestelmän määritelmää kuin tässä asetuksessa.
(64)Kun otetaan huomioon, että markkinoille saattamista edeltävässä vaiheessa toimivilla ammattimaisilla sertifioijilla on laajempi kokemus tuoteturvallisuuden alalla, ja koska asiaan liittyvät riskit ovat luonteeltaan erilaisia, ainakin tämän asetuksen soveltamisen alkuvaiheessa on asianmukaista rajoittaa kolmannen osapuolen suorittaman vaatimustenmukaisuuden arvioinnin soveltamisalaa muiden kuin tuotteisiin liittyvien suuririskisten tekoälyjärjestelmien osalta. Sen vuoksi tarjoajan olisi pääsääntöisesti suoritettava tällaisten järjestelmien vaatimustenmukaisuuden arviointi omalla vastuullaan, lukuun ottamatta ainoastaan tekoälyjärjestelmiä, joita on tarkoitus käyttää henkilöiden biometriseen etätunnistukseen ja joiden osalta olisi säädettävä ilmoitetun laitoksen osallistumisesta vaatimustenmukaisuuden arviointiin, mikäli näitä järjestelmiä ei ole kielletty.
(65)Jotta tekoälyjärjestelmille, joita on tarkoitus käyttää henkilöiden biometriseen etätunnistukseen, voidaan tehdä kolmannen osapuolen suorittama vaatimustenmukaisuuden arviointi, kansallisten toimivaltaisten viranomaisten olisi nimettävä tämän asetuksen nojalla ilmoitetut laitokset edellyttäen, että ne täyttävät tietyt vaatimukset, jotka koskevat erityisesti riippumattomuutta, pätevyyttä ja eturistiriitojen puuttumista.
(66)Unionin yhdenmukaistamislainsäädännössä säänneltyjä tuotteita koskevan yleisesti vahvistetun merkittävän muutoksen käsitteen mukaisesti on aiheellista, että tekoälyjärjestelmälle tehdään uusi vaatimustenmukaisuuden arviointi aina, kun tapahtuu muutos, joka voi vaikuttaa siihen, onko järjestelmä tämän asetuksen mukainen, tai kun järjestelmän käyttötarkoitus muuttuu. Lisäksi sellaisten tekoälyjärjestelmien osalta, jotka jatkavat oppimista markkinoille saattamisen tai käyttöönoton jälkeen (eli ne mukauttavat automaattisesti tapaa, jolla toiminnot toteutetaan), on tarpeen vahvistaa säännöt, joiden mukaan algoritmiin ja sen suorituskykyyn tehtävien muutosten, jotka tarjoaja on määritellyt ennalta ja jotka on arvioitu ensimmäisen vaatimustenmukaisuuden arvioinnin yhteydessä, ei pitäisi katsoa muodostavan merkittävää muutosta.
(67)Suuririskisissä tekoälyjärjestelmissä olisi oltava CE-merkintä, joka osoittaa niiden olevan tämän asetuksen mukaisia, jotta ne voivat liikkua vapaasti sisämarkkinoilla. Jäsenvaltiot eivät saisi perusteettomasti estää sellaisten suuririskisten tekoälyjärjestelmien markkinoille saattamista tai käyttöön ottamista, jotka ovat tässä asetuksessa vahvistettujen vaatimusten mukaisia ja joissa on CE-merkintä.
(68)Tietyissä olosuhteissa innovatiivisten teknologioiden nopea saatavuus voi olla ratkaisevan tärkeää ihmisten terveyden ja turvallisuuden sekä koko yhteiskunnan kannalta. Siksi on asianmukaista, että yleiseen turvallisuuteen tai luonnollisten henkilöiden elämän ja terveyden suojeluun sekä teollisen ja kaupallisen omaisuuden suojeluun liittyvistä poikkeuksellisista syistä jäsenvaltiot voisivat sallia sellaisten tekoälyjärjestelmien markkinoille saattamisen tai käyttöönoton, joille ei ole tehty vaatimustenmukaisuuden arviointia.
(69)Jotta helpotettaisiin komission ja jäsenvaltioiden työtä tekoälyn alalla ja lisättäisiin avoimuutta yleisöön nähden, muiden kuin asiaa koskevan unionin voimassa olevan yhdenmukaistamislainsäädännön soveltamisalaan kuuluviin tuotteisiin liittyvien suuririskisten tekoälyjärjestelmien tarjoajia olisi vaadittava rekisteröimään suuririskinen tekoälyjärjestelmänsä EU:n tietokantaan, jonka komissio perustaa ja jota se hallinnoi. Komission olisi oltava kyseisen tietokannan rekisterinpitäjä Euroopan parlamentin ja neuvoston asetuksen (EU) 2018/1725 mukaisesti. Jotta tietokanta olisi täysin toimintavalmis kuin se otetaan käyttöön, sen perustamismenettelyyn olisi sisällyttävä komission laatimat toiminnalliset eritelmät ja riippumaton auditointiraportti.
(70)Tietyt tekoälyjärjestelmät, jotka on tarkoitettu toimimaan vuorovaikutuksessa luonnollisten henkilöiden kanssa tai tuottamaan sisältöä, voivat aiheuttaa erityisiä toisena henkilönä esiintymiseen tai harhaanjohtamiseen liittyviä riskejä riippumatta siitä, luokitellaanko ne suuririskisiksi vai ei. Siksi näiden järjestelmien käyttöön olisi tietyissä olosuhteissa sovellettava erityisiä läpinäkyvyysvelvoitteita, sanotun kuitenkaan rajoittamatta suuririskisiä tekoälyjärjestelmiä koskevien vaatimusten ja velvoitteiden soveltamista. Luonnollisille henkilöille olisi erityisesti ilmoitettava, että he ovat vuorovaikutuksessa tekoälyjärjestelmän kanssa, ellei tämä ole olosuhteiden ja käyttöyhteyden perusteella ilmeistä. Lisäksi luonnollisille henkilöille olisi ilmoitettava, jos he altistuvat tunteentunnistusjärjestelmälle tai biometriselle luokitusjärjestelmälle. Tällaiset tiedot ja ilmoitukset olisi annettava vammaisille henkilöille soveltuvassa muodossa. Lisäksi sellaisen tekoälyjärjestelmän käyttäjien, joka tuottaa tai manipuloi kuva-, ääni- tai videosisältöä, joka selvästi muistuttaa olemassa olevia henkilöitä, paikkoja tai tapahtumia ja joka voi ihmisestä vaikuttaa virheellisesti aidolta, olisi ilmoitettava, että sisältö on keinotekoisesti tuotettu tai manipuloitu merkitsemällä tekoälyn tuotos vastaavasti ja paljastamalla sen keinotekoinen alkuperä.
(71)Tekoäly on nopeasti kehittyvä teknologiakokonaisuus, joka edellyttää uudenlaisia viranomaisvalvonnan muotoja ja turvallista tilaa kokeiluille samalla kun varmistetaan vastuullinen innovointi ja asianmukaisten suojatoimien ja riskinhallintatoimenpiteiden integrointi. Jotta voidaan varmistaa innovaatiomyönteinen, tulevaisuuden vaatimukset huomioon ottava ja häiriönsietokykyinen oikeudellinen kehys, yhden tai useamman jäsenvaltion kansallisia toimivaltaisia viranomaisia olisi kannustettava perustamaan tekoälyn sääntelyn testiympäristöjä, joilla helpotetaan innovatiivisten tekoälyjärjestelmien kehittämistä ja testausta tiukassa viranomaisvalvonnassa ennen kuin nämä järjestelmät saatetaan markkinoille tai otetaan muulla tavoin käyttöön.
(72)Sääntelyn testiympäristöjen tavoitteena olisi oltava tekoälyyn liittyvän innovoinnin edistäminen luomalla hallittu kokeilu- ja testausympäristö kehitysvaiheessa ja markkinoille saattamista edeltävässä vaiheessa, jotta voidaan varmistaa, että innovatiiviset tekoälyjärjestelmät ovat tämän asetuksen ja muun asiaankuuluvan unionin ja jäsenvaltioiden lainsäädännön mukaisia, ja jotta voidaan parantaa innovoijien oikeusvarmuutta ja toimivaltaisten viranomaisten valvontaa sekä ymmärrystä tekoälyn käytön mahdollisuuksista ja siihen liittyvistä riskeistä ja vaikutuksista ja nopeuttaa markkinoille pääsyä muun muassa poistamalla esteitä pieniltä ja keskisuurilta yrityksiltä (pk-yrityksiltä) ja startup-yrityksiltä. Yhdenmukaisen täytäntöönpanon varmistamiseksi koko unionissa ja mittakaavaetujen saavuttamiseksi on aiheellista vahvistaa yhteiset säännöt sääntelyn testiympäristöjen toteuttamiselle ja puitteet testiympäristöjen valvontaan osallistuvien asiaankuuluvien viranomaisten väliselle yhteistyölle. Tämän asetuksen olisi muodostettava oikeusperusta sellaisten henkilötietojen käytölle, jotka on kerätty muihin tarkoituksiin tiettyjen yleisen edun mukaisten tekoälyjärjestelmien kehittämiseksi tekoälyn sääntelyn testiympäristössä, asetuksen (EU) 2016/679 6 artiklan 4 kohdan ja asetuksen (EU) 2018/1725 6 artiklan mukaisesti ja rajoittamatta direktiivin (EU) 2016/680 4 artiklan 2 kohdan soveltamista. Testiympäristön osallistujien olisi varmistettava asianmukaiset suojatoimet ja tehtävä yhteistyötä toimivaltaisten viranomaisten kanssa muun muassa noudattamalla niiden ohjeita ja toimimalla nopeasti ja vilpittömästi lieventääkseen mahdollisia turvallisuuteen ja perusoikeuksiin kohdistuvia suuria riskejä, joita voi syntyä testiympäristössä tapahtuvan kehittämisen ja kokeilun aikana. Testiympäristön osallistujien käyttäytyminen olisi otettava huomioon, kun toimivaltaiset viranomaiset päättävät hallinnollisen sakon määräämisestä asetuksen 2016/679 83 artiklan 2 kohdan ja direktiivin 2016/680 57 artiklan nojalla.
(73)Innovoinnin edistämiseksi ja suojaamiseksi on tärkeää, että tekoälyjärjestelmien pienten tarjoajien ja käyttäjien edut otetaan erityisesti huomioon. Tätä varten jäsenvaltioiden olisi kehitettävä kyseisille toimijoille suunnattuja aloitteita, jotka koskevat muun muassa tietoisuuden lisäämistä ja tiedotusta. Pienten tarjoajien erityisedut ja -tarpeet on otettava huomioon myös silloin, kun ilmoitetut laitokset asettavat vaatimustenmukaisuuden arvioinnista perittäviä maksuja. Pakolliseen dokumentaatioon ja viranomaisviestintään liittyvät käännöskustannukset voivat aiheuttaa merkittäviä kustannuksia tarjoajille ja muille toimijoille, erityisesti pienemmille toimijoille. Jäsenvaltioiden olisi mahdollisesti varmistettava, että yksi kielistä, jonka ne ovat määrittäneet ja hyväksyneet käytettäväksi asiaankuuluvien tarjoajien dokumentaatiossa ja viestinnässä toimijoiden kanssa, on kieli, jota mahdollisimman monet rajatylittävät käyttäjät ymmärtävät.
(74)Jotta voidaan minimoida markkinoilla olevan tiedon ja asiantuntemuksen puutteesta aiheutuvat riskit täytäntöönpanolle ja helpotetaan tämän asetuksen mukaisten velvoitteiden noudattamista tarjoajien ja ilmoitettujen laitosten taholta, tekoälyyn keskittyvän tilauspohjaisen alustan, eurooppalaisten digitaali-innovointikeskittymien sekä komission ja jäsenvaltioiden kansallisella tai EU:n tasolla perustamien testaus- ja kokeilulaitosten olisi mahdollisuuksien mukaan edistettävä tämän asetuksen täytäntöönpanoa. Ne voivat tehtäviensä ja osaamisalojensa puitteissa antaa erityisesti teknistä ja tieteellistä tukea tarjoajille ja ilmoitetuille laitoksille.
(75)On aiheellista, että komissio helpottaa mahdollisuuksien mukaan sellaisten elinten, ryhmien tai laboratorioiden mahdollisuuksia käyttää testaus- ja kokeilulaitoksia, jotka on perustettu tai akkreditoitu asiaa koskevan unionin yhdenmukaistamislainsäädännön nojalla ja jotka suorittavat kyseisen unionin yhdenmukaistamislainsäädännön soveltamisalaan kuuluvien tuotteiden tai laitteiden vaatimustenmukaisuuden arviointiin liittyviä tehtäviä. Tämä koskee erityisesti asetuksen (EU) 2017/745 ja asetuksen (EU) 2017/746 mukaisia lääkinnällisiä laitteita käsitteleviä asiantuntijapaneeleja, asiantuntijalaboratorioita ja vertailulaboratorioita.
(76)Tämän asetuksen sujuvan, tehokkaan ja yhdenmukaisen täytäntöönpanon helpottamiseksi olisi perustettava Euroopan tekoälyneuvosto. Neuvoston olisi vastattava useista neuvoa-antavista tehtävistä, kuten lausuntojen, suositusten, neuvojen tai ohjeiden antamisesta tämän asetuksen täytäntöönpanoon liittyvissä asioissa, esimerkiksi tässä asetuksessa vahvistettuja vaatimuksia koskevista teknisistä eritelmistä tai voimassa olevista standardeista, sekä neuvojen ja avun antamisesta komissiolle tekoälyyn liittyvissä erityiskysymyksissä.
(77)Jäsenvaltioilla on keskeinen rooli tämän asetuksen soveltamisessa ja täytäntöönpanon valvonnassa. Tältä osin kunkin jäsenvaltion olisi nimettävä yksi tai useampi kansallinen toimivaltainen viranomainen valvomaan tämän asetuksen soveltamista ja täytäntöönpanoa. Jotta voidaan lisätä organisoinnin tehokkuutta jäsenvaltioissa ja luoda virallinen yhteyspiste yleisölle ja muille vastaaville tahoille jäsenvaltioissa ja unionissa, kussakin jäsenvaltiossa olisi nimettävä yksi kansallinen viranomainen kansalliseksi valvontaviranomaiseksi.
(78)Sen varmistamiseksi, että suuririskisten tekoälyjärjestelmien tarjoajat voivat ottaa huomioon suuririskisten tekoälyjärjestelmien käytöstä saadut kokemukset järjestelmiensä parantamisessa ja suunnittelu- ja kehitysprosessissa tai voivat toteuttaa ajoissa kaikki mahdolliset korjaavat toimet, kaikilla tarjoajilla olisi oltava käytössä markkinoille saattamisen jälkeinen seurantajärjestelmä. Järjestelmä on keskeisessä asemassa myös sen varmistamisessa, että riskeihin, joita mahdollisesti aiheutuu tekoälyjärjestelmistä, jotka jatkavat oppimista markkinoille saattamisen tai käyttöönoton jälkeen, voidaan puuttua tehokkaammin ja oikea-aikaisemmin. Tässä yhteydessä olisi myös edellytettävä, että tarjoajilla on käytössä järjestelmä, jolla ne voivat ilmoittaa asiaankuuluville viranomaisille kaikista vakavista vaaratilanteista tai perusoikeuksia suojaavan kansallisen ja unionin lainsäädännön rikkomisista, jotka ovat seurausta tekoälyjärjestelmien käytöstä.
(79)Jotta voidaan varmistaa tässä asetuksessa, joka on osa unionin yhdenmukaistamislainsäädäntöä, vahvistettujen vaatimusten ja velvollisuuksien asianmukainen ja tehokas täytäntöönpano, asetuksella (EU) 2019/1020 perustettua markkinavalvontaa ja tuotteiden vaatimustenmukaisuutta koskevaa järjestelmää olisi sovellettava kokonaisuudessaan. Kansallisilla viranomaisilla tai elimillä, jotka valvovat perusoikeuksia suojelevan unionin lainsäädännön soveltamista, mukaan lukien tasa-arvoelimet, olisi voitava saada käyttöönsä kaikki tämän asetuksen nojalla laadittu dokumentaatio, jos se on tarpeen niiden toimeksiannon kannalta.
(80)Rahoituspalveluja koskevaan unionin lainsäädäntöön sisältyy sisäistä hallintoa ja riskinhallintaa koskevia säännöksiä ja vaatimuksia, joita sovelletaan säänneltyihin rahoituslaitoksiin niiden tarjotessa kyseisiä palveluja, myös silloin, kun ne käyttävät tekoälyjärjestelmiä. Jotta voidaan varmistaa tämän asetuksen ja rahoituspalveluja koskevan unionin lainsäädännön asiaa koskevien sääntöjen ja vaatimusten johdonmukainen soveltaminen ja täytäntöönpano, rahoituspalvelulainsäädännön valvonnasta ja täytäntöönpanosta vastaavat viranomaiset, tarvittaessa myös Euroopan keskuspankki, olisi nimettävä toimivaltaisiksi viranomaisiksi valvomaan tämän asetuksen täytäntöönpanoa, myös markkinavalvontatoimia, säänneltyjen ja valvottujen rahoituslaitosten tarjoamien tai käyttämien tekoälyjärjestelmien osalta. Jotta voidaan edelleen parantaa johdonmukaisuutta tämän asetuksen ja Euroopan parlamentin ja neuvoston direktiivin 2013/36/EU nojalla säänneltyihin luottolaitoksiin sovellettavien sääntöjen välillä, direktiivin 2013/36/EU mukaisiin nykyisiin velvoitteisiin ja menettelyihin on aiheellista sisällyttää myös vaatimustenmukaisuuden arviointimenettely ja jotkin tarjoajien menettelylliset velvoitteet, jotka liittyvät riskinhallintaan, markkinoille saattamisen jälkeiseen seurantaan ja dokumentaatioon. Päällekkäisyyksien välttämiseksi olisi harkittava myös rajoitettuja poikkeuksia tarjoajien laadunhallintajärjestelmään ja suuririskisten tekoälyjärjestelmien käyttäjille asetettuun seurantavelvoitteeseen siltä osin kuin niitä sovelletaan direktiivillä 2013/36/EU säänneltyihin luottolaitoksiin.
(81)Muiden tekoälyjärjestelmien kuin suuririskisten tekoälyjärjestelmien kehittäminen tämän asetuksen vaatimusten mukaisesti voi johtaa luotettavan tekoälyn laajempaan käyttöönottoon unionissa. Muiden kuin suuririskisten tekoälyjärjestelmien tarjoajia olisi kannustettava laatimaan käytännesääntöjä, joilla pyritään edistämään suuririskisiin tekoälyjärjestelmiin sovellettavien pakollisten vaatimusten vapaaehtoista soveltamista. Tarjoajia olisi myös kannustettava soveltamaan vapaaehtoisesti lisävaatimuksia, jotka liittyvät esimerkiksi ekologiseen kestävyyteen, vammaisten henkilöiden esteettömyyteen, sidosryhmien osallistumiseen tekoälyjärjestelmien suunnitteluun ja kehittämiseen sekä kehitysryhmien monimuotoisuuteen. Komissio voi kehittää aloitteita, myös alakohtaisia aloitteita, helpottaakseen tekoälyn kehittämistä varten tapahtuvaa rajat ylittävää datanvaihtoa haittaavien teknisten esteiden vähentämistä, muun muassa datan käyttöinfrastruktuurin sekä eri datatyyppien semanttisen ja teknisen yhteentoimivuuden aloilla.
(82)On tärkeää, että tekoälyjärjestelmät, jotka liittyvät tuotteisiin, jotka eivät ole tämän asetuksen mukaisesti suuririskisiä ja joiden ei näin ollen tarvitse täyttää tässä asetuksessa vahvistettuja vaatimuksia, ovat kuitenkin turvallisia, kun ne saatetaan markkinoille tai otetaan käyttöön. Tämän tavoitteen saavuttamiseksi Euroopan parlamentin ja neuvoston direktiiviä 2001/95/EY sovellettaisiin turvaverkkona.
(83)Jotta voidaan varmistaa toimivaltaisten viranomaisten luotettava ja rakentava yhteistyö unionin ja kansallisella tasolla, kaikkien tämän asetuksen soveltamiseen osallistuvien osapuolten olisi kunnioitettava tehtäviään suorittaessaan saamiensa tietojen ja datan luottamuksellisuutta.
(84)Jäsenvaltioiden olisi toteutettava kaikki tarvittavat toimenpiteet sen varmistamiseksi, että tämän asetuksen säännökset pannaan täytäntöön, ja säädettävä niiden rikkomiseen sovellettavista tehokkaista, oikeasuhteisista ja varoittavista seuraamuksista. Tiettyjen rikkomisten osalta jäsenvaltioiden olisi otettava huomioon tässä asetuksessa vahvistetut marginaalit ja kriteerit. Euroopan tietosuojavaltuutetulla olisi oltava valta määrätä sakkoja tämän asetuksen soveltamisalaan kuuluville unionin toimielimille, virastoille ja elimille.
(85)Sen varmistamiseksi, että sääntelykehystä voidaan tarvittaessa mukauttaa, komissiolle olisi siirrettävä valta hyväksyä Euroopan unionin toiminnasta tehdyn sopimuksen 290 artiklan mukaisesti säädösvallan siirron nojalla annettavia delegoituja säädöksiä, joilla muutetaan liitteessä I esitettyä tekniikoiden ja lähestymistapojen luetteloa tekoälyjärjestelmien määrittelemiseksi, liitteessä II esitettyä unionin yhdenmukaistamislainsäädännön luetteloa, liitteessä III esitettyä suuririskisten tekoälyjärjestelmien luetteloa, liitteessä IV määriteltyä teknistä dokumentaatiota koskevia säännöksiä, liitteessä V esitetyn EU-vaatimustenmukaisuusvakuutuksen sisältöä, liitteissä VI ja VII esitettyjä vaatimustenmukaisuuden arviointimenettelyjä koskevia säännöksiä sekä säännöksiä, joilla määritetään suuririskiset tekoälyjärjestelmät, joihin olisi sovellettava laadunhallintajärjestelmän ja teknisen dokumentaation arviointiin perustuvaa vaatimustenmukaisuuden arviointimenettelyä. On erityisen tärkeää, että komissio asiaa valmistellessaan toteuttaa asianmukaiset kuulemiset, myös asiantuntijatasolla, ja että nämä kuulemiset toteutetaan paremmasta lainsäädännöstä 13 päivänä huhtikuuta 2016 tehdyssä toimielinten välisessä sopimuksessa vahvistettujen periaatteiden mukaisesti. Jotta voitaisiin erityisesti varmistaa tasavertainen osallistuminen delegoitujen säädösten valmisteluun, Euroopan parlamentille ja neuvostolle toimitetaan kaikki asiakirjat samaan aikaan kuin jäsenvaltioiden asiantuntijoille, ja Euroopan parlamentin ja neuvoston asiantuntijoilla on järjestelmällisesti oikeus osallistua komission asiantuntijaryhmien kokouksiin, joissa valmistellaan delegoituja säädöksiä.
(86)Jotta voidaan varmistaa tämän asetuksen yhdenmukainen täytäntöönpano, komissiolle olisi siirrettävä täytäntöönpanovaltaa. Tätä valtaa olisi käytettävä Euroopan parlamentin ja neuvoston asetuksen (EU) N:o 182/2011 mukaisesti.
(87)Jäsenvaltiot eivät voi riittävällä tavalla saavuttaa tämän asetuksen tavoitetta, vaan se voidaan toiminnan laajuuden tai vaikutusten vuoksi saavuttaa paremmin unionin tasolla. Sen vuoksi unioni voi toteuttaa toimenpiteitä Euroopan unionista tehdyn sopimuksen 5 artiklassa vahvistetun toissijaisuusperiaatteen mukaisesti. Mainitussa artiklassa vahvistetun suhteellisuusperiaatteen mukaisesti tässä asetuksessa ei ylitetä sitä, mikä on tarpeen tämän tavoitteen saavuttamiseksi.
(88)Tätä asetusta olisi sovellettava ... päivästä ...kuuta ... [julkaisutoimisto lisää 85 artiklassa vahvistetun päivämäärän]. Hallintoon ja vaatimustenmukaisuuden arviointijärjestelmään liittyvän infrastruktuurin olisi kuitenkin oltava toiminnassa ennen kyseistä päivämäärää, minkä vuoksi ilmoitettuja laitoksia ja hallintorakennetta koskevia säännöksiä olisi sovellettava ... päivästä ...kuuta ... [julkaisutoimisto lisää päivämäärän – kolme kuukautta tämän asetuksen voimaantulosta]. Jäsenvaltioiden olisi lisäksi vahvistettava säännöt, jotka koskevat seuraamuksia, myös hallinnollisia sakkoja, ja ilmoitettava niistä komissiolle sekä varmistettava, että ne pannaan asianmukaisesti ja tehokkaasti täytäntöön tämän asetuksen soveltamispäivään mennessä. Sen vuoksi seuraamuksia koskevia säännöksiä olisi sovellettava ... päivästä ...kuuta ... [julkaisutoimisto lisää päivämäärän – 12 kuukautta tämän asetuksen voimaantulosta].
(89)Euroopan tietosuojavaltuutettua ja Euroopan tietosuojaneuvostoa on kuultu asetuksen (EU) 2018/1725 42 artiklan 2 kohdan mukaisesti, ja ne antoivat lausuntonsa […],
OVAT HYVÄKSYNEET TÄMÄN ASETUKSEN:
I OSASTO
YLEISET SÄÄNNÖKSET
1 artikla
Kohde
Tässä asetuksessa vahvistetaan
(a)yhdenmukaistetut säännöt tekoälyjärjestelmien markkinoille saattamiselle, käyttöönotolle ja käytölle unionissa;
(a)tiettyjä tekoälyyn liittyviä käytäntöjä koskevat kiellot;
(b)suuririskisiä tekoälyjärjestelmiä koskevat erityisvaatimukset ja tällaisiin järjestelmiin liittyvien toimijoiden velvollisuudet;
(c)läpinäkyvyyttä koskevat yhdenmukaistetut säännöt tekoälyjärjestelmille, jotka on tarkoitettu toimimaan vuorovaikutuksessa luonnollisten henkilöiden kanssa, tunteentunnistusjärjestelmille ja biometrisille luokittelujärjestelmille sekä tekoälyjärjestelmille, joita käytetään kuva-, ääni- tai videosisällön tuottamiseen tai manipulointiin;
(d)markkinoiden seurantaa ja valvontaa koskevat säännöt.
2 artikla
Soveltamisala
1.Tätä asetusta sovelletaan
(a)tekoälyjärjestelmien tarjoajiin, jotka saattavat markkinoille tai ottavat käyttöön tekoälyjärjestelmiä unionissa, riippumatta siitä, ovatko kyseiset tarjoajat sijoittautuneet unioniin vai kolmanteen maahan;
(b)unionissa sijaitseviin tekoälyjärjestelmien käyttäjiin;
(c)kolmannessa maassa sijaitseviin tekoälyjärjestelmien tarjoajiin ja käyttäjiin, kun järjestelmän tuottamaa tulosta käytetään unionissa.
2.Suuririskisiin tekoälyjärjestelmiin, jotka ovat seuraavien säädösten soveltamisalaan kuuluvia tuotteita tai järjestelmiä tai niiden turvakomponentteja, sovelletaan ainoastaan tämän asetuksen 84 artiklaa:
(a)asetus (EY) N:o 300/2008;
(b)asetus (EU) N:o 167/2013;
(c)asetus (EU) N:o 168/2013;
(d)direktiivi 2014/90/EU;
(e)direktiivi (EU) 2016/797;
(f)asetus (EU) 2018/858;
(g)asetus (EU) 2018/1139;
(h)asetus (EU) 2019/2144.
3.Tätä asetusta ei sovelleta tekoälyjärjestelmiin, jotka on kehitetty tai joita käytetään yksinomaan sotilaallisiin tarkoituksiin.
4.Tätä asetusta ei sovelleta kolmannen maan viranomaisiin eikä tämän asetuksen soveltamisalaan 1 kohdan nojalla kuuluviin kansainvälisiin järjestöihin, jos kyseiset viranomaiset tai järjestöt käyttävät tekoälyjärjestelmiä unionin tai yhden tai useamman jäsenvaltion kanssa tehtyjen lainvalvontaa ja rikosoikeudellista yhteistyötä koskevien kansainvälisten sopimusten puitteissa.
5.Tämä asetus ei vaikuta Euroopan parlamentin ja neuvoston direktiivin 2000/31/EY II luvun IV jaksossa vahvistettujen välityspalvelujen tarjoajien vastuuta koskevien säännösten [sellaisina kuin ne korvataan digipalvelusäädöksen vastaavilla säännöksillä] soveltamiseen.
3 artikla
Määritelmät
Tässä asetuksessa tarkoitetaan
(1)’tekoälyjärjestelmällä’ ohjelmistoa, joka on kehitetty käyttäen yhtä tai useampaa liitteessä I lueteltua tekniikkaa ja lähestymistapaa ja joka voi tuottaa tiettyjen ihmisen määrittelemien tavoitteiden saavuttamiseksi tuloksia, kuten sisältöjä, ennusteita, suosituksia tai päätöksiä, jotka vaikuttavat ympäristöihin, joiden kanssa järjestelmät ovat vuorovaikutuksessa;
(2)’tarjoajalla’ luonnollista tai oikeushenkilöä, viranomaista, virastoa tai muuta tahoa, joka kehittää tai kehityttää tekoälyjärjestelmän sen saattamiseksi markkinoille tai ottamiseksi käyttöön omalla nimellään tai tavaramerkillään joko maksua vastaan tai maksutta;
(3)’pienellä tarjoajalla’ tarjoajaa, joka on komission suosituksessa 2003/361/EY tarkoitettu mikroyritys tai pieni yritys;
(4)’käyttäjällä’ luonnollista tai oikeushenkilöä, viranomaista, virastoa tai muuta tahoa, joka käyttää valvonnassaan olevaa tekoälyjärjestelmää, paitsi jos tekoälyjärjestelmää käytetään henkilökohtaisessa muussa kuin ammattitoiminnassa;
(5)’valtuutetulla edustajalla’ unioniin sijoittautunutta luonnollista tai oikeushenkilöä, jolla on tekoälyjärjestelmän tarjoajan antama kirjallinen toimeksianto täyttää ja toteuttaa tekoälyjärjestelmän tarjoajan puolesta tässä asetuksessa säädetyt velvollisuudet ja menettelyt;
(6)’maahantuojalla’ unioniin sijoittautunutta luonnollista tai oikeushenkilöä, joka saattaa markkinoille tai ottaa käyttöön tekoälyjärjestelmän, jolla on unionin ulkopuolelle sijoittautuneen luonnollisen tai oikeushenkilön nimi tai tavaramerkki;
(7)’jakelijalla’ muuta toimitusketjuun kuuluvaa luonnollista tai oikeushenkilöä kuin tarjoajaa tai maahantuojaa, joka asettaa tekoälyjärjestelmän saataville unionin markkinoilla vaikuttamatta sen ominaisuuksiin;
(8)’toimijalla’ tarjoajaa, käyttäjää, valtuutettua edustajaa, maahantuojaa ja jakelijaa;
(9)’markkinoille saattamisella’ tekoälyjärjestelmän asettamista ensimmäistä kertaa saataville unionin markkinoilla;
(10)’asettamisella saataville markkinoilla’ tekoälyjärjestelmän toimittamista markkinoille liiketoiminnan yhteydessä jakelua tai käyttöä varten joko maksua vastaan tai maksutta;
(11)’käyttöönotolla’ tekoälyjärjestelmän toimittamista ensimmäistä käyttöä varten unionin markkinoilla sen suunniteltuun käyttötarkoitukseen suoraan käyttäjälle tai omaan käyttöön;
(12)’käyttötarkoituksella’ käyttöä, johon tarjoaja on tarkoittanut tekoälyjärjestelmän, mukaan lukien erityinen käyttöyhteys ja erityiset käyttöolosuhteet, siten kuin ne on määritelty tiedoissa, jotka tarjoaja on antanut käyttöohjeissa, markkinointi- tai myyntimateriaaleissa ja -ilmoituksissa sekä teknisessä dokumentaatiossa;
(13)’kohtuudella ennakoitavissa olevalla väärinkäytöllä’ tekoälyjärjestelmän käyttöä tavalla, joka ei ole sen käyttötarkoituksen mukainen mutta joka voi olla seurausta kohtuudella ennakoitavissa olevasta ihmisen käyttäytymisestä tai järjestelmän vuorovaikutuksesta muiden järjestelmien kanssa;
(14)’tuotteen tai järjestelmän turvakomponentilla’ tuotteen tai järjestelmän komponenttia, joka toteuttaa kyseisen tuotteen tai järjestelmän turvallisuustoimintoa tai jonka vika tai toimintahäiriö vaarantaa ihmisten terveyden ja turvallisuuden tai omaisuuden turvallisuuden;
(15)’käyttöohjeilla’ tietoja, jotka tarjoaja antaa käyttäjälle erityisesti tekoälyjärjestelmän käyttötarkoituksesta ja asianmukaisesta käytöstä, mukaan lukien erityiset maantieteelliset, käyttäytymiseen liittyvät tai toiminnalliset olosuhteet, joissa suuririskistä tekoälyjärjestelmää on tarkoitus käyttää;
(16)’tekoälyjärjestelmän palautusmenettelyllä’ kaikkia toimenpiteitä, joiden tarkoituksena on palauttaa käyttäjien saataville asetettu tekoälyjärjestelmä takaisin sen tarjoajalle;
(17)’tekoälyjärjestelmän markkinoilta poistamisella’ kaikkia toimenpiteitä, joiden tarkoituksena on estää tekoälyjärjestelmän jakelu, esittely ja tarjonta;
(18)’tekoälyjärjestelmän suorituskyvyllä’ tekoälyjärjestelmän kykyä täyttää aiottu käyttötarkoitus;
(19)’ilmoittamisesta vastaavalla viranomaisella’ kansallista viranomaista, joka vastaa vaatimustenmukaisuuden arviointilaitosten arviointiin, nimeämiseen ja ilmoittamiseen sekä niiden seurantaan tarvittavien menettelyjen perustamisesta ja toteuttamisesta;
(20)’vaatimustenmukaisuuden arvioinnilla’ prosessia, jolla todennetaan, täyttyvätkö tämän asetuksen III osaston 2 luvussa vahvistetut tekoälyjärjestelmää koskevat vaatimukset;
(21)’vaatimustenmukaisuuden arviointilaitoksella’ tahoa, joka suorittaa kolmantena osapuolena vaatimustenmukaisuuden arviointitoimia, kuten testausta, sertifiointia ja tarkastuksia;
(22)’ilmoitetulla laitoksella’ vaatimustenmukaisuuden arviointilaitosta, joka on nimetty tämän asetuksen ja unionin muun asiaankuuluvan yhdenmukaistamislainsäädännön mukaisesti;
(23)’merkittävällä muutoksella’ tekoälyjärjestelmään sen markkinoille saattamisen tai käyttöönoton jälkeen tehtyä muutosta, joka vaikuttaa siihen, täyttääkö tekoälyjärjestelmä tämän asetuksen III osaston 2 luvussa vahvistetut vaatimukset, tai muuttaa käyttötarkoitusta, jota varten tekoälyjärjestelmä on arvioitu;
(24)’CE-vaatimustenmukaisuusmerkinnällä’ (CE-merkinnällä) merkintää, jolla tarjoaja osoittaa, että tekoälyjärjestelmä on niiden vaatimusten mukainen, jotka vahvistetaan tämän asetuksen III osaston 2 luvussa ja muussa sovellettavassa unionin lainsäädännössä, jolla yhdenmukaistetaan tuotteiden kaupan pitämisen ehtoja (’unionin yhdenmukaistamislainsäädäntö’ ) ja jossa säädetään merkinnän kiinnittämisestä;
(25)’markkinoille saattamisen jälkeisellä seurannalla’ kaikkia toimia, joita tekoälyjärjestelmien tarjoajat toteuttavat kerätäkseen ja tarkastellakseen ennakoivasti niiden markkinoille saattamien tai käyttöön ottamien tekoälyjärjestelmien käytöstä saatuja kokemuksia, jotta voidaan todeta, onko tarpeen toteuttaa välittömästi tarpeellisia korjaavia tai ennalta ehkäiseviä toimenpiteitä;
(26)’markkinavalvontaviranomaisella’ kansallista viranomaista, joka toteuttaa asetuksen (EU) 2019/1020 mukaisia toimia;
(27)’yhdenmukaistetulla standardilla’ asetuksen (EU) N:o 1025/2012 2 artiklan 1 kohdan c alakohdassa määriteltyä eurooppalaista standardia;
(28)’yhteisillä eritelmillä’ sellaista muuta asiakirjaa kuin standardia, joka sisältää teknisiä ratkaisuja, joiden avulla voidaan täyttää tietyt tässä asetuksessa vahvistetut vaatimukset ja velvollisuudet;
(29)’koulutusdatalla’ dataa, jota käytetään tekoälyjärjestelmän kouluttamiseen sovittamalla sen opittavia parametreja, mukaan lukien neuroverkon painotukset;
(30)’validointidatalla’ dataa, jota käytetään koulutetun tekoälyjärjestelmän arviointiin ja sen ei-opittavien parametrien ja oppimisprosessin hienosäätöön muun muassa ylisovittamisen estämiseksi; validointidatajoukko voi olla erillinen datajoukko tai osa koulutusdatajoukkoa joko kiinteällä tai muuttuvalla jaolla;
(31)’testausdatalla’ dataa, jota käytetään koulutetun ja validoidun tekoälyjärjestelmän riippumattomaan arviointiin kyseisen järjestelmän odotetun suorituskyvyn toteamiseksi ennen järjestelmän markkinoille saattamista tai käyttöönottoa;
(32)’syöttötiedoilla’ tekoälyjärjestelmään syötettyä tai sen suoraan hankkimaa dataa, jonka perusteella järjestelmä tuottaa tuloksen;
(33)’biometrisillä tiedoilla’ kaikkia luonnollisen henkilön fyysisiin ja fysiologisiin ominaisuuksiin tai käyttäytymiseen liittyvällä teknisellä käsittelyllä saatuja henkilötietoja, kuten kasvokuvia tai sormenjälkitietoja, joiden perusteella kyseinen luonnollinen henkilö voidaan tunnistaa tai kyseisen henkilön tunnistaminen voidaan varmistaa;
(34)’tunteentunnistusjärjestelmällä’ tekoälyjärjestelmää, jonka avulla luonnollisten henkilöiden tunteita tai aikomuksia voidaan tunnistaa tai päätellä heidän biometristen tietojensa perusteella;
(35)’biometrisellä luokittelujärjestelmällä’ tekoälyjärjestelmää, jonka avulla luonnolliset henkilöt luokitellaan biometristen tietojen perusteella tiettyihin ryhmiin esimerkiksi sukupuolen, iän, hiusten värin, silmien värin, tatuointien, etnisen alkuperän tai sukupuolisen tai poliittisen suuntautumisen mukaan;
(36)’biometrisellä etätunnistusjärjestelmällä’ tekoälyjärjestelmää, jonka avulla luonnolliset henkilöt voidaan tunnistaa etäältä vertaamalla henkilön biometrisiä tietoja viitetietokantaan sisältyviin biometrisiin tietoihin ilman, että tekoälyjärjestelmän käyttäjä tietää ennakolta, onko henkilö läsnä ja tunnistettavissa;
(37)’reaaliaikaisella biometrisellä etätunnistusjärjestelmällä’ biometristä etätunnistusjärjestelmää, jossa biometristen tietojen kerääminen, vertailu ja tunnistaminen tapahtuvat ilman merkittävää viivettä. Tämä kattaa välittömän tunnistamisen lisäksi myös vähäiset viiveet, joilla pyritään ehkäisemään harhaanjohtamista;
(38)’jälkikäteisellä biometrisellä etätunnistusjärjestelmällä’ muuta kuin reaaliaikaista biometristä etätunnistusjärjestelmää;
(39)’julkisella tilalla’ mitä tahansa fyysistä paikkaa, johon yleisöllä on pääsy, riippumatta siitä, onko pääsy ehdollista;
(40)’lainvalvontaviranomaisella’
(a)kaikkia viranomaisia, joiden toimivalta kattaa rikosten ennalta estämisen, tutkimisen, paljastamisen tai rikoksiin liittyvät syytetoimet tai rikosoikeudellisten seuraamusten täytäntöönpanon, mukaan lukien yleiseen turvallisuuteen kohdistuvilta uhkilta suojelu ja tällaisten uhkien ehkäisy; tai
(b)kaikkia muita elimiä tai yksiköitä, joille on jäsenvaltion lainsäädännössä annettu tehtäväksi käyttää julkista valtaa tai valtuuksia rikosten ennalta estämiseen, tutkimiseen, paljastamiseen tai rikoksiin liittyviin syytetoimiin tai rikosoikeudellisten seuraamusten täytäntöönpanoon, mukaan lukien yleiseen turvallisuuteen kohdistuvilta uhkilta suojelu ja tällaisten uhkien ehkäisy;
(41)’lainvalvonnalla’ toimia, joita lainvalvontaviranomaiset toteuttavat rikosten ennalta estämistä, tutkimista, paljastamista tai rikoksiin liittyviä syytetoimia tai rikosoikeudellisten seuraamusten täytäntöönpanoa varten, mukaan lukien yleiseen turvallisuuteen kohdistuvilta uhkilta suojelu ja tällaisten uhkien ehkäisy;
(42)’kansallisella valvontaviranomaisella’ viranomaista, jolle jäsenvaltio on antanut vastuun tämän asetuksen täytäntöönpanosta ja soveltamisesta, kyseiselle jäsenvaltiolle uskottujen toimien koordinoinnista, toimimisesta komission keskitettynä yhteyspisteenä ja jäsenvaltion edustamisesta Euroopan tekoälyneuvostossa;
(43)’kansallisella toimivaltaisella viranomaisella’ kansallista valvontaviranomaista, ilmoittamisesta vastaavaa viranomaista ja markkinavalvontaviranomaista;
(44)’vakavalla vaaratilanteella’ mitä tahansa vaaratilannetta, joka suoraan tai välillisesti johtaa, olisi saattanut johtaa tai saattaisi johtaa johonkin seuraavista:
(a)henkilön kuolema tai vakava vahinko henkilön terveydelle, omaisuudelle tai ympäristölle,
(b)vakava ja peruuttamaton häiriö kriittisen infrastruktuurin hallinnassa ja toiminnassa.
4 artikla
Liitteen I muuttaminen
Siirretään komissiolle valta antaa 73 artiklan mukaisesti delegoituja säädöksiä, joilla muutetaan liitteessä I esitettyä tekniikoiden ja lähestymistapojen luetteloa, jotta kyseinen luettelo voidaan saattaa markkinoiden ja teknologian kehityksen tasalle siinä lueteltuja tekniikoita ja lähestymistapoja vastaavien ominaisuuksien perusteella.
II OSASTO
KIELLETYT TEKOÄLYYN LIITTYVÄT KÄYTÄNNÖT
5 artikla
1.Seuraavat tekoälyyn liittyvät käytännöt ovat kiellettyjä:
(a)sellaisen tekoälyjärjestelmän markkinoille saattaminen, käyttöönotto tai käyttö, jossa käytetään subliminaalisia tekniikoita, joita henkilö ei havaitse tietoisesti, jotta voidaan olennaisesti vääristää henkilön käyttäytymistä tavalla, joka aiheuttaa tai todennäköisesti aiheuttaa kyseiselle henkilölle tai toiselle henkilölle fyysistä tai psyykkistä haittaa;
(b)sellaisen tekoälyjärjestelmän markkinoille saattaminen, käyttöönotto tai käyttö, jossa hyödynnetään tietyn henkilöryhmän haavoittuvuuksia, jotka liittyvät heidän ikäänsä tai fyysiseen tai psyykkisen vammaansa, jotta voidaan olennaisesti vääristää kyseiseen ryhmään kuuluvan henkilön käyttäytymistä tavalla, joka aiheuttaa tai todennäköisesti aiheuttaa kyseiselle henkilölle tai toiselle henkilölle fyysistä tai psyykkistä haittaa;
(c)tekoälyjärjestelmien markkinoille saattaminen, käyttöönotto tai käyttö viranomaisten toimesta tai niiden puolesta luonnollisten henkilöiden luotettavuuden arvioimiseksi tai luokittelemiseksi tiettynä ajanjaksona heidän sosiaalisen käyttäytymisensä tai tunnettujen tai ennakoitujen henkilökohtaisten ominaisuuksiensa tai luonteenpiirteidensä perusteella siten, että sosiaalinen pisteytys johtaa jompaankumpaan tai molempiin seuraavista:
i)tiettyjen luonnollisten henkilöiden tai heidän ryhmiensä haitallinen tai epäedullinen kohtelu sosiaalisissa yhteyksissä, jotka eivät liity siihen asiayhteyteen, jossa tiedot alun perin tuotettiin tai kerättiin;
ii)tiettyjen luonnollisten henkilöiden tai heidän ryhmiensä haitallinen tai epäedullinen kohtelu, joka on perusteetonta tai suhteetonta heidän sosiaaliseen käyttäytymiseensä tai sen vakavuuteen nähden;
(d)reaaliaikaisten biometristen etätunnistusjärjestelmien käyttö julkisissa tiloissa lainvalvontatarkoituksessa, paitsi jos ja siltä osin kuin se on ehdottoman välttämätöntä jonkin seuraavan tavoitteen saavuttamiseksi:
i)tiettyjen mahdollisten rikoksen uhrien, myös kadonneiden lasten, kohdennettu etsintä;
ii)luonnollisten henkilöiden henkeen tai fyysiseen turvallisuuteen kohdistuvan erityisen, merkittävän ja välittömän uhan tai terrori-iskun ehkäiseminen;
iii)neuvoston puitepäätöksen 2002/584/YOS 2 artiklan 2 kohdassa tarkoitetun rikoksen tekijän tai tällaisesta rikoksesta epäillyn havaitseminen, paikantaminen, tunnistaminen tai syytteeseenpano, kun rikoksesta voi asianomaisessa jäsenvaltiossa seurata vapaudenmenetyksen käsittävä rangaistus tai turvaamistoimenpide, jonka enimmäisaika on vähintään kolme vuotta, siten kuin se on määritelty kyseisen jäsenvaltion oikeudessa.
2.Kun reaaliaikaisia biometrisiä etätunnistusjärjestelmiä käytetään julkisissa tiloissa lainvalvontatarkoituksessa minkä tahansa 1 kohdan d alakohdassa tarkoitetun tavoitteen saavuttamiseksi, huomioon on otettava seuraavat tekijät:
(a)mahdollisen käytön aiheuttavan tilanteen luonne, erityisesti aiheutuvan vahingon vakavuus, todennäköisyys ja laajuus siinä tapauksessa, että järjestelmää ei käytetä;
(b)järjestelmän käytön seuraukset kaikkien asianomaisten henkilöiden oikeuksille ja vapauksille, erityisesti näiden seurausten vakavuus, todennäköisyys ja laajuus.
Lisäksi kun reaaliaikaisia biometrisiä etätunnistusjärjestelmiä käytetään julkisissa tiloissa lainvalvontatarkoituksessa minkä tahansa 1 kohdan d alakohdassa tarkoitetun tavoitteen saavuttamiseksi, on noudatettava käyttöön liittyviä välttämättömiä ja oikeasuhteisia suojatoimia ja edellytyksiä, erityisesti ajallisia, maantieteellisiä ja henkilötason rajoituksia.
3.Edellä olevan 1 kohdan d alakohdan ja 2 kohdan osalta jokainen reaaliaikaisen biometrisen etätunnistusjärjestelmän yksittäinen käyttö lainvalvontatarkoituksessa julkisissa tiloissa edellyttää sen jäsenvaltion, jossa käyttö tapahtuu, oikeusviranomaisen tai riippumattoman hallintoviranomaisen myöntämää ennakkolupaa, joka annetaan perustellusta pyynnöstä ja 4 kohdassa tarkoitetun kansallisen lainsäädännön yksityiskohtaisten sääntöjen mukaisesti. Asianmukaisesti perustelluissa kiireellisissä tapauksissa järjestelmän käyttö voidaan kuitenkin aloittaa ilman lupaa ja lupa voidaan pyytää vasta käytön aikana tai sen jälkeen.
Toimivaltainen oikeus- tai hallintoviranomainen saa myöntää luvan ainoastaan, jos se katsoo sille esitettyjen objektiivisten todisteiden tai selkeiden seikkojen perusteella, että kyseessä oleva reaaliaikaisen biometrisen etätunnistusjärjestelmän käyttö on välttämätöntä ja oikeasuhteista jonkin 1 kohdan d alakohdassa tarkoitetun ja pyynnössä yksilöidyn tavoitteen saavuttamiseksi. Toimivaltaisen oikeus- tai hallintoviranomaisen on pyyntöä koskevaa päätöstä tehdessään otettava huomioon 2 kohdassa tarkoitetut seikat.
4.Jäsenvaltio voi päättää säätää mahdollisuudesta sallia kokonaan tai osittain reaaliaikaisten biometristen etätunnistusjärjestelmien käyttö julkisissa tiloissa lainvalvontatarkoituksessa 1 kohdan d alakohdassa, 2 kohdassa ja 3 kohdassa luetelluin rajoituksin ja edellytyksin. Kyseisen jäsenvaltion on annettava kansallisessa lainsäädännössään tarvittavat yksityiskohtaiset säännöt 3 kohdassa tarkoitettujen lupien pyytämistä, myöntämistä, käyttöä ja valvontaa varten. Näissä säännöissä on myös täsmennettävä, minkä 1 kohdan d alakohdassa lueteltujen tavoitteiden osalta, myös minkä mainitun alakohdan iii alakohdassa tarkoitettujen rikosten osalta, toimivaltaisille viranomaisille voidaan antaa lupa käyttää kyseisiä järjestelmiä lainvalvontatarkoituksessa.
III OSASTO
SUURIRISKISET TEKOÄLYJÄRJESTELMÄT
1 luku
TEKOÄLYJÄRJESTELMIEN LUOKITTELU SUURIRISKISIKSI
6 artikla
Suuririskisten tekoälyjärjestelmien luokitussäännöt
1.Riippumatta siitä, saatetaanko tekoälyjärjestelmä markkinoille tai otetaanko se käyttöön erillään a ja b alakohdassa tarkoitetuista tuotteista, kyseistä tekoälyjärjestelmää on pidettävä suuririskisenä, jos molemmat seuraavista edellytyksistä täyttyvät:
(a)tekoälyjärjestelmä on tarkoitettu käytettäväksi tuotteen turvakomponenttina tai se on itse tuote, joka kuuluu liitteessä II luetellun unionin yhdenmukaistamislainsäädännön soveltamisalaan;
(b)tuotteelle, jonka turvakomponentti on tekoälyjärjestelmä, tai tekoälyjärjestelmälle, joka on itse tuote, on tehtävä kolmannen osapuolen suorittama vaatimustenmukaisuuden arviointi kyseisen tuotteen saattamiseksi markkinoille tai käyttöön ottamiseksi liitteessä II luetellun unionin yhdenmukaistamislainsäädännön mukaisesti.
2.Edellä 1 kohdassa tarkoitettujen suuririskisten tekoälyjärjestelmien lisäksi myös liitteessä III tarkoitettuja tekoälyjärjestelmiä pidetään suuririskisinä.
7 artikla
Liitteen III muuttaminen
1.Siirretään komissiolle valta antaa 73 artiklan mukaisesti delegoituja säädöksiä liitteessä III olevan luettelon päivittämiseksi lisäämällä siihen suuririskisiä tekoälyjärjestelmiä, jos molemmat seuraavista edellytyksistä täyttyvät:
(a)tekoälyjärjestelmiä on tarkoitus käyttää millä tahansa liitteessä III olevassa 1–8 kohdassa luetelluista aloista;
(b)tekoälyjärjestelmät aiheuttavat terveys- ja turvallisuushaitan riskin tai perusoikeuksiin kohdistuvan kielteisen vaikutuksen riskin, joka on vakavuutensa ja esiintymistodennäköisyytensä kannalta vähintään yhtä suuri kuin liitteessä III jo tarkoitettujen suuririskisten tekoälyjärjestelmien aiheuttaman haitan tai kielteisen vaikutuksen riski.
2.Arvioidessaan 1 kohdan soveltamiseksi, aiheuttaako tekoälyjärjestelmä sellaisen terveys- ja turvallisuushaitan riskin tai perusoikeuksiin kohdistuvan kielteisen vaikutuksen riskin, joka on vähintään yhtä suuri kuin liitteessä III jo tarkoitettujen suuririskisten tekoälyjärjestelmien aiheuttaman haitan tai kielteisen vaikutuksen riski, komissio ottaa huomioon seuraavat kriteerit:
(a)tekoälyjärjestelmän käyttötarkoitus;
(b)missä määrin tekoälyjärjestelmää on käytetty tai todennäköisesti käytetään;
(c)missä määrin tekoälyjärjestelmän käyttö on jo aiheuttanut haittaa terveydelle ja turvallisuudelle tai vaikuttanut kielteisesti perusoikeuksiin tai on herättänyt merkittävää huolta tällaisen haitan tai kielteisen vaikutuksen ilmenemisestä, mikä käy ilmi kansallisille toimivaltaisille viranomaisille toimitetuista raporteista tai dokumentoiduista väitteistä;
(d)tällaisen haitan tai tällaisen haitallisen vaikutuksen mahdollinen laajuus, erityisesti sen voimakkuus ja kyky vaikuttaa lukuisiin henkilöihin;
(e)missä määrin henkilöt, joille mahdollisesti aiheutuu haittaa tai joihin mahdollisesti kohdistuu kielteinen vaikutus, ovat riippuvaisia tekoälyjärjestelmän tuottamasta tuloksesta, erityisesti koska käytännöllisistä tai oikeudellisista syistä ei ole kohtuudella mahdollista olla noudattamatta tätä tulosta;
(f)missä määrin henkilöt, joille mahdollisesti aiheutuu haittaa tai joihin mahdollisesti kohdistuu kielteinen vaikutus, ovat haavoittuvassa asemassa tekoälyjärjestelmän käyttäjään nähden, erityisesti vallankäyttöön, tietämykseen, taloudellisiin tai sosiaalisiin olosuhteisiin tai ikään liittyvän epätasapainon vuoksi;
(g)missä määrin tekoälyjärjestelmän avulla saatu tulos on helposti peruutettavissa; tuloksia, joilla on vaikutusta ihmisten terveyteen tai turvallisuuteen, ei katsota helposti peruutettaviksi;
(h)missä määrin voimassa olevassa unionin lainsäädännössä säädetään
i)tekoälyjärjestelmän aiheuttamiin riskeihin liittyvistä tehokkaista oikeussuojakeinoista, lukuun ottamatta vahingonkorvausvaateita;
ii)tehokkaista toimenpiteistä kyseisten riskien ehkäisemiseksi tai vähentämiseksi merkittävästi.
2 luku
SUURIRISKISIÄ TEKOÄLYJÄRJESTELMIÄ KOSKEVAT VAATIMUKSET
8 artikla
Vaatimustenmukaisuus
1.Suuririskisten tekoälyjärjestelmien on täytettävä tässä luvussa vahvistetut vaatimukset.
2.Suuririskisen tekoälyjärjestelmän käyttötarkoitus ja 9 artiklassa tarkoitettu riskinhallintajärjestelmä on otettava huomioon varmistettaessa, että kyseisiä vaatimuksia noudatetaan.
9 artikla
Riskinhallintajärjestelmä
1.Suuririskisille tekoälyjärjestelmille on perustettava, pantava täytäntöön ja dokumentoitava riskinhallintajärjestelmä ja sitä on pidettävä yllä.
2.Riskinhallintajärjestelmän on koostuttava iteratiivisesta prosessista, joka jatkuu suuririskisen tekoälyjärjestelmän koko elinkaaren ajan ja joka on saatettava säännöllisesti ja järjestelmällisesti ajan tasalle. Siihen on sisällyttävä seuraavat vaiheet:
(a)kuhunkin suuririskiseen tekoälyjärjestelmään liittyvien tunnettujen ja ennakoitavissa olevien riskien tunnistaminen ja analysointi;
(b)niiden riskien arviointi, joita voi syntyä, kun suuririskistä tekoälyjärjestelmää käytetään käyttötarkoituksensa mukaisesti ja kohtuudella ennakoitavissa olevissa väärinkäyttöolosuhteissa;
(c)muiden mahdollisesti syntyvien riskien arviointi 61 artiklassa tarkoitetusta markkinoille saattamisen jälkeisestä seurantajärjestelmästä kerättyjen tietojen analysoinnin perusteella;
(d)asianmukaisten riskinhallintatoimenpiteiden käyttöönotto seuraavien kohtien säännösten mukaisesti.
3.Edellä 2 kohdan d alakohdassa tarkoitetuissa riskinhallintatoimenpiteissä on otettava asianmukaisesti huomioon vaikutukset ja mahdolliset vuorovaikutukset, jotka johtuvat tässä luvussa säädettyjen vaatimusten soveltamisesta yhdessä. Niissä on otettava huomioon yleisesti tunnustettu alan viimeisin kehitys, myös asiaa koskevissa yhdenmukaistetuissa standardeissa tai yhteisissä eritelmissä esitetyn mukaisesti.
4.Edellä 2 kohdan d alakohdassa tarkoitettujen riskinhallintatoimenpiteiden on oltava sellaisia, että kuhunkin vaaraan mahdollisesti liittyvän jäännösriskin ja suuririskisten tekoälyjärjestelmien kokonaisjäännösriskin katsotaan olevan hyväksyttävällä tasolla edellyttäen, että suuririskistä tekoälyjärjestelmää käytetään käyttötarkoituksensa mukaisesti tai kohtuudella ennakoitavissa olevissa väärinkäyttöolosuhteissa. Jäännösriskeistä on ilmoitettava käyttäjälle.
Tarkoituksenmukaisimpia riskinhallintatoimenpiteitä määritettäessä on varmistettava seuraavat seikat:
(a)riskien poistaminen tai vähentäminen siinä määrin kuin mahdollista asianmukaisella suunnittelulla ja kehittämisellä;
(b)tarvittaessa asianmukaisten riskien vähentämis- ja valvontatoimenpiteiden toteuttaminen sellaisten riskien osalta, joita ei voida poistaa;
(c)riittävien tietojen antaminen 13 artiklan mukaisesti erityisesti tämän artiklan 2 kohdan b alakohdassa tarkoitetuista riskeistä ja tarvittaessa käyttäjille annettava koulutus.
Suuririskisen tekoälyjärjestelmän käyttöön liittyvien riskien poistamisessa tai vähentämisessä on otettava asianmukaisesti huomioon käyttäjältä odotettu tekninen tietämys, kokemus ja koulutus sekä ympäristö, jossa järjestelmää on tarkoitus käyttää.
5.Suuririskiset tekoälyjärjestelmät on testattava tarkoituksenmukaisimpien riskinhallintatoimenpiteiden määrittämiseksi. Testauksella on varmistettava, että suuririskiset tekoälyjärjestelmät toimivat johdonmukaisesti käyttötarkoituksensa mukaisesti ja että ne ovat tässä luvussa vahvistettujen vaatimusten mukaisia.
6.Testausmenettelyjen on sovelluttava tekoälyjärjestelmän suunnitellun käyttötarkoituksen saavuttamiseen, eikä niiden tarvitse ylittää sitä, mikä on tarpeen tämän tarkoituksen saavuttamiseksi.
7.Suuririskisten tekoälyjärjestelmien testaus on tapauksen mukaan suoritettava milloin tahansa kehitysprosessin aikana ja joka tapauksessa ennen markkinoille saattamista tai käyttöönottoa. Testauksessa on käytettävä ennalta määriteltyjä mittareita ja todennäköisyyskynnyksiä, jotka soveltuvat suuririskisen tekoälyjärjestelmän suunniteltuun käyttötarkoitukseen.
8.Edellä 1–7 kohdassa kuvattua riskinhallintajärjestelmää täytäntöön pantaessa on kiinnitettävä erityistä huomiota siihen, voivatko lapset todennäköisesti käyttää suuririskistä tekoälyjärjestelmää tai voiko järjestelmä vaikuttaa lapsiin.
9.Niiden luottolaitosten osalta, joita säännellään direktiivillä 2013/36/EU, 1–8 kohdassa kuvattujen näkökohtien on oltava osa kyseisten laitosten mainitun direktiivin 74 artiklan mukaisesti vahvistamia riskienhallintamenettelyjä.
10 artikla
Data ja datahallinto
1.Suuririskiset tekoälyjärjestelmät, joissa hyödynnetään tekniikoita, joihin sisältyy mallien kouluttaminen datan avulla, on kehitettävä sellaisten koulutus-, validointi- ja testausdatajoukkojen pohjalta, jotka täyttävät 2–5 kohdassa tarkoitetut laatuvaatimukset.
2.Koulutus-, validointi- ja testausdatajoukkoihin on sovellettava asianmukaisia datahallinto- ja hallintakäytäntöjä. Näiden käytäntöjen on koskettava erityisesti seuraavia seikkoja:
(a)asiaankuuluvat suunnitteluvalinnat;
(b)datan keruu;
(c)asiaankuuluvat tietojenkäsittelytoimet, kuten huomautusten ja tunnisteiden lisääminen, puhdistus, rikastaminen ja yhdistäminen;
(d)merkityksellisten oletusten muotoilu erityisesti niiden tietojen osalta, joita datan on tarkoitus mitata ja edustaa;
(e)tarvittavien datajoukkojen saatavuuden, määrän ja soveltuvuuden ennakkoarviointi;
(f)mahdollisten vinoutumien selvittäminen;
(g)mahdollisten puuttuvien tai puutteellisten tietojen tunnistaminen ja se, miten nämä puutteet voidaan korjata.
3.Koulutus-, validointi- ja testausdatajoukkojen on oltava merkityksellisiä, edustavia, virheettömiä ja täydellisiä. Niillä on oltava asianmukaiset tilastolliset ominaisuudet, tarvittaessa myös niiden henkilöiden tai henkilöryhmien osalta, joihin suuririskistä tekoälyjärjestelmää on tarkoitus käyttää. Nämä datajoukkojen ominaisuudet voidaan saavuttaa yksittäisten datajoukkojen tai niiden yhdistelmän tasolla.
4.Koulutus-, validointi- ja testausdatajoukoissa on otettava käyttötarkoituksen edellyttämässä laajuudessa huomioon ne ominaisuudet tai osatekijät, jotka ovat ominaisia sille maantieteelliselle, käyttäytymiseen liittyvälle tai toiminnalliselle ympäristölle, jossa suuririskistä tekoälyjärjestelmää on tarkoitus käyttää.
5.Siinä määrin kuin se on ehdottoman välttämätöntä suuririskisiin tekoälyjärjestelmiin liittyvien vinoutumien seurannan, havaitsemisen ja korjaamisen varmistamiseksi, tällaisten järjestelmien tarjoajat voivat käsitellä asetuksen (EU) 2016/679 9 artiklan 1 kohdassa, direktiivin (EU) 2016/680 10 artiklassa ja asetuksen (EU) 2018/1725 10 artiklan 1 kohdassa tarkoitettuja erityisiä henkilötietoryhmiä edellyttäen, että luonnollisten henkilöiden perusoikeudet ja -vapaudet turvataan asianmukaisilla suojatoimilla, mukaan lukien tekniset rajoitukset, jotka koskevat viimeisintä kehitystä edustavien tietoturvaa ja yksityisyyden suojaa parantavien toimenpiteiden, kuten pseudonymisoinnin, uudelleenkäyttöä ja käyttöä, tai salaus, jos anonymisointi voi vaikuttaa merkittävästi aiottuun käyttötarkoitukseen.
6.Sellaisten suuririskisten tekoälyjärjestelmien kehittämiseen, joissa ei hyödynnetä malleja kouluttavia tekniikoita, on sovellettava asianmukaisia datahallinto- ja hallintakäytäntöjä sen varmistamiseksi, että kyseiset suuririskiset tekoälyjärjestelmät ovat 2 kohdan mukaisia.
11 artikla
Tekninen dokumentaatio
1.Suuririskisen tekoälyjärjestelmän tekninen dokumentaatio on laadittava ennen kuin järjestelmä saatetaan markkinoille tai otetaan käyttöön, ja se on pidettävä ajan tasalla.
Tekninen dokumentaatio on laadittava siten, että siinä osoitetaan suuririskisen tekoälyjärjestelmän olevan tässä luvussa vahvistettujen vaatimusten mukainen ja annetaan kansallisille toimivaltaisille viranomaisille ja ilmoitetuille laitoksille kaikki tarvittavat tiedot sen arvioimiseksi, täyttääkö tekoälyjärjestelmä kyseiset vaatimukset. Sen on sisällettävä vähintään liitteessä IV esitetyt tiedot.
2.Kun markkinoille saatetaan tai käyttöön otetaan suuririskinen tekoälyjärjestelmä, joka liittyy tuotteeseen, johon sovelletaan liitteessä II olevassa A jaksossa lueteltuja säädöksiä, on laadittava yksi ainoa tekninen dokumentaatio, joka sisältää kaikki liitteessä IV esitetyt tiedot sekä kyseisissä säädöksissä vaaditut tiedot.
3.Siirretään komissiolle valta antaa delegoituja säädöksiä 73 artiklan mukaisesti liitteen IV muuttamiseksi tarvittaessa sen varmistamiseksi, että teknisessä dokumentaatiossa annetaan tekniikan kehityksen perusteella kaikki tarvittavat tiedot sen arvioimiseksi, onko järjestelmä tässä luvussa vahvistettujen vaatimusten mukainen.
12 artikla
Tietojen säilyttäminen
1.Suuririskiset tekoälyjärjestelmät on suunniteltava ja kehitettävä siten, että ne mahdollistavat tapahtumien automaattisen tallentamisen (’lokitiedot’), kun suuririskiset tekoälyjärjestelmät ovat toiminnassa. Näiden lokitusvalmiuksien on oltava tunnustettujen standardien tai yhteisten eritelmien mukaisia.
2.Lokitusvalmiuksilla on varmistettava sellainen tekoälyjärjestelmän toiminnan jäljitettävyyden taso koko järjestelmän elinkaaren ajan, joka on oikeassa suhteessa järjestelmän käyttötarkoitukseen.
3.Lokitusvalmiuksien on erityisesti mahdollistettava suuririskisen tekoälyjärjestelmän toiminnan seuranta sellaisten tilanteiden osalta, jotka voivat johtaa siihen, että tekoälyjärjestelmä aiheuttaa 65 artiklan 1 kohdassa tarkoitetun riskin tai johtaa huomattavaan muutokseen, ja helpotettava 61 artiklassa tarkoitettua markkinoille saattamisen jälkeistä seurantaa.
4.Liitteessä III olevan 1 kohdan a alakohdassa tarkoitettujen suuririskisten tekoälyjärjestelmien lokitusvalmiuksiin on sisällyttävä vähintään seuraavat osatekijät:
(a)järjestelmän kunkin käyttöjakson kirjaaminen (kunkin käytön alkamispäivä ja ‑aika ja päättymispäivä ja -aika);
(b)viitetietokanta, jonka perusteella järjestelmä on tarkastanut syöttötiedot;
(c)syöttötiedot, joiden osalta haku on johtanut tulokseen;
(d)14 artiklan 5 kohdassa tarkoitettujen tulosten tarkastamiseen osallistuvien luonnollisten henkilöiden tunnistetiedot.
13 artikla
Läpinäkyvyys ja tietojen antaminen käyttäjille
1.Suuririskiset tekoälyjärjestelmät on suunniteltava ja kehitettävä siten, että varmistetaan, että niiden toiminta on riittävän läpinäkyvää, jotta käyttäjät voivat tulkita järjestelmän tuloksia ja käyttää niitä asianmukaisesti. On varmistettava sopiva läpinäkyvyyden tyyppi ja taso, jotta voidaan varmistaa tämän osaston 3 luvussa säädettyjen käyttäjän ja tarjoajan asiaankuuluvien velvoitteiden noudattaminen.
2.Suuririskisten tekoälyjärjestelmien mukana on oltava käyttöohjeet asianmukaisessa digitaalisessa tai muussa muodossa, ja niissä on annettava ytimekkäitä, täydellisiä, paikkansapitäviä ja selkeitä tietoja, jotka ovat käyttäjien kannalta olennaisia, esteettömiä ja ymmärrettäviä.
3.Edellä 2 kohdassa tarkoitetuissa tiedoissa on yksilöitävä
(a)tarjoajan ja tarvittaessa tämän valtuutetun edustajan henkilöllisyys ja yhteystiedot;
(b)suuririskisen tekoälyjärjestelmän ominaisuudet, valmiudet ja suorituskyvyn rajoitukset, mukaan lukien seuraavat:
i)järjestelmän käyttötarkoitus;
ii)edellä 15 artiklassa tarkoitettu tarkkuuden, luotettavuuden ja kyberturvallisuuden taso, johon nähden suuririskinen tekoälyjärjestelmä on testattu ja validoitu ja jota voidaan odottaa, sekä kaikki tunnetut ja ennakoitavissa olevat olosuhteet, joilla voi olla vaikutusta kyseiseen tarkkuuden, luotettavuuden ja kyberturvallisuuden tasoon;
iii)kaikki tunnetut tai ennakoitavissa olevat olosuhteet, jotka liittyvät suuririskisen tekoälyjärjestelmän käyttöön sen käyttötarkoituksen mukaisesti tai kohtuudella ennakoitavissa olevissa väärinkäyttöolosuhteissa ja jotka voivat aiheuttaa terveyteen ja turvallisuuteen tai perusoikeuksiin kohdistuvia riskejä;
iv)järjestelmän suorituskyky niiden henkilöiden tai henkilöryhmien osalta, joihin järjestelmää on tarkoitus käyttää;
v)tarvittaessa syöttötietoja koskevat spesifikaatiot tai muut käytettyjä koulutus-, validointi- ja testausdatajoukkoja koskevat olennaiset tiedot ottaen huomioon tekoälyjärjestelmän suunniteltu käyttötarkoitus;
(c)suuririskisen tekoälyjärjestelmän ja sen suorituskyvyn muutokset, jotka tarjoaja on määritellyt ennalta ensimmäisen vaatimustenmukaisuuden arvioinnin yhteydessä, jos sellaisia on;
(d)14 artiklassa tarkoitetut ihmisen suorittamat valvontatoimenpiteet, mukaan lukien tekniset toimenpiteet, jotka on otettu käyttöön, jotta käyttäjien olisi helpompi tulkita tekoälyjärjestelmien tuloksia;
(e)suuririskisen tekoälyjärjestelmän odotettu käyttöikä ja kaikki tarvittavat huolto- ja hoitotoimenpiteet, joilla varmistetaan tekoälyjärjestelmän asianmukainen toiminta, mukaan lukien ohjelmistopäivitykset.
14 artikla
Ihmisen suorittama valvonta
1.Suuririskiset tekoälyjärjestelmät on suunniteltava ja kehitettävä siten, että luonnolliset henkilöt voivat tehokkaasti valvoa niitä tekoälyjärjestelmän käytön aikana, mukaan lukien asianmukaisten käyttöliittymävälineiden käyttö.
2.Ihmisen suorittamalla valvonnalla on pyrittävä ehkäisemään tai minimoimaan terveydelle, turvallisuudelle tai perusoikeuksille aiheutuvat riskit, joita voi syntyä, kun suuririskistä tekoälyjärjestelmää käytetään käyttötarkoituksensa mukaisesti tai kohtuudella ennakoitavissa olevissa väärinkäyttöolosuhteissa, erityisesti jos tällaiset riskit jatkuvat huolimatta muiden tässä luvussa vahvistettujen vaatimusten soveltamisesta.
3.Ihmisen suorittama valvonta on varmistettava jommallakummalla tai molemmilla seuraavista toimenpiteistä:
(a)toimenpiteet, jotka tarjoaja on määrittänyt ja, jos se on teknisesti toteutettavissa, sisällyttänyt suuririskiseen tekoälyjärjestelmään ennen sen markkinoille saattamista tai käyttöönottoa;
(b)toimenpiteet, jotka tarjoaja on määrittänyt ennen suuririskisen tekoälyjärjestelmän markkinoille saattamista tai käyttöönottoa ja jotka on tarkoituksenmukaista toteuttaa käyttäjän toimesta.
4.Edellä 3 kohdassa tarkoitettujen toimenpiteiden on mahdollistettava se, että henkilöt, joiden tehtäväksi ihmisen suorittama valvonta on annettu, voivat olosuhteiden mukaan
(a)ymmärtää täysin suuririskisen tekoälyjärjestelmän valmiudet ja rajoitukset ja seurata sen toimintaa asianmukaisesti, jotta poikkeavuuksien, toimintahäiriöiden ja odottamattoman suorituskyvyn merkit voidaan havaita ja niihin voidaan puuttua mahdollisimman pian;
(b)pysyä tietoisina mahdollisesta taipumuksesta luottaa automaattisesti tai liiallisesti suuririskisen tekoälyjärjestelmän tuottamiin tuloksiin (’automaatiovinoutuma’), erityisesti sellaisten suuririskisten tekoälyjärjestelmien osalta, joita käytetään tietojen tai suositusten antamiseen luonnollisten henkilöiden tekemiä päätöksiä varten;
(c)tulkita oikein suuririskisen tekoälyjärjestelmän tuotoksia ottaen erityisesti huomioon järjestelmän ominaisuudet sekä käytettävissä olevat tulkintavälineet ja -menetelmät;
(d)päättää missä tahansa erityistilanteessa, että suuririskistä tekoälyjärjestelmää ei käytetä, tai muutoin jättää huomiotta, korjata tai peruuttaa suuririskisen tekoälyjärjestelmän tuotokset;
(e)puuttua suuririskisen tekoälyjärjestelmän toimintaan tai pysäyttää järjestelmän pysäytyspainikkeella tai vastaavalla menettelyllä.
5.Liitteessä III olevan 1 kohdan a alakohdassa tarkoitettujen suuririskisten tekoälyjärjestelmien osalta 3 kohdassa tarkoitetuilla toimenpiteillä on lisäksi varmistettava, että käyttäjä ei toteuta mitään toimia tai tee mitään päätöstä järjestelmästä seuraavan tunnistamisen perusteella, ellei vähintään kaksi luonnollista henkilöä ole todentanut ja vahvistanut sitä.
15 artikla
Tarkkuus, luotettavuus ja kyberturvallisuus
1.Suuririskiset tekoälyjärjestelmät on suunniteltava ja kehitettävä siten, että ne saavuttavat käyttötarkoitukseensa nähden asianmukaisen tarkkuuden, luotettavuuden ja kyberturvallisuuden tason ja toimivat tässä suhteessa johdonmukaisesti koko elinkaarensa ajan.
2.Suuririskisten tekoälyjärjestelmien tarkkuustasot ja niihin liittyvät tarkkuusmittarit on ilmoitettava järjestelmän mukana olevissa käyttöohjeissa.
3.Suuririskisten tekoälyjärjestelmien on siedettävä virheitä, vikoja tai epäjohdonmukaisuuksia, joita saattaa esiintyä järjestelmässä tai ympäristössä, jossa järjestelmä toimii, erityisesti siksi, että järjestelmät ovat vuorovaikutuksessa luonnollisten henkilöiden tai muiden järjestelmien kanssa.
4.Suuririskisten tekoälyjärjestelmien luotettavuus voidaan saavuttaa teknisillä vararatkaisuilla, joihin voivat kuulua varasuunnitelmat tai vikavarmistussuunnitelmat.
5.Suuririskiset tekoälyjärjestelmät, jotka jatkavat oppimista markkinoille saattamisen tai käyttöönoton jälkeen, on kehitettävä siten, että varmistetaan, että mahdollisesti vinoutuneisiin tuloksiin, jotka johtuvat tulosten käytöstä tulevien toimintojen syöttötietona (’palautesilmukat’), puututaan asianmukaisin korjaavin toimenpitein.
6.Suuririskisten tekoälyjärjestelmien on kestettävä asiaankuulumattomien ulkopuolisten tahojen yritykset muuttaa järjestelmän käyttöä tai suorituskykyä hyödyntämällä järjestelmän haavoittuvuuksia.
Suuririskisten tekoälyjärjestelmien kyberturvallisuuden varmistamiseen tähtäävien teknisten ratkaisujen on oltava asianmukaisia asiaan liittyviin olosuhteisiin ja riskeihin nähden.
Teknisiin ratkaisuihin, joilla puututaan tekoälyn erityisiin haavoittuvuuksiin, on tarvittaessa sisällyttävä toimenpiteitä, joilla ehkäistään ja rajoitetaan hyökkäyksiä, joilla pyritään manipuloimaan koulutusdatajoukkoa (”datamyrkytys”), syöttötietoja, joiden tarkoituksena on saada malli tekemään virhe (”ristiriitaiset esimerkit”), tai mallin puutteita.
3 luku
SUURIRISKISTEN TEKOÄLYJÄRJESTELMIEN TARJOAJIEN JA KÄYTTÄJIEN JA MUIDEN OSAPUOLTEN VELVOLLISUUDET
16 artikla
Suuririskisten tekoälyjärjestelmien tarjoajien velvollisuudet
Suuririskisten tekoälyjärjestelmien tarjoajien on
(a)varmistettava, että niiden suuririskiset tekoälyjärjestelmät ovat tämän osaston 2 luvussa vahvistettujen vaatimusten mukaisia;
(b)käytettävä 17 artiklan mukaista laadunhallintajärjestelmää;
(c)laadittava suuririskisen tekoälyjärjestelmän tekninen dokumentaatio;
(d)säilytettävä suuririskisten tekoälyjärjestelmiensä automaattisesti tuottamat lokitiedot, jos nämä tiedot ovat niiden määräysvallassa;
(e)varmistettava, että suuririskiselle tekoälyjärjestelmälle tehdään asiaankuuluva vaatimustenmukaisuuden arviointimenettely ennen sen markkinoille saattamista tai käyttöönottoa;
(f)noudatettava 51 artiklassa tarkoitettuja rekisteröintivelvollisuuksia;
(g)toteutettava tarvittavat korjaavat toimenpiteet, jos suuririskinen tekoälyjärjestelmä ei ole tämän osaston 2 luvussa vahvistettujen vaatimusten mukainen;
(h)ilmoitettava vaatimustenvastaisuudesta ja toteutetuista korjaavista toimenpiteistä niiden jäsenvaltioiden kansallisille toimivaltaisille viranomaisille ja tarvittaessa ilmoitetulle laitokselle, joissa ne ovat asettaneet tekoälyjärjestelmän saataville tai ottaneet sen käyttöön;
(i)kiinnitettävä suuririskisiin tekoälyjärjestelmiinsä CE-merkintä 49 artiklan mukaisesti sen osoittamiseksi, että ne ovat tämän asetuksen mukaisia;
(j)osoitettava kansallisen toimivaltaisen viranomaisen pyynnöstä, että suuririskinen tekoälyjärjestelmä on tämän osaston 2 luvussa vahvistettujen vaatimusten mukainen.
17 artikla
Laadunhallintajärjestelmä
1.Suuririskisten tekoälyjärjestelmien tarjoajien on otettava käyttöön laadunhallintajärjestelmä, jolla varmistetaan tämän asetuksen noudattaminen. Järjestelmä on dokumentoitava järjestelmällisesti ja täsmällisesti kirjallisiksi periaatteiksi, menettelyiksi ja ohjeiksi, ja siihen on sisällyttävä ainakin seuraavat seikat:
(a)strategia säännösten noudattamista varten, mukaan lukien vaatimustenmukaisuusmenettelyjen ja suuririskisiin tekoälyjärjestelmiin tehtyjen muutosten hallintamenettelyjen noudattaminen;
(b)suuririskisen tekoälyjärjestelmän suunnittelussa, suunnittelun valvonnassa ja rakenteen tarkastuksessa käytettävät tekniikat, menettelyt ja järjestelmälliset toimenpiteet;
(c)suuririskisen tekoälyjärjestelmän kehittämisessä, laadunvalvonnassa ja laadunvarmistuksessa käytettävät tekniikat, menettelyt ja järjestelmälliset toimenpiteet;
(d)tarkastus-, testaus- ja validointimenettelyt, jotka on suoritettava ennen suuririskisen tekoälyjärjestelmän kehittämistä, sen aikana ja sen jälkeen, sekä niiden suoritustiheys;
(e)sovellettavat tekniset eritelmät, standardit mukaan luettuina, ja, jos asiaankuuluvia yhdenmukaistettuja standardeja ei sovelleta täysimääräisesti, keinot, joilla varmistetaan, että suuririskinen tekoälyjärjestelmä on tämän osaston 2 luvussa vahvistettujen vaatimusten mukainen;
(f)datanhallintajärjestelmät ja -menettelyt, mukaan lukien datankeruu, datan analysointi, tunnisteiden lisääminen, datan tallentaminen, datan suodattaminen, datanlouhinta, datan yhdistäminen, datan säilyttäminen ja kaikki muut dataan liittyvät toimet, jotka suoritetaan ennen suuririskisten tekoälyjärjestelmien markkinoille saattamista tai käyttöönottoa ja näitä toimia varten;
(g)9 artiklassa tarkoitettu riskinhallintajärjestelmä;
(h)markkinoille saattamisen jälkeistä seurantaa koskevan järjestelmän perustaminen, toteutus ja ylläpito 61 artiklan mukaisesti;
(i)menettelyt, jotka liittyvät vakavista vaaratilanteista ja toimintahäiriöistä ilmoittamiseen 62 artiklan mukaisesti;
(j)kansallisten toimivaltaisten viranomaisten, toimivaltaisten viranomaisten, myös alakohtaisten viranomaisten, jotka tarjoavat pääsyn dataan tai tukevat sitä, ilmoitettujen laitosten, muiden toimijoiden, asiakkaiden tai muiden asianomaisten osapuolten kanssa käytävän viestinnän järjestäminen;
(k)järjestelmät ja menettelyt kaiken asiaankuuluvan dokumentaation ja tiedon säilyttämistä varten;
(l)resurssien hallinta, mukaan lukien toimitusvarmuuteen liittyvät toimenpiteet;
(m)vastuuvelvollisuuskehys, jossa määritellään johdon ja muun henkilöstön vastuut kaikkien tässä kohdassa lueteltujen näkökohtien osalta.
2.Edellä 1 kohdassa tarkoitettujen näkökohtien toteutuksen on oltava oikeassa suhteessa tarjoajan organisaation kokoon.
3.Niiden tarjoajien osalta, jotka ovat direktiivillä 2013/36/EU säänneltyjä luottolaitoksia, velvollisuus ottaa käyttöön laadunhallintajärjestelmä katsotaan täytetyksi, kun tarjoaja noudattaa mainitun direktiivin 74 artiklan mukaisia sisäisiä hallinnointi- ja ohjausjärjestelmiä, -prosesseja ja -menetelmiä koskevia sääntöjä. Tässä yhteydessä on otettava huomioon tämän asetuksen 40 artiklassa tarkoitetut yhdenmukaistetut standardit.
18 artikla
Velvollisuus laatia tekninen dokumentaatio
1.Suuririskisten tekoälyjärjestelmien tarjoajien on laadittava 11 artiklassa tarkoitettu tekninen dokumentaatio liitteen IV mukaisesti.
2.Tarjoajien, jotka ovat direktiivillä 2013/36/EU säänneltyjä luottolaitoksia, on säilytettävä tekninen dokumentaatio osana asiakirjoja, jotka liittyvät mainitun direktiivin 74 artiklan mukaisiin sisäisiin hallinnointi- ja ohjausjärjestelmiin, ‑prosesseihin ja -menetelmiin.
19 artikla
Vaatimustenmukaisuuden arviointi
1.Suuririskisten tekoälyjärjestelmien tarjoajien on varmistettava, että niiden järjestelmille tehdään asiaankuuluva vaatimustenmukaisuuden arviointimenettely 43 artiklan mukaisesti ennen järjestelmien markkinoille saattamista tai käyttöönottoa. Kun vaatimustenmukaisuuden arvioinnin perusteella on osoitettu, että tekoälyjärjestelmät ovat tämän osaston 2 luvussa vahvistettujen vaatimusten mukaisia, tarjoajien on laadittava EU-vaatimustenmukaisuusvakuutus 48 artiklan mukaisesti ja kiinnitettävä CE-vaatimustenmukaisuusmerkintä 49 artiklan mukaisesti.
2.Sellaisten liitteessä III olevan 5 kohdan b alakohdassa tarkoitettujen suuririskisten tekoälyjärjestelmien osalta, joita saattavat markkinoille tai ottavat käyttöön tarjoajat, jotka ovat direktiivillä 2013/36/EU säänneltyjä luottolaitoksia, vaatimustenmukaisuuden arviointi on suoritettava osana mainitun direktiivin 97–101 artiklassa tarkoitettua menettelyä.
20 artikla
Automaattisesti tuotetut lokitiedot
1.Suuririskisten tekoälyjärjestelmien tarjoajien on säilytettävä suuririskisten tekoälyjärjestelmiensä automaattisesti tuottamat lokitiedot siltä osin kuin tällaiset lokitiedot ovat niiden määräysvallassa käyttäjän kanssa tehdyn sopimusjärjestelyn mukaisesti tai muutoin lain nojalla. Lokitietoja on säilytettävä ajan, joka on asianmukainen ottaen huomioon suuririskisen tekoälyjärjestelmän käyttötarkoitus ja sovellettavat unionin tai kansallisen oikeuden mukaiset velvoitteet.
2.Tarjoajien, jotka ovat direktiivillä 2013/36/EU säänneltyjä luottolaitoksia, on säilytettävä suuririskisten tekoälyjärjestelmiensä automaattisesti tuottamat lokitiedot osana mainitun direktiivin 74 artiklan mukaisia asiakirjoja.
21 artikla
Korjaavat toimenpiteet
Suuririskisten tekoälyjärjestelmien tarjoajien, jotka katsovat tai joilla on syytä uskoa, että niiden markkinoille saattama tai käyttöön ottama järjestelmä ei ole tämän asetuksen mukainen, on välittömästi toteutettava tarvittavat korjaavat toimenpiteet kyseisen järjestelmän saattamiseksi vaatimusten mukaiseksi, sen poistamiseksi markkinoilta tai sitä koskevan palautusmenettelyn järjestämiseksi. Niiden on ilmoitettava asiasta kyseisen suuririskisen tekoälyjärjestelmän jakelijoille ja tarvittaessa valtuutetulle edustajalle ja maahantuojille.
22 artikla
Ilmoitusvelvollisuus
Mikäli suuririskinen tekoälyjärjestelmä aiheuttaa 65 artiklan 1 kohdassa tarkoitetun riskin ja kyseinen riski on tarjoajan tiedossa, tarjoajan on välittömästi ilmoitettava erityisesti vaatimustenvastaisuudesta ja toteutetuista korjaavista toimenpiteistä niiden jäsenvaltioiden kansallisille toimivaltaisille viranomaisille, joissa se on asettanut järjestelmän saataville, ja tarvittaessa sille ilmoitetulle laitokselle, joka on antanut todistuksen suuririskiselle tekoälyjärjestelmälle.
23 artikla
Yhteistyö toimivaltaisten viranomaisten kanssa
Suuririskisten tekoälyjärjestelmien tarjoajien on kansallisen toimivaltaisen viranomaisen pyynnöstä toimitettava kyseiselle viranomaiselle kaikki tieto ja dokumentaatio, joka on tarpeen sen osoittamiseksi, että suuririskinen tekoälyjärjestelmä on tämän osaston 2 luvussa vahvistettujen vaatimusten mukainen, asianomaisen jäsenvaltion määrittämällä unionin virallisella kielellä. Tarjoajien on kansallisen toimivaltaisen viranomaisen perustellusta pyynnöstä asetettava kyseisen viranomaisen saataville myös suuririskisen tekoälyjärjestelmän automaattisesti tuottamat lokitiedot siltä osin kuin tällaiset lokitiedot ovat niiden määräysvallassa käyttäjän kanssa tehdyn sopimusjärjestelyn mukaisesti tai muutoin lain nojalla.
24 artikla
Tuotteiden valmistajien velvollisuudet
Kun suuririskinen tekoälyjärjestelmä, joka liittyy tuotteisiin, joihin sovelletaan liitteessä II olevassa A jaksossa lueteltuja säädöksiä, saatetaan markkinoille tai otetaan käyttöön yhdessä kyseisten säädösten mukaisesti valmistetun tuotteen kanssa ja tuotteen valmistajan nimellä, tuotteen valmistajan on otettava vastuu siitä, että tekoälyjärjestelmä on tämän asetuksen mukainen, ja sillä on tekoälyjärjestelmän osalta samat velvollisuudet kuin jotka on tässä asetuksessa asetettu tarjoajalle.
25 artikla
Valtuutetut edustajat
1.Jos maahantuojaa ei voida yksilöidä, unionin ulkopuolelle sijoittautuneiden tarjoajien on ennen järjestelmiensä asettamista saataville unionin markkinoilla nimettävä kirjallisella toimeksiannolla unioniin sijoittautunut valtuutettu edustaja.
2.Valtuutetun edustajan on suoritettava tarjoajalta saamassaan toimeksiannossa määritellyt tehtävät. Toimeksiannossa valtuutetulle edustajalle on annettava valtuudet suorittaa seuraavat tehtävät:
(a)pitää kansallisten toimivaltaisten viranomaisten ja 63 artiklan 7 kohdassa tarkoitettujen kansallisten viranomaisten saatavilla jäljennös EU-vaatimustenmukaisuusvakuutuksesta ja teknisestä dokumentaatiosta;
(b)antaa kansalliselle toimivaltaiselle viranomaiselle perustellusta pyynnöstä kaikki tieto ja dokumentaatio, joka on tarpeen sen osoittamiseksi, että suuririskinen tekoälyjärjestelmä on tämän osaston 2 luvussa vahvistettujen vaatimusten mukainen, mukaan lukien pääsy suuririskisen tekoälyjärjestelmän automaattisesti tuottamiin lokitietoihin siltä osin kuin tällaiset lokitiedot ovat tarjoajan määräysvallassa käyttäjän kanssa tehdyn sopimusjärjestelyn mukaisesti tai muutoin lain nojalla;
(c)tehdä perustellusta pyynnöstä yhteistyötä toimivaltaisten kansallisten viranomaisten kanssa kaikissa toimissa, joita nämä toteuttavat suuririskisen tekoälyjärjestelmän suhteen.
26 artikla
Maahantuojien velvollisuudet
1.Suuririskisen tekoälyjärjestelmän maahantuojien on ennen tällaisen järjestelmän markkinoille saattamista varmistettava, että
(a)kyseisen tekoälyjärjestelmän tarjoaja on suorittanut asianmukaisen vaatimustenmukaisuuden arviointimenettelyn;
(b)tarjoaja on laatinut teknisen dokumentaation liitteen IV mukaisesti;
(c)järjestelmällä on vaadittu vaatimustenmukaisuusmerkintä ja sen mukana on tarvittava dokumentaatio ja käyttöohjeet.
2.Mikäli maahantuoja katsoo tai sillä on syytä uskoa, että suuririskinen tekoälyjärjestelmä ei ole tämän asetuksen mukainen, se ei saa saattaa kyseistä tekoälyjärjestelmää markkinoille ennen kuin järjestelmä on saatettu vaatimusten mukaiseksi. Mikäli suuririskinen tekoälyjärjestelmä aiheuttaa 65 artiklan 1 kohdassa tarkoitetun riskin, maahantuojan on ilmoitettava asiasta tekoälyjärjestelmän tarjoajalle ja markkinavalvontaviranomaisille.
3.Maahantuojien on ilmoitettava nimensä, rekisteröity tuotenimensä tai rekisteröity tavaramerkkinsä sekä osoite, josta maahantuojaan voidaan saadaan yhteys, joko suuririskisessä tekoälyjärjestelmässä tai, jos se ei ole mahdollista, sen pakkauksessa tai tarvittaessa sen mukana seuraavassa dokumentaatiossa.
4.Maahantuojien on tarvittaessa varmistettava, että sinä aikana, jona suuririskinen tekoälyjärjestelmä on niiden vastuulla, varastointi- tai kuljetusolosuhteet eivät vaaranna sen tämän osaston 2 luvussa vahvistettujen vaatimusten mukaisuutta.
5.Maahantuojien on annettava kansallisille toimivaltaisille viranomaisille perustellusta pyynnöstä kaikki tieto ja dokumentaatio, joka on tarpeen sen osoittamiseksi, että suuririskinen tekoälyjärjestelmä on tämän osaston 2 luvussa vahvistettujen vaatimusten mukainen, kielellä, jota kyseinen kansallinen toimivaltainen viranomainen voi helposti ymmärtää, mukaan lukien pääsy suuririskisen tekoälyjärjestelmän automaattisesti tuottamiin lokitietoihin siltä osin kuin tällaiset lokitiedot ovat tarjoajan määräysvallassa käyttäjän kanssa tehdyn sopimusjärjestelyn mukaisesti tai muutoin lain nojalla. Niiden on myös tehtävä yhteistyötä kyseisten viranomaisten kanssa kaikissa toimissa, joita kansallinen toimivaltainen viranomainen toteuttaa kyseisen järjestelmän osalta.
27 artikla
Jakelijoiden velvollisuudet
1.Jakelijoiden on ennen suuririskisen tekoälyjärjestelmän asettamista saataville markkinoilla tarkastettava, että suuririskisessä tekoälyjärjestelmässä on vaadittu CE-vaatimustenmukaisuusmerkintä, että sen mukana on vaadittu dokumentaatio ja käyttöohjeet ja että tapauksen mukaan tarjoaja ja maahantuoja ovat noudattaneet tässä asetuksessa säädettyjä velvoitteita.
2.Mikäli jakelija katsoo tai sillä on syytä uskoa, että suuririskinen tekoälyjärjestelmä ei ole tämän osaston 2 luvussa vahvistettujen vaatimusten mukainen, se ei saa asettaa suuririskistä tekoälyjärjestelmää saataville markkinoilla ennen kuin järjestelmä on saatettu kyseisten vaatimusten mukaiseksi. Lisäksi mikäli järjestelmä aiheuttaa 65 artiklan 1 kohdassa tarkoitetun riskin, jakelijan on ilmoitettava asiasta tapauksen mukaan tarjoajalle tai maahantuojalle.
3.Jakelijoiden on tarvittaessa varmistettava, että sinä aikana, jona suuririskinen tekoälyjärjestelmä on niiden vastuulla, varastointi- tai kuljetusolosuhteet eivät vaaranna sen tämän osaston 2 luvussa vahvistettujen vaatimusten mukaisuutta.
4.Jakelijan, joka katsoo tai jolla on syytä uskoa, että sen markkinoilla saataville asettama suuririskinen tekoälyjärjestelmä ei ole tämän osaston 2 luvussa vahvistettujen vaatimusten mukainen, on toteutettava tarvittavat korjaavat toimenpiteet kyseisen järjestelmän saattamiseksi vaatimusten mukaiseksi, sen poistamiseksi markkinoilta tai sitä koskevan palautusmenettelyn järjestämiseksi tai varmistettava, että tarvittaessa tarjoaja, maahantuoja tai mikä tahansa asiaankuuluva toimija toteuttaa kyseiset korjaavat toimenpiteet. Mikäli suuririskinen tekoälyjärjestelmä aiheuttaa 65 artiklan 1 kohdassa tarkoitetun riskin, jakelijan on välittömästi ilmoitettava asiasta niiden jäsenvaltioiden kansallisille toimivaltaisille viranomaisille, joissa se on asettanut tuotteen saataville, ja annettava yksityiskohtaiset tiedot erityisesti vaatimustenvastaisuudesta ja toteutetuista korjaavista toimenpiteistä.
5.Suuririskisten tekoälyjärjestelmien jakelijoiden on kansallisen toimivaltaisen viranomaisen pyynnöstä toimitettava kyseiselle viranomaiselle kaikki tieto ja dokumentaatio, joka on tarpeen sen osoittamiseksi, että suuririskinen tekoälyjärjestelmä on tämän osaston 2 luvussa vahvistettujen vaatimusten mukainen. Jakelijoiden on myös tehtävä yhteistyötä kyseisen kansallisen toimivaltaisen viranomaisen kanssa kaikissa tämän viranomaisen toteuttamissa toimissa.
28 artikla
Jakelijoiden, maahantuojien, käyttäjien ja muiden kolmansien osapuolten velvollisuudet
1.Mitä tahansa jakelijaa, maahantuojaa, käyttäjää tai muuta kolmatta osapuolta pidetään tätä asetusta sovellettaessa tarjoajana ja niitä koskevat samat velvoitteet kuin tarjoajaa 16 artiklan mukaisesti seuraavissa olosuhteissa:
(a)ne saattavat markkinoille tai ottavat käyttöön suuririskisen tekoälyjärjestelmän omalla nimellään tai tavaramerkillään;
(b)ne muuttavat jo markkinoille saatetun tai käyttöön otetun suuririskisen tekoälyjärjestelmän käyttötarkoitusta;
(c)ne tekevät merkittäviä muutoksia suuririskiseen tekoälyjärjestelmään.
2.Edellä 1 kohdan b tai c alakohdassa tarkoitetuissa tilanteissa tarjoajaa, joka on alun perin saattanut suuririskisen tekoälyjärjestelmän markkinoille tai ottanut sen käyttöön, ei enää pidetä tämän asetuksen tarkoituksissa tarjoajana.
29 artikla
Suuririskisten tekoälyjärjestelmien käyttäjien velvollisuudet
1.Suuririskisten tekoälyjärjestelmien käyttäjien on käytettävä tällaisia järjestelmiä niiden mukana seuraavien käyttöohjeiden mukaisesti 2 ja 5 kohdassa säädetyllä tavalla.
2.Edellä 1 kohdassa säädetyt velvollisuudet eivät rajoita muiden unionin tai kansallisesta lainsäädännöstä johtuvien käyttäjien velvollisuuksien soveltamista eivätkä käyttäjän harkintavaltaa omien resurssiensa ja toimintojensa järjestämisessä tarjoajan ilmoittamien ihmisen suorittamien valvontatoimien toteuttamiseksi.
3.Siltä osin kuin käyttäjä valvoo syöttötietoja, käyttäjän on varmistettava, että syöttötiedot ovat merkityksellisiä suuririskisen tekoälyjärjestelmän käyttötarkoituksen kannalta, sanotun kuitenkaan rajoittamatta 1 kohdan soveltamista.
4.Käyttäjien on seurattava suuririskisen tekoälyjärjestelmän toimintaa käyttöohjeiden perusteella. Jos niillä on syytä uskoa, että käyttöohjeiden mukainen käyttö voi johtaa siihen, että tekoälyjärjestelmä aiheuttaa 65 artiklan 1 kohdassa tarkoitetun riskin, niiden on ilmoitettava asiasta tarjoajalle tai jakelijalle ja keskeytettävä järjestelmän käyttö. Niiden on samoin ilmoitettava tarjoajalle tai jakelijalle, jos ne ovat havainneet 62 artiklassa tarkoitetun vakavan vaaratilanteen tai toimintahäiriön ja keskeytettävä tekoälyjärjestelmän käyttö. Jos käyttäjä ei pysty tavoittamaan tarjoajaa, 62 artiklaa sovelletaan soveltuvin osin.
5.Niiden käyttäjien osalta, jotka ovat direktiivillä 2013/36/EU säänneltyjä luottolaitoksia, ensimmäisessä alakohdassa säädetty seurantavelvollisuus katsotaan täytetyksi, kun käyttäjä noudattaa mainitun direktiivin 74 artiklan mukaisia sisäisiä hallinnointi- ja ohjausjärjestelmiä, -prosesseja ja -menetelmiä koskevia sääntöjä.
6.Suuririskisten tekoälyjärjestelmien käyttäjien on säilytettävä suuririskisen tekoälyjärjestelmän automaattisesti tuottamat lokitiedot siltä osin kuin tällaiset lokitiedot ovat niiden määräysvallassa. Lokitietoja on säilytettävä ajan, joka on asianmukainen ottaen huomioon suuririskisen tekoälyjärjestelmän käyttötarkoitus ja sovellettavat unionin tai kansallisen oikeuden mukaiset velvoitteet.
Käyttäjien, jotka ovat direktiivillä 2013/36/EU säänneltyjä luottolaitoksia, on säilytettävä lokitiedot osana asiakirjoja, jotka liittyvät mainitun direktiivin 74 artiklan mukaisiin sisäisiin hallinnointi- ja ohjausjärjestelmiin, -prosesseihin ja -menetelmiin.
7.Suuririskisten tekoälyjärjestelmien käyttäjien on käytettävä 13 artiklan mukaisesti toimitettuja tietoja noudattaakseen velvollisuuttaan tehdä tarvittaessa tietosuojaa koskeva vaikutustenarviointi asetuksen (EU) 2016/679 35 artiklan tai direktiivin (EU) 2016/680 27 artiklan mukaisesti.
4 luku
ILMOITTAMISESTA VASTAAVAT VIRANOMAISET JA ILMOITETUT LAITOKSET
30 artikla
Ilmoittamisesta vastaavat viranomaiset
1.Kunkin jäsenvaltion on nimettävä tai perustettava ilmoittamisesta vastaava viranomainen, joka vastaa vaatimustenmukaisuuden arviointilaitosten arviointiin, nimeämiseen ja ilmoittamiseen sekä niiden seurantaan liittyvien tarvittavien menettelyjen perustamisesta ja toteuttamisesta.
2.Jäsenvaltiot voivat nimetä asetuksessa (EY) N:o 765/2008 tarkoitetun kansallisen akkreditointielimen ilmoittamisesta vastaavaksi viranomaiseksi.
3.Ilmoittamisesta vastaavien viranomaisten on oltava toteutukseltaan, organisaatioltaan ja toiminnaltaan sellaisia, että vältetään kaikki eturistiriidat vaatimustenmukaisuuden arviointilaitosten kanssa ja että niiden toimien objektiivisuus ja puolueettomuus on turvattu.
4.Ilmoittamisesta vastaavien viranomaisten organisaation on oltava sellainen, että päätökset, jotka koskevat vaatimustenmukaisuuden arviointilaitosten ilmoittamista, tekevät eri toimivaltaiset henkilöt kuin ne, jotka ovat suorittaneet näiden laitosten arvioinnin.
5.Ilmoittamisesta vastaavat viranomaiset eivät saa tarjota tai suorittaa mitään toimintoja, joita vaatimustenmukaisuuden arviointilaitokset suorittavat, eivätkä mitään konsultointipalveluja kaupallisin tai kilpailullisin perustein.
6.Ilmoittamisesta vastaavien viranomaisten on turvattava saamiensa tietojen luottamuksellisuus.
7.Ilmoittamisesta vastaavilla viranomaisilla on oltava käytössään riittävä määrä pätevää henkilöstöä tehtäviensä asianmukaista hoitamista varten.
8.Ilmoittamisesta vastaavien viranomaisten on varmistettava, että vaatimustenmukaisuuden arvioinnit suoritetaan oikeasuhteisesti välttäen tarjoajille aiheutuvaa tarpeetonta rasitusta ja että ilmoitetut laitokset suorittavat tehtävänsä ottaen asianmukaisesti huomioon yrityksen koon, toimialan ja rakenteen sekä kyseisen tekoälyjärjestelmän monimutkaisuuden.
31 artikla
Vaatimustenmukaisuuden arviointilaitoksen ilmoittamista koskeva hakemus
1.Vaatimustenmukaisuuden arviointilaitosten on toimitettava ilmoittamista koskeva hakemus sen jäsenvaltion ilmoittamisesta vastaavalle viranomaiselle, johon ne ovat sijoittautuneet.
2.Ilmoittamista koskevaan hakemukseen on liitettävä kuvaus vaatimustenmukaisuuden arviointitoimista, vaatimustenmukaisuuden arviointimoduulista tai -moduuleista ja tekoälyteknologioista, joiden osalta vaatimustenmukaisuuden arviointilaitos katsoo olevansa pätevä, sekä mahdollinen akkreditointitodistus, jonka kansallinen akkreditointielin on antanut ja jossa todistetaan, että vaatimustenmukaisuuden arviointilaitos täyttää 33 artiklassa säädetyt vaatimukset. Hakemukseen on liitettävä kaikki voimassa olevat asiakirjat, jotka liittyvät hakemuksen esittävän ilmoitetun laitoksen voimassa oleviin nimeämisiin jonkin muun unionin yhdenmukaistamislainsäädännön nojalla.
3.Jos asianomainen vaatimustenmukaisuuden arviointilaitos ei voi toimittaa akkreditointitodistusta, sen on toimitettava ilmoittamisesta vastaavalle viranomaiselle tarpeelliset asiakirjatodisteet, joiden avulla voidaan tarkastaa, tunnustaa ja säännöllisesti valvoa, että se täyttää 33 artiklassa säädetyt vaatimukset. Kun on kyse muun unionin yhdenmukaistamislainsäädännön nojalla nimetyistä ilmoitetuista laitoksista, kaikkia näihin nimeämisiin liittyviä asiakirjoja ja todistuksia voidaan tarvittaessa käyttää tämän asetuksen mukaisen nimeämismenettelyn tukena.
32 artikla
Ilmoitusmenettely
1.Ilmoittamisesta vastaavat viranomaiset voivat ilmoittaa ainoastaan sellaiset vaatimustenmukaisuuden arviointilaitokset, jotka ovat täyttäneet 33 artiklassa säädetyt vaatimukset.
2.Ilmoittamisesta vastaavien viranomaisten on tehtävä ilmoitus komissiolle ja muille jäsenvaltioille käyttäen komission kehittämää ja hallinnoimaa sähköistä ilmoitusvälinettä.
3.Ilmoituksen on sisällettävä täydelliset tiedot vaatimustenmukaisuuden arviointitoimista, vaatimustenmukaisuuden arviointimoduulista tai -moduuleista ja asianomaisista tekoälyteknologioista.
4.Asianomainen vaatimustenmukaisuuden arviointilaitos voi suorittaa ilmoitetun laitoksen tehtäviä ainoastaan siinä tapauksessa, että komissio tai muut jäsenvaltiot eivät esitä vastalauseita yhden kuukauden kuluessa ilmoittamisesta.
5.Ilmoittamisesta vastaavien viranomaisten on ilmoitettava komissiolle ja muille jäsenvaltioille myöhemmistä asian kannalta merkityksellisistä muutoksista kyseiseen ilmoitukseen.
33 artikla
Ilmoitetut laitokset
1.Ilmoitettujen laitosten on tarkastettava suuririskisen tekoälyjärjestelmän vaatimustenmukaisuus 43 artiklassa tarkoitettujen vaatimustenmukaisuuden arviointimenettelyjen mukaisesti.
2.Ilmoitettujen laitosten on täytettävä organisaatiota, laadunhallintaa, resursseja ja prosessia koskevat vaatimukset, jotka ovat tarpeen niiden tehtävien suorittamiseksi.
3.Ilmoitettujen laitosten organisaatiorakenteen, vastuunjaon, raportointisuhteiden ja toiminnan on oltava sellaisia, että niillä varmistetaan luottamus ilmoitetun laitoksen toimiin ja sen toteuttamien vaatimustenmukaisuuden arviointitoimien tuloksiin.
4.Ilmoitettujen laitosten on oltava riippumattomia sen suuririskisen tekoälyjärjestelmän tarjoajasta, jonka vaatimustenmukaisuutta ne arvioivat. Ilmoitettujen laitosten on oltava riippumattomia myös kaikista muista toimijoista, joilla on suuririskiseen tekoälyjärjestelmään liittyviä taloudellisia intressejä, sekä kaikista tarjoajan kilpailijoista.
5.Ilmoitettujen laitosten on oltava organisaatioltaan ja toiminnaltaan sellaisia, että niiden toimien riippumattomuus, objektiivisuus ja puolueettomuus on turvattu. Ilmoitettujen laitosten on dokumentoitava ja toteutettava rakenne ja menettelyt, joilla turvataan puolueettomuus sekä edistetään ja sovelletaan puolueettomuuden periaatteita koko niiden organisaatiossa ja henkilöstössä ja kaikissa arviointitoimissa.
6.Ilmoitetuilla laitoksilla on oltava käytössään dokumentoidut menettelyt, joilla varmistetaan, että niiden henkilöstö, asiantuntijaryhmät, tytäryhtiöt, alihankkijat ja niihin liittyvät tahot tai ulkoisten tahojen henkilöstö noudattavat luottamuksellisuutta sellaisten tietojen osalta, jotka ne saavat haltuunsa vaatimustenmukaisuuden arviointitoimien suorittamisen aikana, paitsi kun lainsäädännössä edellytetään tietojen luovuttamista. Ilmoitettujen laitosten henkilöstöllä on vaitiolovelvollisuus kaikkien niiden tietojen suhteen, joita ne saavat suorittaessaan tämän asetuksen mukaisia tehtäviään, paitsi sen jäsenvaltion ilmoittamisesta vastaaviin viranomaisiin nähden, jossa ne toimivat.
7.Ilmoitetuilla laitoksilla on oltava käytössään tarvittavat menettelyt, joiden mukaisesti ne hoitavat tehtäviään siten, että yritysten koko, toimiala ja rakenne sekä kyseessä olevan tekoälyjärjestelmän monimutkaisuus otetaan asianmukaisesti huomioon.
8.Ilmoitetuilla laitoksilla on oltava asianmukainen vastuuvakuutus vaatimustenmukaisuuden arviointitoimiensa varalle, jollei vastuu kuulu kyseiselle jäsenvaltiolle kansallisen lainsäädännön mukaisesti tai jollei jäsenvaltio ole suoraan vastuussa vaatimustenmukaisuuden arvioinnista.
9.Ilmoitettujen laitosten on kyettävä suorittamaan niille tämän asetuksen mukaisesti kuuluvat tehtävät osoittaen mahdollisimman suurta ammatillista luotettavuutta ja kyseisellä erityisalalla vaadittavaa pätevyyttä riippumatta siitä, suorittavatko ilmoitetut laitokset kyseiset tehtävät itse vai tehdäänkö ne niiden puolesta ja vastuulla.
10.Ilmoitetuilla laitoksilla on oltava riittävästi sisäistä osaamista, jotta ne voivat tehokkaasti arvioida ulkoisten osapuolten niiden puolesta suorittamat tehtävät. Tätä varten ilmoitetulla laitoksella on oltava kaikkina aikoina ja kunkin sellaisen vaatimustenmukaisuuden arviointimenettelyn ja suuririskisen tekoälyjärjestelmän tyypin osalta, jota varten ilmoitettu laitos on nimetty, pysyvästi käytettävissään riittävä määrä hallinnollista, teknistä ja tieteellistä henkilöstöä, jolla on asiaankuuluviin tekoälyteknologioihin, dataan ja datalaskentaan sekä tämän osaston 2 luvussa vahvistettuihin vaatimuksiin liittyvää kokemusta ja tietämystä.
11.Ilmoitettujen laitosten on osallistuttava 38 artiklassa tarkoitettuihin koordinointitoimiin. Niiden on myös osallistuttava suoraan tai oltava edustettuina eurooppalaisissa standardointiorganisaatioissa tai varmistettava, että ne ovat tietoisia asiaa koskevista standardeista ja ajan tasalla niiden suhteen.
12.Ilmoitettujen laitosten on asetettava saataville ja pyynnöstä toimitettava kaikki asiaankuuluvat asiakirjat, myös tarjoajan dokumentaatio, 30 artiklassa tarkoitetulle ilmoittamisesta vastaavalle viranomaiselle, jotta se voisi suorittaa arviointi-, nimeämis-, ilmoitus-, seuranta- ja valvontatoimensa ja jotta helpotettaisiin tässä luvussa kuvattua arviointia.
34 artikla
Ilmoitettujen laitosten tytäryhtiöt ja alihankinta
1.Jos ilmoitettu laitos antaa tietyt vaatimustenmukaisuuden arviointiin liittyvät tehtävät alihankintaan tai käyttää tytäryhtiötä, sen on varmistettava, että alihankkija tai tytäryhtiö täyttää 33 artiklassa säädetyt vaatimukset, ja tiedotettava asiasta ilmoittamisesta vastaavalle viranomaiselle.
2.Ilmoitettujen laitosten on otettava täysi vastuu alihankkijoiden tai tytäryhtiöiden suorittamista tehtävistä riippumatta siitä, mihin nämä ovat sijoittautuneet.
3.Toimia voidaan antaa alihankintaan tai teettää tytäryhtiöllä ainoastaan, jos siitä on sovittu tarjoajan kanssa.
4.Ilmoitettujen laitosten on pidettävä ilmoittamisesta vastaavan viranomaisen saatavilla asiakirjat, jotka koskevat alihankkijan tai tytäryhtiön pätevyyden arviointia sekä työtä, jonka nämä ovat suorittaneet tämän asetuksen nojalla.
35 artikla
Tämän asetuksen nojalla nimettyjen ilmoitettujen laitosten tunnusnumerot ja luettelot
1.Komissio antaa ilmoitetuille laitoksille tunnusnumeron. Se antaa laitokselle yhden ainoan tunnusnumeron myös silloin, kun laitos ilmoitetaan usean unionin säädöksen nojalla.
2.Komissio julkaisee tämän asetuksen mukaisesti ilmoitettujen laitosten luettelon, joka sisältää laitoksille annetut tunnusnumerot ja toimet, joita varten ne on ilmoitettu. Komissio huolehtii luettelon pitämisestä ajan tasalla.
36 artikla
Ilmoituksiin tehtävät muutokset
1.Jos ilmoittamisesta vastaava viranomainen epäilee tai on saanut tietää, ettei ilmoitettu laitos enää täytä 33 artiklassa säädettyjä vaatimuksia tai ettei se täytä velvollisuuksiaan, kyseisen viranomaisen on tutkittava asia viipymättä ja perinpohjaisesti. Sen on tässä yhteydessä ilmoitettava asianomaiselle ilmoitetulle laitokselle esitetyistä väitteistä ja annettava sille mahdollisuus esittää näkemyksensä. Jos ilmoittamisesta vastaava viranomainen tulee johtopäätökseen, ettei tutkinnan kohteena oleva ilmoitettu laitos enää täytä 33 artiklassa säädettyjä vaatimuksia tai ettei se täytä velvollisuuksiaan, sen on laiminlyönnin vakavuudesta riippuen rajoitettava ilmoitusta taikka peruutettava se toistaiseksi tai kokonaan. Sen on myös ilmoitettava tästä viipymättä komissiolle ja muille jäsenvaltioille.
2.Jos ilmoitusta rajoitetaan tai se peruutetaan toistaiseksi tai kokonaan tai jos ilmoitettu laitos on lopettanut toimintansa, ilmoittamisesta vastaavan viranomaisen on toteutettava asianmukaiset toimenpiteet varmistaakseen, että kyseisen ilmoitetun laitoksen asiakirja-aineistot joko ottaa nimiinsä toinen ilmoitettu laitos tai ne pidetään ilmoittamisesta vastaavan viranomaisen saatavilla sen pyynnöstä.
37 artikla
Ilmoitettujen laitosten pätevyyden riitauttaminen
1.Komissio tutkii tarvittaessa kaikki tapaukset, joissa on syytä epäillä, täyttääkö ilmoitettu laitos 33 artiklassa säädetyt vaatimukset.
2.Ilmoittamisesta vastaavan viranomaisen on toimitettava komissiolle pyynnöstä kaikki merkitykselliset tiedot, jotka koskevat kyseisen ilmoitetun laitoksen ilmoittamista.
3.Komissio varmistaa, että kaikkia sen tämän artiklan mukaisten tutkimusten yhteydessä saamia arkaluontoisia tietoja käsitellään luottamuksellisesti.
4.Jos komissio toteaa, että ilmoitettu laitos ei täytä tai ei enää täytä 33 artiklassa säädettyjä vaatimuksia, se tekee perustellun päätöksen, jossa se pyytää asiasta ilmoituksen tehnyttä jäsenvaltiota ryhtymään tarvittaviin korjaaviin toimenpiteisiin, mukaan luettuna ilmoituksen peruuttaminen tarvittaessa. Kyseinen täytäntöönpanosäädös hyväksytään 74 artiklan 2 kohdassa tarkoitettua tarkastelumenettelyä noudattaen.
38 artikla
Ilmoitettujen laitosten koordinointi
1.Komissio varmistaa, että tämän asetuksen soveltamisalaan kuuluvilla aloilla otetaan käyttöön asianmukainen koordinointi ja yhteistyö sellaisten ilmoitettujen laitosten välillä, jotka toimivat tekoälyjärjestelmien vaatimustenmukaisuuden arviointimenettelyissä tämän asetuksen mukaisesti, ja että koordinointi ja yhteistyö toteutetaan asianmukaisesti ilmoitettujen laitosten alakohtaisen ryhmän muodossa.
2.Jäsenvaltioiden on varmistettava, että niiden ilmoittamat laitokset osallistuvat kyseisen ryhmän työhön suoraan tai nimettyjen edustajien välityksellä.
39 artikla
Kolmansien maiden vaatimustenmukaisuuden arviointilaitokset
Sellaisen kolmannen maan lainsäädännön mukaisesti perustetut vaatimustenmukaisuuden arviointilaitokset, jonka kanssa unioni on tehnyt sopimuksen, voidaan valtuuttaa suorittamaan ilmoitettujen laitosten toimia tämän asetuksen mukaisesti.
5 luku
STANDARDIT, VAATIMUSTENMUKAISUUDEN ARVIOINTI, TODISTUKSET, REKISTERÖINTI
40 artikla
Yhdenmukaistetut standardit
Suuririskisiä tekoälyjärjestelmiä, jotka ovat sellaisten yhdenmukaistettujen standardien tai niiden osien mukaisia, joiden viitetiedot on julkaistu Euroopan unionin virallisessa lehdessä, on pidettävä tämän osaston 2 luvussa vahvistettujen vaatimusten mukaisina siltä osin kuin kyseiset standardit kattavat nämä vaatimukset.
41 artikla
Yhteiset eritelmät
1.Jos 40 artiklassa tarkoitettuja yhdenmukaistettuja standardeja ei ole tai jos komissio katsoo, että asiaa koskevat yhdenmukaistetut standardit ovat riittämättömiä tai että on tarpeen puuttua erityisiin turvallisuutta tai perusoikeuksia koskeviin huolenaiheisiin, komissio voi hyväksyä täytäntöönpanosäädöksillä tämän osaston 2 luvussa vahvistettuja vaatimuksia koskevia yhteisiä eritelmiä. Nämä täytäntöönpanosäädökset hyväksytään 74 artiklan 2 kohdassa tarkoitettua tarkastelumenettelyä noudattaen.
2.Komissio kerää 1 kohdassa tarkoitettuja yhteisiä eritelmiä laatiessaan asiaa koskevan alakohtaisen unionin lainsäädännön mukaisesti perustettujen asiaankuuluvien elinten tai asiantuntijaryhmien näkemykset.
3.Suuririskisiä tekoälyjärjestelmiä, jotka ovat 1 kohdassa tarkoitettujen yhteisten eritelmien mukaisia, on pidettävä tämän osaston 2 luvussa vahvistettujen vaatimusten mukaisina siltä osin kuin kyseiset yhteiset eritelmät kattavat nämä vaatimukset.
4.Jos tarjoajat eivät noudata 1 kohdassa tarkoitettuja yhteisiä eritelmiä, niiden on perusteltava asianmukaisesti, että ne ovat ottaneet käyttöön vähintään vastaavia teknisiä ratkaisuja.
42 artikla
Olettama tiettyjen vaatimusten noudattamisesta
1.Ottaen huomioon niiden käyttötarkoitus, suuririskisten tekoälyjärjestelmien, jotka on koulutettu ja testattu datalla, joka koskee erityistä maantieteellistä, käyttäytymiseen liittyvää ja toiminnallista ympäristöä, jossa järjestelmiä on tarkoitus käyttää, on katsottava täyttävän 10 artiklan 4 kohdassa vahvistetut vaatimukset.
2.Suuririskisten tekoälyjärjestelmien, jotka on sertifioitu tai joista on annettu vaatimustenmukaisuusilmoitus Euroopan parlamentin ja neuvoston asetuksen (EU) 2019/881 mukaisessa kyberturvallisuusjärjestelmässä ja joiden viitetiedot on julkaistu Euroopan unionin virallisessa lehdessä, oletetaan täyttävän tämän asetuksen 15 artiklassa vahvistetut kyberturvallisuusvaatimukset siltä osin kuin kyberturvallisuussertifikaatti tai vaatimustenmukaisuusilmoitus tai niiden osat kattavat kyseiset vaatimukset.
43 artikla
Vaatimustenmukaisuuden arviointi
1.Kun tarjoaja on liitteessä III olevassa 1 kohdassa lueteltujen suuririskisten tekoälyjärjestelmien osalta soveltanut 40 artiklassa tarkoitettuja yhdenmukaistettuja standardeja tai mahdollisuuksien mukaan 41 artiklassa tarkoitettuja yhteisiä eritelmiä osoittaakseen, että suuririskinen tekoälyjärjestelmä on tämän osaston 2 luvussa vahvistettujen vaatimusten mukainen, tarjoajan on noudatettava jompaakumpaa seuraavista menettelyistä:
(a)liitteessä VI tarkoitettu sisäiseen valvontaan perustuva vaatimustenmukaisuuden arviointimenettely;
(b)liitteessä VII tarkoitettu laadunhallintajärjestelmän ja teknisen dokumentaation arviointiin perustuva vaatimustenmukaisuuden arviointimenettely, johon osallistuu ilmoitettu laitos.
Jos tarjoaja ei ole soveltanut 40 artiklassa tarkoitettuja yhdenmukaistettuja standardeja tai on soveltanut niitä vain osittain osoittaakseen, että suuririskinen tekoälyjärjestelmä on tämän osaston 2 luvussa vahvistettujen vaatimusten mukainen, tai jos tällaisia yhdenmukaistettuja standardeja ei ole eikä 41 artiklassa tarkoitettuja yhteisiä eritelmiä ole saatavilla, tarjoajan on noudatettava liitteessä VII vahvistettua vaatimustenmukaisuuden arviointimenettelyä.
Tarjoaja voi valita minkä tahansa ilmoitetuista laitoksista liitteessä VII tarkoitettua vaatimustenmukaisuuden arviointimenettelyä varten. Kuitenkin jos lainvalvonta-, maahanmuutto- tai turvapaikkaviranomaisten sekä EU:n toimielinten, elinten tai virastojen on tarkoitus ottaa järjestelmä käyttöön, ilmoitettuna laitoksena toimii tapauksen mukaan 63 artiklan 5 tai 6 kohdassa tarkoitettu markkinavalvontaviranomainen.
2.Liitteessä III olevassa 2–8 kohdassa tarkoitettujen suuririskisten tekoälyjärjestelmien osalta tarjoajien on noudatettava liitteessä VI tarkoitettua sisäiseen valvontaan perustuvaa vaatimustenmukaisuuden arviointimenettelyä, jossa ei edellytetä ilmoitetun laitoksen osallistumista. Sellaisten liitteessä III olevan 5 kohdan b alakohdassa tarkoitettujen suuririskisten tekoälyjärjestelmien osalta, joita saattavat markkinoille tai ottavat käyttöön direktiivillä 2013/36/EU säännellyt luottolaitokset, vaatimustenmukaisuuden arviointi on suoritettava osana mainitun direktiivin 97–101 artiklassa tarkoitettua menettelyä.
3.Sellaisten suuririskisten tekoälyjärjestelmien osalta, joihin sovelletaan liitteessä II olevassa A jaksossa lueteltuja säädöksiä, tarjoajan on noudatettava kyseisissä säädöksissä edellytettyä asiaankuuluvaa vaatimustenmukaisuuden arviointia. Kyseisiin suuririskisiin tekoälyjärjestelmiin sovelletaan tämän osaston 2 luvussa vahvistettuja vaatimuksia, ja niiden on oltava osa tätä arviointia. Lisäksi sovelletaan liitteessä VII olevaa 4.3, 4.4 ja 4.5 kohtaa sekä 4.6 kohdan viidettä kohtaa.
Tätä arviointia varten ilmoitetuilla laitoksilla, jotka on ilmoitettu kyseisten säädösten mukaisesti, on oikeus valvoa, että suuririskiset tekoälyjärjestelmät ovat tämän osaston 2 luvussa vahvistettujen vaatimusten mukaisia, edellyttäen, että sitä, että kyseiset ilmoitut laitokset täyttävät 33 artiklan 4, 9 ja 10 kohdassa vahvistetut vaatimukset, on arvioitu kyseisten säädösten mukaisen ilmoitusmenettelyn yhteydessä.
Jos liitteessä II olevassa A jaksossa lueteltujen säädösten nojalla tuotteen valmistaja voi olla soveltamatta kolmannen osapuolen suorittamaa vaatimustenmukaisuuden arviointia ja edellyttäen, että kyseinen valmistaja on soveltanut kaikkia yhdenmukaistettuja standardeja, jotka kattavat kaikki asiaankuuluvat vaatimukset, kyseinen valmistaja voi käyttää tätä vaihtoehtoa ainoastaan, jos se on myös soveltanut yhdenmukaistettuja standardeja tai mahdollisuuksien mukaan 41 artiklassa tarkoitettuja yhteisiä eritelmiä, jotka kattavat tämän osaston 2 luvussa vahvistetut vaatimukset.
4.Suuririskisille tekoälyjärjestelmille on tehtävä uusi vaatimustenmukaisuuden arviointimenettely aina, kun niitä muutetaan merkittävästi, riippumatta siitä, onko muutettua järjestelmää tarkoitus jaella edelleen vai jatkaako nykyinen käyttäjä sen käyttöä.
Sellaisten suuririskisten tekoälyjärjestelmien osalta, jotka jatkavat oppimista markkinoille saattamisen tai käyttöönoton jälkeen, suuririskiseen tekoälyjärjestelmään ja sen suorituskykyyn tehtävät muutokset, jotka tarjoaja on määritellyt ennalta ensimmäisen vaatimustenmukaisuuden arvioinnin yhteydessä ja jotka ovat osa liitteessä IV olevan 2 kohdan f alakohdassa tarkoitettuja tekniseen dokumentaatioon sisältyviä tietoja, eivät muodosta merkittävää muutosta.
5.Siirretään komissiolle valta antaa delegoituja säädöksiä 73 artiklan mukaisesti liitteiden VI ja VII saattamiseksi ajan tasalle, jotta voidaan ottaa käyttöön vaatimustenmukaisuuden arviointimenettelyjen osia, jotka ovat tarpeen tekniikan kehityksen huomioon ottamiseksi.
6.Siirretään komissiolle valta antaa delegoituja säädöksiä 1 ja 2 kohdan muuttamiseksi, jotta liitteessä III olevassa 2–8 kohdassa tarkoitettuihin suuririskisiin tekoälyjärjestelmiin voidaan soveltaa liitteessä VII tarkoitettua vaatimustenmukaisuuden arviointimenettelyä tai sen osia. Komissio ottaa tällaisia delegoituja säädöksiä hyväksyessään huomioon liitteessä VI tarkoitetun sisäiseen valvontaan perustuvan vaatimustenmukaisuuden arviointimenettelyn tehokkuuden tällaisista järjestelmistä terveydelle ja turvallisuudelle sekä perusoikeuksien suojelulle aiheutuvien riskien ehkäisemisessä tai minimoimisessa sekä riittävien valmiuksien ja resurssien saatavuuden ilmoitetuissa laitoksissa.
44 artikla
Todistukset
1.Ilmoitettujen laitosten liitteen VII mukaisesti antamien todistusten on oltava laadittu sen jäsenvaltion määrittelemällä unionin virallisella kielellä, johon ilmoitettu laitos on sijoittautunut, tai ilmoitetun laitoksen muutoin hyväksymällä unionin virallisella kielellä.
2.Todistusten on oltava voimassa niissä ilmoitetun ajanjakson ajan, joka saa olla enintään viisi vuotta. Tarjoajan hakemuksesta todistuksen voimassaoloa voidaan jatkaa uusilla, enintään viiden vuoden pituisilla jaksoilla uudelleenarvioinnin perusteella, joka suoritetaan sovellettavien vaatimustenmukaisuuden arviointimenettelyjen mukaisesti.
3.Jos ilmoitettu laitos toteaa, ettei suuririskinen tekoälyjärjestelmä enää täytä tämän osaston 2 luvussa vahvistettuja vaatimuksia, sen on suhteellisuusperiaate huomioon ottaen peruutettava todistus määräaikaisesti tai kokonaan tai asetettava sille rajoituksia, jollei kyseisten vaatimusten noudattamista ole varmistettu siten, että tarjoaja toteuttaa asianmukaiset korjaavat toimenpiteet ilmoitetun laitoksen asettamassa asianmukaisessa määräajassa. Ilmoitetun laitoksen on perusteltava päätöksensä.
45 artikla
Muutoksenhaku ilmoitettujen laitosten päätöksiin
Jäsenvaltioiden on varmistettava, että ilmoitettujen laitosten päätöksiä koskeva muutoksenhakumenettely on niiden osapuolten käytettävissä, joiden oikeutettua etua päätös koskee.
46 artikla
Ilmoitettujen laitosten tiedotusvelvollisuudet
1.Ilmoitettujen laitosten on tiedotettava ilmoittamisesta vastaavalle viranomaiselle seuraavista:
(a)liitteen VII mukaisesti annetut unionin teknisen dokumentaation arviointitodistukset, näiden todistusten täydennykset ja laatujärjestelmän hyväksynnät;
(b)liitteen VII vaatimusten mukaisesti myönnetyn unionin teknisen dokumentaation arviointitodistuksen tai laatujärjestelmän hyväksynnän epääminen, rajoittaminen tai peruuttaminen toistaiseksi tai kokonaan;
(c)olosuhteet, jotka vaikuttavat ilmoituksen soveltamisalaan tai ehtoihin;
(d)vaatimustenmukaisuuden arviointitoimia koskevat tietopyynnöt, jotka ne ovat saaneet markkinavalvontaviranomaisilta;
(e)pyynnöstä vaatimustenmukaisuuden arviointitoimet, jotka on suoritettu niitä koskevan ilmoituksen puitteissa, ja mahdollisesti suoritetut muut toimet, mukaan luettuna rajat ylittävät toimet ja alihankinta.
2.Kunkin ilmoitetun laitoksen on ilmoitettava muille ilmoitetuille laitoksille
(a)laatujärjestelmien hyväksynnät, jotka se on evännyt tai peruuttanut toistaiseksi tai kokonaan, ja pyynnöstä laatujärjestelmien hyväksynnät, jotka se on myöntänyt;
(b)EU:n teknisen dokumentaation arviointitodistukset tai niiden lisäykset, jotka se on evännyt tai peruuttanut toistaiseksi tai joita se on muutoin rajoittanut, sekä pyynnöstä antamansa todistukset ja/tai niiden lisäykset.
3.Kunkin ilmoitetun laitoksen on toimitettava muille ilmoitetuille laitoksille, jotka suorittavat samanlaisia, samat tekoälyteknologiat kattavia vaatimustenmukaisuuden arviointitoimia, asiaankuuluvat tiedot seikoista, jotka liittyvät vaatimustenmukaisuuden arvioinnin kielteisiin tuloksiin ja pyynnöstä myös myönteisiin tuloksiin.
47 artikla
Poikkeus vaatimustenmukaisuuden arviointimenettelystä
1.Poiketen siitä, mitä 43 artiklassa säädetään, mikä tahansa markkinavalvontaviranomainen voi antaa luvan tiettyjen suuririskisten tekoälyjärjestelmien markkinoille saattamiseen tai käyttöönottoon asianomaisen jäsenvaltion alueella poikkeuksellisista yleiseen turvallisuuteen tai ihmisten elämän ja terveyden suojeluun, ympäristönsuojeluun sekä keskeisten teollisten resurssien ja infrastruktuurien suojaamiseen liittyvistä syistä. Lupa on voimassa tarvittavien vaatimustenmukaisuuden arviointimenettelyjen suorittamisen ajan, ja sen voimassaolo päättyy, kun kyseiset menettelyt on saatettu päätökseen. Nämä menettelyt on saatettava päätökseen ilman aiheetonta viivytystä.
2.Edellä 1 kohdassa tarkoitettu lupa voidaan myöntää ainoastaan, jos markkinavalvontaviranomainen toteaa, että suuririskinen tekoälyjärjestelmä täyttää tämän osaston 2 luvun vaatimukset. Markkinavalvontaviranomaisen on ilmoitettava komissiolle ja muille jäsenvaltioille 1 kohdan mukaisesti annetuista luvista.
3.Jos mikään jäsenvaltio tai komissio ei ole 15 kalenteripäivän kuluessa 2 kohdassa tarkoitetun ilmoituksen vastaanottamisesta esittänyt vastalausetta jäsenvaltion markkinavalvontaviranomaisen 1 kohdan mukaisesti antamasta luvasta, luvan katsotaan olevan perusteltu.
4.Jos 15 kalenteripäivän kuluessa 2 kohdassa tarkoitetun ilmoituksen vastaanottamisesta jokin jäsenvaltio esittää vastalauseita toisen jäsenvaltion markkinavalvontaviranomaisen antamasta luvasta tai jos komissio katsoo, että lupa on unionin lainsäädännön vastainen tai että 2 kohdassa tarkoitettu järjestelmän vaatimustenmukaisuutta koskeva jäsenvaltioiden päätelmä on perusteeton, komissio aloittaa viipymättä asianomaisen jäsenvaltion kuulemisen; asianomaisia toimijoita on kuultava, ja niillä on oltava mahdollisuus esittää näkemyksensä. Komissio päättää kuulemisten perusteella, onko lupa perusteltu vai ei. Komissio osoittaa päätöksensä asianomaiselle jäsenvaltiolle sekä asianomaisille toimijoille.
5.Jos lupa katsotaan perusteettomaksi, asianomaisen jäsenvaltion markkinavalvontaviranomaisen on peruutettava se.
6.Poiketen siitä, mitä 1–5 kohdassa säädetään, suuririskisiin tekoälyjärjestelmiin, jotka on tarkoitettu käytettäviksi asetuksen (EU) 2017/745 ja asetuksen (EU) 2017/746 soveltamisalaan kuuluvien laitteiden turvakomponentteina tai jotka itse ovat laitteita, sovelletaan asetuksen (EU) 2017/745 59 artiklaa ja asetuksen (EU) 2017/746 54 artiklaa myös tämän osaston 2 luvussa vahvistettujen vaatimusten mukaisuuden arviointia koskevan poikkeuksen osalta.
48 artikla
EU-vaatimustenmukaisuusvakuutus
1.Tarjoajan on laadittava kirjallinen EU-vaatimustenmukaisuusvakuutus kullekin tekoälyjärjestelmälle ja pidettävä se kansallisten toimivaltaisten viranomaisten saatavilla kymmenen vuoden ajan sen jälkeen, kun tekoälyjärjestelmä on saatettu markkinoille tai otettu käyttöön. EU-vaatimustenmukaisuusvakuutuksessa on yksilöitävä tekoälyjärjestelmä, jota varten se on laadittu. Jäljennös EU-vaatimustenmukaisuusvakuutuksesta on pyynnöstä annettava asiaankuuluville kansallisille toimivaltaisille viranomaisille.
2.EU-vaatimustenmukaisuusvakuutuksessa on ilmoitettava, että kyseinen suuririskinen tekoälyjärjestelmä täyttää tämän osaston 2 luvussa vahvistetut vaatimukset. EU-vaatimustenmukaisuusvakuutuksen on sisällettävä liitteessä V esitetyt tiedot, ja se on käännettävä jollekin sen jäsenvaltion edellyttämälle unionin viralliselle kielelle tai virallisille kielille, jossa suuririskinen tekoälyjärjestelmä asetetaan saataville.
3.Jos suuririskisiin tekoälyjärjestelmiin sovelletaan muuta unionin yhdenmukaistamislainsäädäntöä, jossa myös edellytetään EU-vaatimustenmukaisuusvakuutusta, kaikkien suuririskiseen tekoälyjärjestelmään sovellettavien unionin säädösten osalta on laadittava yksi ainoa EU-vaatimustenmukaisuusvakuutus. Kyseisen vaatimustenmukaisuusvakuutuksen on sisällettävä kaikki tiedot, jotka vaaditaan sen unionin yhdenmukaistamislainsäädännön määrittämiseksi, johon kyseinen vaatimustenmukaisuusvakuutus liittyy.
4.Laatimalla EU-vaatimustenmukaisuusvakuutuksen tarjoaja ottaa vastuun tämän osaston 2 luvussa vahvistettujen vaatimusten noudattamisesta. Tarjoajan on pidettävä EU-vaatimustenmukaisuusvakuutus tarvittaessa ajan tasalla.
5.Siirretään komissiolle valta antaa delegoituja säädöksiä 73 artiklan mukaisesti liitteessä V vahvistetun EU-vaatimustenmukaisuusvakuutuksen sisällön päivittämiseksi, jotta siihen voidaan lisätä osatekijöitä, jotka ovat tarpeen tekniikan kehityksen huomioon ottamiseksi.
49 artikla
CE-vaatimustenmukaisuusmerkintä
1.CE-merkintä on kiinnitettävä suuririskisiin tekoälyjärjestelmiin näkyvästi, helposti luettavasti ja pysyvästi. Jos tämä ei ole suuririskisen tekoälyjärjestelmän luonteen vuoksi mahdollista tai perusteltua, merkintä on kiinnitettävä pakkaukseen ja tarvittaessa mukana seuraavaan dokumentaatioon.
2.Tämän artiklan 1 kohdassa tarkoitettuun CE-merkintään sovelletaan asetuksen (EY) N:o 765/2008 30 artiklassa säädettyjä yleisiä periaatteita.
3.CE-merkinnän yhteyteen on tarvittaessa liitettävä 43 artiklassa säädetyistä vaatimustenmukaisuusmenettelyistä vastuussa olevan ilmoitetun laitoksen tunnusnumero. Tunnusnumero on ilmoitettava myös kaikessa markkinointimateriaalissa, jossa mainitaan suuririskisen tekoälyjärjestelmän täyttävän CE-merkintää koskevat vaatimukset.
50 artikla
Asiakirjojen säilyttäminen
Tarjoajan on pidettävä seuraavat asiakirjat kansallisten toimivaltaisten viranomaisten saatavilla kymmenen vuoden ajan sen jälkeen, kun tekoälyjärjestelmä on saatettu markkinoille tai otettu käyttöön:
(a)11 artiklassa tarkoitettu tekninen dokumentaatio,
(b)17 artiklassa tarkoitettu laatujärjestelmää koskeva dokumentaatio,
(c)tarvittaessa ilmoitettujen laitosten hyväksymiä muutoksia koskeva dokumentaatio,
(d)tarvittaessa ilmoitettujen laitosten tekemät päätökset ja niiden antamat muut asiakirjat,
(e)48 artiklassa tarkoitettu EU-vaatimustenmukaisuusvakuutus.
51 artikla
Rekisteröinti
Ennen 6 artiklan 2 kohdassa tarkoitetun suuririskisen tekoälyjärjestelmän markkinoille saattamista tai käyttöönottoa tarjoajan tai tarvittaessa valtuutetun edustajan on rekisteröitävä se 60 artiklassa tarkoitettuun EU:n tietokantaan.
IV OSASTO
TIETTYJÄ TEKOÄLYJÄRJESTELMIÄ KOSKEVAT LÄPINÄKYVYYSVELVOITTEET
52 artikla
Tiettyjä tekoälyjärjestelmiä koskevat läpinäkyvyysvelvoitteet
1.Tarjoajien on varmistettava, että luonnollisten henkilöiden kanssa vuorovaikutukseen tarkoitetut tekoälyjärjestelmät suunnitellaan ja toteutetaan siten, että luonnollisille henkilöille ilmoitetaan, että he ovat vuorovaikutuksessa tekoälyjärjestelmän kanssa, paitsi jos tämä on olosuhteiden ja käyttöyhteyden perusteella ilmeistä. Tätä velvoitetta ei sovelleta tekoälyjärjestelmiin, joita on lain mukaan sallittua käyttää rikosten paljastamiseen, estämiseen ja tutkimiseen ja rikoksiin liittyviin syytetoimiin, paitsi jos kyseiset järjestelmät ovat julkisesti saatavilla rikosilmoitusten tekemistä varten.
2.Tunteentunnistusjärjestelmän tai biometrisen luokitusjärjestelmän käyttäjien on ilmoitettava järjestelmän toiminnasta niille luonnollisille henkilöille, jotka altistuvat järjestelmälle. Tätä velvoitetta ei sovelleta biometriseen luokitteluun käytettyihin tekoälyjärjestelmiin, joita on lain mukaan luvallista käyttää rikosten paljastamiseen, estämiseen ja tutkimiseen.
3.Sellaisen tekoälyjärjestelmän käyttäjien, joka tuottaa tai manipuloi kuva-, ääni- tai videosisältöä, joka selvästi muistuttaa olemassa olevia henkilöitä, esineitä, paikkoja tai muita objekteja tai tapahtumia ja joka voi ihmisestä vaikuttaa virheellisesti aidolta tai totuudenmukaiselta (’syväväärennös’), on ilmoitettava, että sisältö on keinotekoisesti tuotettu tai manipuloitu.
Ensimmäistä alakohtaa ei kuitenkaan sovelleta, jos käyttö on lain mukaan sallittua rikosten paljastamiseksi, estämiseksi ja tutkimiseksi ja rikoksia koskevissa syytetoimissa tai jos se on tarpeen EU:n perusoikeuskirjassa taattua sananvapautta ja taiteen ja tieteen vapautta koskevan oikeuden käyttämiseksi ja edellyttäen, että toteutetaan kolmansien osapuolten oikeuksia ja vapauksia koskevat asianmukaiset suojatoimet.
4.Tämän artiklan 1, 2 ja 3 kohta eivät vaikuta tämän asetuksen III osastossa säädettyihin vaatimuksiin ja velvollisuuksiin.
V OSASTO
INNOVOINTIA TUKEVAT TOIMENPITEET
53 artikla
Tekoälyn sääntelyn testiympäristöt
1.Yhden tai useamman jäsenvaltion toimivaltaisten viranomaisten tai Euroopan tietosuojavaltuutetun perustamien tekoälyn sääntelyn testiympäristöjen on tarjottava valvottu ympäristö, joka helpottaa innovatiivisten tekoälyjärjestelmien kehittämistä, testausta ja validointia rajoitetun ajan ennen kuin ne saatetaan markkinoille tai otetaan käyttöön tietyn suunnitelman mukaisesti. Tämän on tapahduttava toimivaltaisten viranomaisten suorassa valvonnassa ja ohjauksessa, jotta voidaan varmistaa tämän asetuksen ja tarvittaessa muun testiympäristössä valvotun unionin ja jäsenvaltioiden lainsäädännön noudattaminen.
2.Jäsenvaltioiden on varmistettava, että siltä osin kuin innovatiivisiin tekoälyjärjestelmiin liittyy henkilötietojen käsittelyä tai ne muutoin kuuluvat muiden dataan pääsyä tarjoavien tai sitä tukevien kansallisten viranomaisten tai toimivaltaisten viranomaisten valvonnan piiriin, kansalliset tietosuojaviranomaiset ja kyseiset muut kansalliset viranomaiset ovat mukana tekoälyn sääntelyn testiympäristön toiminnassa.
3.Tekoälyn sääntelyn testiympäristöt eivät saa vaikuttaa toimivaltaisten viranomaisten valvonta- ja korjaaviin valtuuksiin. Tällaisten järjestelmien kehittämisen ja testauksen aikana havaittuja terveyteen ja turvallisuuteen sekä perusoikeuksiin kohdistuvia merkittäviä riskejä on vähennettävä välittömästi, ja jos tämä ei onnistu, kehittämis- ja testausprosessi on keskeytettävä, kunnes riskejä voidaan vähentää.
4.Tekoälyn sääntelyn testiympäristöön osallistujat ovat sovellettavan unionin ja jäsenvaltioiden vastuulainsäädännön nojalla edelleen vastuussa vahingoista, joita kolmansille osapuolille mahdollisesti aiheutuu testiympäristössä suoritettavien kokeiden seurauksena.
5.Jäsenvaltioiden toimivaltaisten viranomaisten, jotka ovat perustaneet tekoälyn sääntelyn testiympäristöjä, on koordinoitava toimintaansa ja tehtävä yhteistyötä Euroopan tekoälyneuvoston puitteissa. Niiden on toimitettava tekoälyneuvostolle ja komissiolle vuosittain raportit näiden järjestelmien käytön tuloksista, mukaan lukien järjestelmien rakennetta koskevat hyvät käytännöt, saadut kokemukset ja suositukset, ja tarvittaessa tämän asetuksen ja muun testiympäristössä valvotun unionin lainsäädännön soveltamisesta.
6.Tekoälyn sääntelyn testiympäristöjen toimintaa koskevat yksityiskohtaiset säännöt ja edellytykset, mukaan lukien kelpoisuuskriteerit ja menettely testiympäristöön hakemista, valintaa ja osallistumista ja siitä poistumista varten, sekä osallistujien oikeudet ja velvollisuudet vahvistetaan täytäntöönpanosäädöksissä. Nämä täytäntöönpanosäädökset hyväksytään 74 artiklan 2 kohdassa tarkoitettua tarkastelumenettelyä noudattaen.
54 artikla
Henkilötietojen jatkokäsittely tiettyjen yleisen edun mukaisten tekoälyjärjestelmien kehittämiseksi tekoälyn sääntelyn testiympäristössä
1.Muihin tarkoituksiin laillisesti kerättyjä henkilötietoja voidaan käsitellä tekoälyn sääntelyn testiympäristössä tiettyjen innovatiivisten tekoälyjärjestelmien kehittämiseksi ja testaamiseksi seuraavin edellytyksin:
(a)innovatiivisia tekoälyjärjestelmiä kehitetään tärkeän yleisen edun turvaamiseksi yhdellä tai useammalla seuraavista aloista:
i)rikosten ennalta estäminen, tutkinta, paljastaminen tai rikoksiin liittyvät syytetoimet taikka rikosoikeudellisten seuraamusten täytäntöönpano, mukaan lukien yleiseen turvallisuuteen kohdistuvilta uhkilta suojelu tai tällaisten uhkien ehkäisy, toimivaltaisten viranomaisten valvonnassa ja vastuulla. Käsittelyn on perustuttava jäsenvaltion tai unionin lainsäädäntöön;
ii)yleinen turvallisuus ja kansanterveys, mukaan lukien tautien ehkäisy, torjunta ja hoito;
iii)korkeatasoinen ympäristönsuojelu ja ympäristön laadun parantaminen;
(b)käsiteltävät tiedot ovat tarpeen yhden tai useamman III osaston 2 luvussa tarkoitetun vaatimuksen täyttämiseksi, jos kyseisiä vaatimuksia ei voida tehokkaasti täyttää käsittelemällä anonymisoituja tai synteettisiä tietoja tai muita tietoja, jotka eivät ole henkilötietoja;
(c)käytössä on tehokkaat seurantamekanismit, joiden avulla voidaan havaita, voiko testiympäristössä tehtävien kokeiden aikana syntyä rekisteröityjen perusoikeuksiin kohdistuvia suuria riskejä, sekä mekanismi, jolla näitä riskejä voidaan vähentää nopeasti ja tarvittaessa lopettaa käsittely;
(d)kaikki testiympäristössä käsiteltävät henkilötiedot ovat toiminnallisesti erillisessä, itsenäisessä ja suojatussa tietojenkäsittely-ympäristössä osallistujien valvonnassa, ja ainoastaan valtuutetuilla henkilöillä on pääsy kyseisiin tietoihin;
(e)käsiteltyjä henkilötietoja ei välitetä, siirretä tai muutoin saateta muiden osapuolten saataville;
(f)testiympäristössä tapahtuva henkilötietojen käsittely ei saa johtaa rekisteröityihin vaikuttaviin toimenpiteisiin tai päätöksiin;
(g)kaikki testiympäristössä käsitellyt henkilötiedot poistetaan, kun osallistuminen testiympäristöön on päättynyt tai henkilötietojen säilytysaika päättyy;
(h)testiympäristössä tapahtuvaa henkilötietojen käsittelyä koskevat lokitiedot säilytetään testiympäristöön osallistumisen ajan ja yhden vuoden ajan osallistumisen päättymisen jälkeen, yksinomaan ja ainoastaan niin kauan kuin se on tarpeen tämän artiklan tai muun sovellettavan unionin tai jäsenvaltioiden lainsäädännön mukaisten vastuuvelvollisuutta ja dokumentointia koskevien velvoitteiden täyttämiseksi;
(i)täydellinen ja yksityiskohtainen kuvaus tekoälyjärjestelmän koulutus-, testaus- ja validointiprosessista ja -perusteista säilytetään yhdessä testaustulosten kanssa osana liitteen IV mukaista teknistä dokumentaatiota;
(j)lyhyt tiivistelmä testiympäristössä kehitetystä tekoälyhankkeesta, sen tavoitteista ja odotetuista tuloksista julkaistaan toimivaltaisten viranomaisten verkkosivustolla.
2.Tämän artiklan 1 kohta ei rajoita sellaisen unionin tai jäsenvaltioiden lainsäädännön soveltamista, jolla suljetaan pois käsittely muita kuin kyseisessä lainsäädännössä nimenomaisesti mainittuja tarkoituksia varten.
55 artikla
Pieniä tarjoajia ja käyttäjiä koskevat toimenpiteet
1.Jäsenvaltioiden on
(a)annettava pienille tarjoajille ja startup-yrityksille ensisijainen pääsy tekoälyn sääntelyn testiympäristöihin, jos ne täyttävät kelpoisuusehdot;
(b)järjestettävä tämän asetuksen soveltamista koskevia erityisiä tiedotustoimia, jotka on räätälöity pienten tarjoajien ja käyttäjien tarpeisiin;
(c)perustettava tarvittaessa erityinen viestintäkanava pieniä tarjoajia ja käyttäjiä ja muita innovoijia varten tämän asetuksen täytäntöönpanoa koskevan ohjeistuksen antamiseksi ja sitä koskeviin kysymyksiin vastaamiseksi.
2.Pienten tarjoajien erityisedut ja -tarpeet on otettava huomioon 43 artiklan mukaisesta vaatimustenmukaisuuden arvioinnista perittäviä maksuja vahvistettaessa alentamalla näitä maksuja suhteessa tarjoajien kokoon ja markkinoiden kokoon.
VI OSASTO
HALLINNOINTI
1 luku
Euroopan tekoälyneuvosto
56 artikla
Euroopan tekoälyneuvoston perustaminen
1.Perustetaan Euroopan tekoälyneuvosto, jäljempänä ’tekoälyneuvosto’.
2.Tekoälyneuvosto neuvoo ja avustaa komissiota
(a)edistääkseen kansallisten valvontaviranomaisten ja komission tehokasta yhteistyötä tämän asetuksen soveltamisalaan kuuluvissa asioissa;
(b)koordinoidakseen ja edistääkseen komission, kansallisten valvontaviranomaisten ja muiden toimivaltaisten viranomaisten antamaa ohjeistusta ja analyyseja sisämarkkinoilla esiin nousevista kysymyksistä tämän asetuksen soveltamisalaan kuuluvissa asioissa;
(c)auttaakseen kansallisia valvontaviranomaisia ja komissiota tämän asetuksen johdonmukaisen soveltamisen varmistamisessa.
57 artikla
Tekoälyneuvoston rakenne
1.Tekoälyneuvoston muodostavat kansalliset valvontaviranomaiset, joita edustaa kyseisen viranomaisen johtaja tai vastaava korkean tason virkamies, sekä Euroopan tietosuojavaltuutettu. Kokouksiin voidaan kutsua myös muita kansallisia viranomaisia, jos käsitellyt asiat ovat niiden kannalta merkityksellisiä.
2.Tekoälyneuvosto hyväksyy työjärjestyksensä komission hyväksynnän saatuaan jäsentensä yksinkertaisella enemmistöllä. Työjärjestys sisältää myös 58 artiklassa lueteltujen tekoälyneuvoston tehtävien suorittamiseen liittyvät operatiiviset näkökohdat. Tekoälyneuvosto voi tarvittaessa perustaa alaryhmiä tiettyjen kysymysten tarkastelua varten.
3.Tekoälyneuvoston puheenjohtajana toimii komissio. Komissio kutsuu kokoukset koolle ja laatii esityslistan tämän asetuksen mukaisten tekoälyneuvoston tehtävien ja sen työjärjestyksen mukaisesti. Komissio antaa hallinnollista ja analyyttistä tukea tämän asetuksen mukaiselle tekoälyneuvoston toiminnalle.
4.Tekoälyneuvosto voi kutsua ulkopuolisia asiantuntijoita ja tarkkailijoita kokouksiinsa ja käydä keskusteluja asianomaisten kolmansien osapuolten kanssa oman toimintansa tueksi asianmukaisessa laajuudessa. Tätä varten komissio voi helpottaa tiedonvaihtoa tekoälyneuvoston ja muiden unionin elinten, laitosten, virastojen ja neuvoa-antavien ryhmien välillä.
58 artikla
Tekoälyneuvoston tehtävät
Neuvoessaan ja avustaessaan komissiota 56 artiklan 2 kohdan mukaisesti tekoälyneuvoston tulee erityisesti
(a)kerätä ja jakaa asiantuntemusta ja parhaita käytäntöjä jäsenvaltioiden kesken;
(b)edistää yhdenmukaisia hallinnollisia käytäntöjä jäsenvaltioissa, myös 53 artiklassa tarkoitettujen sääntelyn testiympäristöjen toiminnan osalta;
(c)antaa lausuntoja, suosituksia tai kirjallisia kannanottoja tämän asetuksen täytäntöönpanoon liittyvistä kysymyksistä, erityisesti
i)III osaston 2 luvussa vahvistettuja vaatimuksia koskevista teknisistä eritelmistä tai olemassa olevista standardeista,
ii)40 ja 41 artiklassa tarkoitettujen yhdenmukaistettujen standardien tai yhteisten eritelmien käytöstä,
iii)ohjeasiakirjojen laatimisesta, mukaan lukien 71 artiklassa tarkoitettujen hallinnollisten sakkojen määräämistä koskevat suuntaviivat.
2 LUKU
KANSALLISET TOIMIVALTAISET VIRANOMAISET
59 artikla
Kansallisten toimivaltaisten viranomaisten nimeäminen
1.Kunkin jäsenvaltion on perustettava tai nimettävä kansalliset toimivaltaiset viranomaiset tämän asetuksen soveltamisen ja täytäntöönpanon varmistamiseksi. Kansallisten toimivaltaisten viranomaisten on oltava organisaatioltaan sellaisia, että niiden toimien ja tehtävien objektiivisuus ja puolueettomuus on turvattu.
2.Kunkin jäsenvaltion on nimettävä kansallisten toimivaltaisten viranomaisten joukosta kansallinen valvontaviranomainen. Kansallisen valvontaviranomaisen on toimittava ilmoittamisesta vastaavana viranomaisena ja markkinavalvontaviranomaisena, paitsi jos jäsenvaltiolla on organisatorisia ja hallinnollisia syitä nimetä useampi kuin yksi viranomainen.
3.Jäsenvaltioiden on ilmoitettava nimeämisestä tai nimeämisistä komissiolle sekä tarvittaessa syyt useamman kuin yhden viranomaisen nimeämiselle.
4.Jäsenvaltioiden on varmistettava, että kansallisille toimivaltaisille viranomaisille annetaan riittävät taloudelliset ja henkilöstöresurssit, jotta ne voivat hoitaa tämän asetuksen mukaiset tehtävänsä. Kansallisilla toimivaltaisilla viranomaisilla on erityisesti oltava pysyvästi käytettävissään riittävä määrä henkilöstöä, jonka pätevyyteen ja asiantuntemukseen sisältyy tekoälyteknologioiden, datan ja datalaskennan, perusoikeuksien ja terveys- ja turvallisuusriskien syvällinen ymmärtäminen sekä voimassa olevien standardien ja oikeudellisten vaatimusten tuntemus.
5.Jäsenvaltioiden on raportoitava komissiolle vuosittain kansallisten toimivaltaisten viranomaisten taloudellisten ja henkilöresurssien tilasta ja arvioitava niiden riittävyyttä. Komissio toimittaa nämä tiedot tekoälyneuvostolle keskustelua ja mahdollisia suosituksia varten.
6.Komissio helpottaa kokemusten vaihtoa kansallisten toimivaltaisten viranomaisten välillä.
7.Kansalliset toimivaltaiset viranomaiset voivat antaa ohjeita ja neuvoja tämän asetuksen täytäntöönpanosta, myös pienille tarjoajille. Kun kansalliset toimivaltaiset viranomaiset aikovat antaa tekoälyjärjestelmää koskevia ohjeita ja neuvoja muun unionin lainsäädännön kattamilla aloilla, kyseisen unionin lainsäädännön nojalla toimivaltaisia kansallisia viranomaisia on tarvittaessa kuultava. Jäsenvaltiot voivat myös perustaa yhden keskitetyn yhteyspisteen toimijoiden kanssa käytävää yhteydenpitoa varten.
8.Kun unionin toimielimet, virastot ja elimet kuuluvat tämän asetuksen soveltamisalaan, Euroopan tietosuojavaltuutettu toimii niiden valvonnasta vastaavana toimivaltaisena viranomaisena.
VII OSASTO
ERILLISIÄ SUURIRISKISIÄ TEKOÄLYJÄRJESTELMIÄ KOSKEVA EU:N TIETOKANTA
60 artikla
Erillisiä suuririskisiä tekoälyjärjestelmiä koskeva EU:n tietokanta
1.Komissio perustaa yhteistyössä jäsenvaltioiden kanssa EU:n tietokannan, joka sisältää 2 kohdassa tarkoitetut tiedot 6 artiklan 2 kohdassa tarkoitetuista suuririskisistä tekoälyjärjestelmistä, jotka on rekisteröity 51 artiklan mukaisesti, ja pitää sitä yllä.
2.Tarjoajien on tallennettava tietokantaan liitteessä VIII luetellut tiedot. Komissio antaa niille teknistä ja hallinnollista tukea.
3.EU:n tietokannan sisältämien tietojen on oltava yleisön saatavilla.
4.EU:n tietokannassa saa olla henkilötietoja vain siinä määrin kuin se on tarpeen tämän asetuksen mukaista tietojen keräämistä ja käsittelyä varten. Näihin tietoihin on sisällyttävä niiden luonnollisten henkilöiden nimet ja yhteystiedot, jotka ovat vastuussa järjestelmän rekisteröinnistä ja joilla on laillinen oikeus edustaa tarjoajaa.
5.Komissio on EU:n tietokannan rekisterinpitäjä. Se varmistaa myös riittävän teknisen ja hallinnollisen tuen tarjoajille.
VIII OSASTO
MARKKINOILLE SAATTAMISEN JÄLKEINEN SEURANTA, TIETOJEN JAKAMINEN, MARKKINAVALVONTA
1 luku
MARKKINOILLE SAATTAMISEN JÄLKEINEN SEURANTA
61 artikla
Tarjoajien toteuttama markkinoille saattamisen jälkeinen seuranta ja suuririskisten tekoälyjärjestelmien markkinoille saattamisen jälkeinen seurantasuunnitelma
1.Tarjoajien on perustettava ja dokumentoitava markkinoille saattamisen jälkeinen seurantajärjestelmä tavalla, joka on oikeassa suhteessa tekoälyteknologioiden luonteeseen ja suuririskisen tekoälyjärjestelmän aiheuttamiin riskeihin nähden.
2.Markkinoille saattamisen jälkeisessä seurantajärjestelmässä on aktiivisesti ja järjestelmällisesti kerättävä, dokumentoitava ja analysoitava käyttäjien toimittamia tai muista lähteistä kerättyjä tietoja suuririskisten tekoälyjärjestelmien suorituskyvystä niiden koko elinkaaren ajan, ja sen on annettava tarjoajalle mahdollisuus arvioida, täyttävätkö tekoälyjärjestelmät jatkuvasti III osaston 2 luvussa vahvistetut vaatimukset.
3.Markkinoille saattamisen jälkeisen seurantajärjestelmän on perustuttava markkinoille saattamisen jälkeistä seurantaa koskevaan suunnitelmaan. Markkinoille saattamisen jälkeistä seurantaa koskevan suunnitelman on oltava osa liitteessä IV tarkoitettua teknistä dokumentaatiota. Komissio hyväksyy täytäntöönpanosäädöksen, jossa vahvistetaan yksityiskohtaiset säännökset markkinoille saattamisen jälkeistä seurantaa koskevan suunnitelman mallista ja suunnitelmaan sisällytettävistä tiedoista.
4.Jos liitteessä II tarkoitettujen säädösten soveltamisalaan kuuluvien suuririskisten tekoälyjärjestelmien osalta on jo otettu käyttöön markkinoille saattamisen jälkeinen seurantajärjestelmä ja -suunnitelma kyseisen lainsäädännön nojalla, 1, 2 ja 3 kohdassa kuvatut osatekijät on tarvittaessa sisällytettävä kyseiseen järjestelmään ja suunnitelmaan.
Ensimmäistä alakohtaa sovelletaan myös sellaisiin liitteessä III olevan 5 kohdan b alakohdassa tarkoitettuihin suuririskisiin tekoälyjärjestelmiin, joita ovat saattaneet markkinoille tai ottaneet käyttöön direktiivillä 2013/36/EU säännellyt luottolaitokset.
2 luku
VAARATILANTEITA JA TOIMINTAHÄIRIÖITÄ KOSKEVIEN TIETOJEN JAKAMINEN
62 artikla
Vakavista vaaratilanteista ja toimintahäiriöistä ilmoittaminen
1.Unionin markkinoille saatettujen suuririskisten tekoälyjärjestelmien tarjoajien on ilmoitettava kaikista kyseisten järjestelmien vakavista vaaratilanteista tai kaikista toimintahäiriöistä, jotka rikkovat perusoikeuksien suojaamiseen tarkoitetun unionin lainsäädännön mukaisia velvoitteita, niiden jäsenvaltioiden markkinavalvontaviranomaisille, joissa kyseinen vaaratilanne tai rikkominen tapahtui.
Tällainen ilmoitus on tehtävä välittömästi sen jälkeen, kun tarjoaja on todennut syy-yhteyden tekoälyjärjestelmän ja vaaratilanteen tai toimintahäiriön välillä tai tällaisen yhteyden kohtuullisen todennäköisyyden, ja joka tapauksessa viimeistään 15 päivän kuluttua siitä, kun vakava vaaratilanne tai toimintahäiriö on tullut tarjoajan tietoon.
2.Saatuaan ilmoituksen perusoikeuksien suojaamiseen tarkoitetun unionin lainsäädännön mukaisten velvoitteiden rikkomisesta markkinavalvontaviranomaisen on ilmoitettava asiasta 64 artiklan 3 kohdassa tarkoitetuille kansallisille viranomaisille tai elimille. Komissio laatii erityiset ohjeet, joilla helpotetaan 1 kohdassa säädettyjen velvoitteiden noudattamista. Ohjeet on annettava viimeistään 12 kuukauden kuluttua tämän asetuksen voimaantulosta.
3.Sellaisten liitteessä III olevan 5 kohdan b alakohdassa tarkoitettujen suuririskisten tekoälyjärjestelmien osalta, joita saattavat markkinoille tai ottavat käyttöön tarjoajat, jotka ovat direktiivillä 2013/36/EU säänneltyjä luottolaitoksia, sekä sellaisten suuririskisten tekoälyjärjestelmien osalta, jotka ovat asetuksen (EU) 2017/745 ja asetuksen (EU) 2017/746 soveltamisalaan kuuluvien laitteiden turvakomponentteina tai jotka itse ovat laitteita, vakavista vaaratilanteista tai toimintahäiriöistä ilmoittaminen on rajoitettava tapauksiin, jotka merkitsevät perusoikeuksien suojaamiseen tarkoitetun unionin lainsäädännön mukaisten velvoitteiden rikkomista.
3 luku
TÄYTÄNTÖÖNPANON VALVONTA
63 artikla
Markkinavalvonta ja tekoälyjärjestelmille unionin markkinoilla tehtävät tarkastukset
1.Tämän asetuksen soveltamisalaan kuuluviin tekoälyjärjestelmiin sovelletaan asetusta (EU) 2019/1020. Tämän asetuksen tehokkaan täytäntöönpanon varmistamiseksi kuitenkin
(a)asetuksessa (EU) 2019/1020 olevien viittausten talouden toimijaan on katsottava koskevan myös kaikkia tämän asetuksen III osaston 3 luvussa yksilöityjä toimijoita;
(b)asetuksessa (EU) 2019/1020 olevien viittausten tuotteeseen on katsottava koskevan myös kaikkia tämän asetuksen soveltamisalaan kuuluvia tekoälyjärjestelmiä.
2.Kansallisen valvontaviranomaisen on raportoitava säännöllisesti komissiolle asiaankuuluvien markkinavalvontatoimien tuloksista. Kansallisen valvontaviranomaisen on ilmoitettava viipymättä komissiolle ja asianomaisille kansallisille kilpailuviranomaisille kaikki markkinavalvontatoimien yhteydessä esiin tulleet tiedot, joilla voi olla merkitystä unionin kilpailulainsäädännön soveltamisen kannalta.
3.Sellaisten suuririskisten tekoälyjärjestelmien osalta, jotka liittyvät tuotteisiin, joihin sovelletaan liitteessä II olevassa A jaksossa lueteltuja säädöksiä, markkinavalvontaviranomainen on tätä asetusta sovellettaessa kyseisten säädösten nojalla nimetty markkinavalvontatoimista vastaava viranomainen.
4.Sellaisten tekoälyjärjestelmien osalta, joita saattavat markkinoille, ottavat käyttöön tai käyttävät rahoituspalveluja koskevalla unionin lainsäädännöllä säännellyt rahoituslaitokset, markkinavalvontaviranomainen on tätä asetusta sovellettaessa asiaankuuluva viranomainen, joka vastaa näiden laitosten rahoitusvalvonnasta kyseisen lainsäädännön nojalla.
5.Sellaisten tekoälyjärjestelmien osalta, jotka on lueteltu liitteessä III olevan 1 kohdan a alakohdassa, siltä osin kuin näitä järjestelmiä käytetään lainvalvontatarkoituksessa, sekä 6 ja 7 kohdassa, jäsenvaltioiden on nimettävä tämän asetuksen soveltamiseksi markkinavalvontaviranomaisiksi joko direktiivin (EU) 2016/680 tai asetuksen 2016/679 mukaiset toimivaltaiset tietosuojavalvontaviranomaiset tai kansalliset toimivaltaiset viranomaiset, jotka valvovat kyseisiä järjestelmiä käyttöön ottavien tai käyttävien lainvalvonta-, maahanmuutto- tai turvapaikkaviranomaisten toimintaa.
6.Kun unionin toimielimet, virastot ja elimet kuuluvat tämän asetuksen soveltamisalaan, Euroopan tietosuojavaltuutettu toimii niiden markkinavalvontaviranomaisena.
7.Jäsenvaltioiden on helpotettava koordinointia tämän asetuksen nojalla nimettyjen markkinavalvontaviranomaisten ja muiden sellaisten asiaankuuluvien kansallisten viranomaisten tai elinten välillä, jotka valvovat liitteessä II luetellun unionin yhdenmukaistamislainsäädännön tai muun sellaisen unionin lainsäädännön soveltamista, jolla saattaa olla merkitystä liitteessä III tarkoitettujen suuririskisten tekoälyjärjestelmien kannalta.
64 artikla
Datan ja dokumentaation saatavuus
1.Markkinavalvontaviranomaisille on toimiensa yhteydessä annettava täysi pääsy dataan ja dokumentaatioon, kuten tarjoajan käyttämiin koulutus-, validointi- ja testausdatajoukkoihin, myös sovellusrajapintojen (API) tai muiden etäkäytön mahdollistavien asianmukaisten teknisten välineiden ja työkalujen kautta.
2.Markkinavalvontaviranomaisille on perustellusta pyynnöstä myönnettävä pääsy tekoälyjärjestelmän lähdekoodiin, jos se on tarpeen sen arvioimiseksi, onko suuririskinen tekoälyjärjestelmä III osaston 2 luvussa vahvistettujen vaatimusten mukainen.
3.Kansallisilla viranomaisilla tai elimillä, jotka valvovat tai panevat täytäntöön perusoikeuksien suojelua koskevan unionin lainsäädännön mukaisia velvoitteita liitteessä III tarkoitettujen suuririskisten tekoälyjärjestelmien käytön yhteydessä, on oltava valtuudet pyytää ja saada käyttöönsä tämän asetuksen nojalla luotu tai ylläpidetty dokumentaatio, kun se on tarpeen niiden toimivaltaan kuuluvien valtuuksien täyttämiseksi niiden lainkäyttöalueella. Asianomaisen viranomaisen tai elimen on ilmoitettava tällaisesta pyynnöstä asianomaisen jäsenvaltion markkinavalvontaviranomaiselle.
4.Kunkin jäsenvaltion on viimeistään kolmen kuukauden kuluttua tämän asetuksen voimaantulosta nimettävä 3 kohdassa tarkoitetut viranomaiset tai elimet ja asetettava niiden luettelo julkisesti saataville kansallisen valvontaviranomaisen verkkosivustolla. Jäsenvaltioiden on ilmoitettava luettelo komissiolle ja kaikille muille jäsenvaltioille ja pidettävä se ajan tasalla.
5.Jos 3 kohdassa tarkoitettu dokumentaatio ei riitä sen selvittämiseen, onko perusoikeuksien suojaamiseksi tarkoitetun unionin lainsäädännön mukaisia velvoitteita rikottu, 3 kohdassa tarkoitettu viranomainen tai elin voi esittää markkinavalvontaviranomaiselle perustellun pyynnön järjestää suuririskisen tekoälyjärjestelmän testaus teknisin keinoin. Markkinavalvontaviranomaisen on järjestettävä testaus pyynnön esittävän viranomaisen tai elimen tiiviillä myötävaikutuksella kohtuullisen ajan kuluessa pyynnön esittämisestä.
6.Kaikkea tietoa ja dokumentaatiota, jonka 3 kohdassa tarkoitetut kansalliset viranomaiset tai elimet saavat tämän artiklan säännösten mukaisesti, on käsiteltävä 70 artiklassa säädettyä salassapitovelvollisuutta noudattaen.
65 artikla
Menettely sellaisten tekoälyjärjestelmien käsittelemiseksi, jotka aiheuttavat riskin kansallisella tasolla
1.Riskin aiheuttavalla tekoälyjärjestelmällä tarkoitetaan tuotetta, joka aiheuttaa asetuksen (EU) 2019/1020 3 artiklan 19 alakohdassa määritellyn riskin, siltä osin kuin on kyse ihmisten terveyteen tai turvallisuuteen tai perusoikeuksien suojeluun kohdistuvista riskeistä.
2.Jos jäsenvaltion markkinavalvontaviranomaisella on riittävät perusteet katsoa, että tekoälyjärjestelmä aiheuttaa 1 kohdassa tarkoitetun riskin, sen on suoritettava arviointi siitä, täyttääkö kyseinen tekoälyjärjestelmä kaikki tässä asetuksessa säädetyt vaatimukset ja velvoitteet. Jos perusoikeuksien suojeluun liittyviä riskejä esiintyy, markkinavalvontaviranomaisen on ilmoitettava asiasta myös 64 artiklan 3 kohdassa tarkoitetuille asiaankuuluville kansallisille viranomaisille tai elimille. Asianomaisten toimijoiden on tehtävä tarvittaessa yhteistyötä markkinavalvontaviranomaisten ja muiden 64 artiklan 3 kohdassa tarkoitettujen kansallisten viranomaisten tai elinten kanssa.
Jos markkinavalvontaviranomainen toteaa arvioinnin yhteydessä, että tekoälyjärjestelmä ei täytä tässä asetuksessa säädettyjä vaatimuksia ja velvoitteita, sen on vaadittava viipymättä asianomaista toimijaa toteuttamaan kaikki asianmukaiset korjaavat toimenpiteet tekoälyjärjestelmän saattamiseksi vaatimusten mukaiseksi tai tekoälyjärjestelmän poistamiseksi markkinoilta tai sitä koskevan palautusmenettelyn järjestämiseksi sellaisen kohtuullisen ajanjakson kuluessa, joka on oikeassa suhteessa riskin luonteeseen ja jonka se asettaa.
Markkinavalvontaviranomaisten on ilmoitettava tästä asianomaiselle ilmoitetulle laitokselle. Toisessa alakohdassa tarkoitettuihin toimenpiteisiin sovelletaan asetuksen (EU) 2019/1020 18 artiklaa.
3.Kun markkinavalvontaviranomainen katsoo, että vaatimustenvastaisuus ei rajoitu sen kansalliselle alueelle, sen on ilmoitettava komissiolle ja muille jäsenvaltioille arvioinnin tuloksista ja toimenpiteistä, jotka se ovat vaatinut toimijaa toteuttamaan.
4.Toimijan on varmistettava, että kaikki asianmukaiset korjaavat toimenpiteet toteutetaan kaikkien asianomaisten tekoälyjärjestelmien osalta, jotka se on asettanut saataville markkinoilla unionin alueella.
5.Mikäli tekoälyjärjestelmään liittyvä toimija ei suorita riittäviä korjaavia toimenpiteitä 2 kohdassa tarkoitetun ajanjakson aikana, markkinavalvontaviranomaisen on toteutettava kaikki asianmukaiset väliaikaiset toimenpiteet, joilla kielletään tekoälyjärjestelmän asettaminen saataville kansallisilla markkinoilla tai rajoitetaan sitä, poistetaan tekoälyjärjestelmä markkinoilta tai järjestetään sitä koskeva palautusmenettely. Viranomaisen on viipymättä ilmoitettava komissiolle ja muille jäsenvaltioille näistä toimenpiteistä.
6.Edellä 5 kohdassa tarkoitettuun ilmoitukseen on sisällyttävä kaikki saatavilla olevat yksityiskohtaiset tiedot, erityisesti ne, jotka ovat tarpeen vaatimustenvastaisen tekoälyjärjestelmän tunnistamista ja tekoälyjärjestelmän alkuperän, siihen liittyvän väitetyn vaatimustenvastaisuuden ja riskin luonteen ja toteutettujen kansallisten toimenpiteiden luonteen ja keston määrittämistä varten, sekä asianomaisen toimijan esittämät perustelut. Markkinavalvontaviranomaisten on erityisesti ilmoitettava, johtuuko vaatimustenvastaisuus yhdestä tai useammasta seuraavista:
(a)tekoälyjärjestelmä ei täytä III osaston 2 luvussa vahvistettuja vaatimuksia;
(b)40 ja 41 artiklassa tarkoitetuissa vaatimustenmukaisuusolettaman luovissa yhdenmukaistetuissa standardeissa tai teknisissä eritelmissä on puutteita.
7.Muiden jäsenvaltioiden markkinavalvontaviranomaisten kuin menettelyn aloittaneen jäsenvaltion markkinavalvontaviranomaisen on viipymättä ilmoitettava komissiolle ja muille jäsenvaltioille kaikki toteutetut toimenpiteet ja kaikki niiden hallussa olevat lisätiedot, jotka liittyvät asianomaisen tekoälyjärjestelmän vaatimustenvastaisuuteen, sekä vastalauseensa siinä tapauksessa, että ilmoitetusta kansallisesta toimenpiteestä on erimielisyyttä.
8.Jos mikään jäsenvaltio tai komissio ei ole kolmen kuukauden kuluessa 5 kohdassa tarkoitetun ilmoituksen vastaanottamisesta esittänyt vastalausetta jonkin jäsenvaltion toteuttamaa väliaikaista toimenpidettä kohtaan, toimenpiteen katsotaan olevan perusteltu. Tämä ei rajoita asianomaisen toimijan asetuksen (EU) 2019/1020 18 artiklan mukaisia menettelyllisiä oikeuksia.
9.Kaikkien jäsenvaltioiden markkinavalvontaviranomaisten on varmistettava, että kyseistä tuotetta koskevat asianmukaiset rajoittavat toimenpiteet, kuten tuotteen vetäminen pois markkinoilta, toteutetaan viipymättä.
66 artikla
Unionin suojamenettely
1.Mikäli kolmen kuukauden kuluessa 65 artiklan 5 kohdassa tarkoitetun ilmoituksen vastaanottamisesta jokin jäsenvaltio esittää vastalauseen toisen jäsenvaltion toteuttamasta toimenpiteestä tai mikäli komissio pitää toimenpidettä unionin lainsäädännön vastaisena, komissio kuulee viipymättä asianomaista jäsenvaltiota ja toimijaa tai toimijoita ja arvioi kansallisen toimenpiteen. Komissio päättää arvioinnin tulosten perusteella, onko kansallinen toimenpide perusteltu, yhdeksän kuukauden kuluessa 65 artiklan 5 kohdassa tarkoitetusta ilmoituksesta, ja ilmoittaa tällaisesta päätöksestä asianomaiselle jäsenvaltiolle.
2.Jos kansallisen toimenpiteen katsotaan olevan perusteltu, kaikkien jäsenvaltioiden on toteutettava tarvittavat toimenpiteet sen varmistamiseksi, että vaatimustenvastainen tekoälyjärjestelmä vedetään pois markkinoilta, ja niiden on ilmoitettava asiasta komissiolle. Jos kansallisen toimenpiteen ei katsota olevan perusteltu, asianomaisen jäsenvaltion on peruutettava toimenpide.
3.Jos kansallisen toimenpiteen katsotaan olevan perusteltu ja tekoälyjärjestelmän vaatimustenvastaisuuden katsotaan johtuvan tämän asetuksen 40 ja 41 artiklassa tarkoitetuissa yhdenmukaistetuissa standardeissa tai yhteisissä eritelmissä olevista puutteista, komissio soveltaa asetuksen (EU) N:o 1025/2012 11 artiklassa säädettyä menettelyä.
67 artikla
Vaatimustenmukaiset tekoälyjärjestelmät, jotka aiheuttavat riskin
1.Jos jäsenvaltion markkinavalvontaviranomainen toteaa 65 artiklan mukaisen arvioinnin suoritettuaan, että vaikka tekoälyjärjestelmä on tämän asetuksen mukainen, se aiheuttaa riskin ihmisten terveydelle tai turvallisuudelle, perusoikeuksien suojeluun tarkoitetun unionin lainsäädännön tai kansallisen lainsäädännön mukaisten velvoitteiden noudattamiselle tai muille yleisen edun suojaan liittyville näkökohdille, sen on vaadittava asianomaista toimijaa toteuttamaan kaikki asianmukaiset toimenpiteet sen varmistamiseksi, että kyseinen tekoälyjärjestelmä ei markkinoille saatettaessa tai käyttöönotettaessa enää aiheuta kyseistä riskiä, tekoälyjärjestelmän poistamiseksi markkinoilta tai sitä koskevan palautusmenettelyn järjestämiseksi sellaisen kohtuullisen ajanjakson kuluessa, joka on oikeassa suhteessa riskin luonteeseen ja jonka se asettaa.
2.Tarjoajan tai muiden asiaankuuluvien toimijoiden on varmistettava, että korjaavat toimenpiteet toteutetaan kaikkien asianomaisten tekoälyjärjestelmien osalta, jotka ne ovat asettaneet saataville markkinoilla unionin alueella, edellä 1 kohdassa tarkoitetussa jäsenvaltion markkinavalvontaviranomaisen asettamassa määräajassa.
3.Jäsenvaltion on välittömästi ilmoitettava asiasta komissiolle ja muille jäsenvaltioille. Ilmoitukseen on sisällyttävä kaikki saatavilla olevat tiedot, erityisesti tiedot, jotka ovat tarpeen kyseisen tekoälyjärjestelmän tunnistamista sekä sen alkuperän ja toimitusketjun, siihen liittyvän riskin luonteen ja toteutettujen kansallisten toimenpiteiden luonteen ja keston määrittämistä varten.
4.Komissio kuulee viipymättä jäsenvaltioita ja asianomaista toimijaa ja arvioi kansalliset toimenpiteet. Komissio tekee tämän arvioinnin tulosten perusteella päätöksen siitä, onko toimenpide perusteltu vai ei, ja ehdottaa tarvittaessa soveltuvia toimenpiteitä.
5.Komissio osoittaa päätöksensä jäsenvaltioille.
68 artikla
Muodollinen vaatimustenvastaisuus
1.Jos jäsenvaltion markkinavalvontaviranomainen tekee jonkin seuraavista havainnoista, sen on vaadittava asianomaista tarjoajaa korjaamaan kyseinen vaatimustenvastaisuus:
(a)vaatimustenmukaisuusmerkintä on kiinnitetty 49 artiklan vastaisesti;
(b)vaatimustenmukaisuusmerkintää ei ole kiinnitetty;
(c)EU-vaatimustenmukaisuusvakuutusta ei ole laadittu;
(d)EU-vaatimustenmukaisuusvakuutusta ei ole laadittu oikein;
(e)vaatimustenmukaisuuden arviointimenettelyyn osallistuvan ilmoitetun laitoksen tunnusnumeroa ei ole kiinnitetty, jos sitä vaaditaan.
2.Jos 1 kohdassa tarkoitettu vaatimustenvastaisuus jatkuu, asianomaisen jäsenvaltion on ryhdyttävä kaikkiin tarvittaviin toimenpiteisiin suuririskisen tekoälyjärjestelmän markkinoilla saataville asettamisen rajoittamiseksi tai kieltämiseksi tai sen varmistamiseksi, että sitä koskeva palautusmenettely järjestetään tai se poistetaan markkinoilta.
IX OSASTO
KÄYTÄNNESÄÄNNÖT
69 artikla
Käytännesäännöt
1.Komissio ja jäsenvaltiot kannustavat ja helpottavat sellaisten käytännesääntöjen laatimista, joiden tarkoituksena on edistää III osaston 2 luvussa vahvistettujen vaatimusten vapaaehtoista soveltamista muihin tekoälyjärjestelmiin kuin suuririskisiin tekoälyjärjestelmiin sellaisten teknisten eritelmien ja ratkaisujen pohjalta, jotka ovat asianmukaisia keinoja sen varmistamiseksi, että kyseisiä vaatimuksia noudatetaan ottaen huomioon järjestelmien suunniteltu käyttötarkoitus.
2.Komissio ja tekoälyneuvosto kannustavat ja helpottavat sellaisten käytännesääntöjen laatimista, joiden tarkoituksena on edistää sellaisten vaatimusten vapaaehtoista soveltamista tekoälyjärjestelmiin, jotka liittyvät esimerkiksi ekologiseen kestävyyteen, vammaisten henkilöiden esteettömyyteen, sidosryhmien osallistumiseen tekoälyjärjestelmien suunnitteluun ja kehittämiseen sekä kehitysryhmien monimuotoisuuteen, selkeiden tavoitteiden ja keskeisten suorituskykyindikaattoreiden perusteella näiden tavoitteiden saavuttamisen mittaamiseksi.
3.Käytännesääntöjä voivat laatia yksittäiset tekoälyjärjestelmien tarjoajat tai niitä edustavat järjestöt tai molemmat, ja niiden laatimiseen voivat osallistua myös käyttäjät ja mahdolliset sidosryhmät ja niitä edustavat järjestöt. Käytännesäännöt voivat kattaa yhden tai useamman tekoälyjärjestelmän ottaen huomioon asianomaisten järjestelmien käyttötarkoituksen samankaltaisuuden.
4.Komissio ja tekoälyneuvosto ottavat huomioon pienten tarjoajien ja startup-yritysten erityisedut ja -tarpeet edistäessään ja helpottaessaan käytännesääntöjen laatimista.
X OSASTO
LUOTTAMUKSELLISUUS JA SEURAAMUKSET
70 artikla
Luottamuksellisuus
1.Tämän asetuksen soveltamiseen osallistuvien kansallisten toimivaltaisten viranomaisten ja ilmoitettujen laitosten on noudatettava tehtäviään ja toimiaan suorittaessaan saamiensa tietojen ja datan luottamuksellisuutta siten, että suojellaan erityisesti
(a)teollis- ja tekijänoikeuksia ja luonnollisen henkilön tai oikeushenkilön luottamuksellisia liiketoimintatietoja tai liikesalaisuuksia, lähdekoodi mukaan lukien, lukuun ottamatta julkistamattoman taitotiedon ja liiketoimintatiedon (liikesalaisuuksien) suojaamisesta laittomalta hankinnalta, käytöltä ja ilmaisemiselta annetun direktiivin 2016/943 5 artiklassa tarkoitettuja tapauksia;
(b)tämän asetuksen tehokasta täytäntöönpanoa, etenkin tarkastuksia, tutkimuksia ja auditointeja varten; c) yleisiä ja kansallisia turvallisuusetuja;
(c)rikosoikeudellisten tai hallinnollisten menettelyjen luotettavuutta.
2.Sanotun rajoittamatta 1 kohdan soveltamista, kansallisten toimivaltaisten viranomaisten välillä sekä kansallisten toimivaltaisten viranomaisten ja komission välillä luottamuksellisesti vaihdettuja tietoja ei saa paljastaa kuulematta etukäteen sitä kansallista toimivaltaista viranomaista, jolta tiedot ovat peräisin, sekä käyttäjää, kun lainvalvonta-, maahanmuutto- tai turvapaikkaviranomaiset käyttävät liitteessä III olevassa 1, 6 ja 7 kohdassa tarkoitettuja suuririskisiä tekoälyjärjestelmiä, jos tietojen paljastaminen vaarantaisi yleiset ja kansalliset turvallisuusedut.
Kun lainvalvonta-, maahanmuutto- tai turvapaikkaviranomaiset ovat liitteessä III olevassa 1, 6 ja 7 kohdassa tarkoitettujen suuririskisten tekoälyjärjestelmien tarjoajia, liitteessä IV tarkoitetun teknisen dokumentaation on pysyttävä kyseisten viranomaisten tiloissa. Kyseisten viranomaisten on varmistettava, että tapauksen mukaan 63 artiklan 5 ja 6 kohdassa tarkoitetut markkinavalvontaviranomaiset voivat pyynnöstä välittömästi tutustua dokumentaatioon tai saada siitä jäljennöksen. Ainoastaan markkinavalvontaviranomaisen henkilöstöllä, jolla on tarvittavan tasoinen turvallisuusselvitys, on oltava pääsy kyseiseen dokumentaatioon tai sen jäljennöksiin.
3.Edellä oleva 1 ja 2 kohta eivät vaikuta komission, jäsenvaltioiden ja ilmoitettujen laitosten tiedonvaihtoa ja varoitusten antamista koskeviin oikeuksiin ja velvollisuuksiin eivätkä asianomaisten osapuolten tiedonantovelvollisuuteen jäsenvaltioiden rikosoikeuden mukaisesti.
4.Komissio ja jäsenvaltiot voivat tarvittaessa vaihtaa luottamuksellisia tietoja sellaisten kolmansien maiden sääntelyviranomaisten kanssa, joiden kanssa ne ovat tehneet kahdenvälisiä tai monenvälisiä luottamuksellisuutta suojaavia järjestelyjä, joilla taataan riittävä luottamuksellisuuden taso.
71 artikla
Seuraamukset
1.Jäsenvaltioiden on tässä asetuksessa säädettyjä ehtoja noudattaen säädettävä tämän asetuksen rikkomiseen sovellettavista seuraamuksista, mukaan lukien hallinnolliset sakot, ja toteutettava kaikki tarvittavat toimenpiteet sen varmistamiseksi, että ne pannaan täytäntöön asianmukaisesti ja tehokkaasti. Seuraamusten on oltava tehokkaita, oikeasuhteisia ja varoittavia. Niissä on erityisesti otettava huomioon pienten tarjoajien ja startup-yritysten edut sekä niiden taloudellinen elinkelpoisuus.
2.Jäsenvaltioiden on ilmoitettava näistä säännöksistä ja toimenpiteistä komissiolle ja ilmoitettava viipymättä niihin vaikuttavista myöhemmistä muutoksista.
3.Seuraavista rikkomisista voidaan määrätä hallinnollinen sakko, joka on enintään 30 000 000 euroa tai, jos rikkomiseen syyllistynyt on yritys, enintään 6 prosenttia sen edeltävän tilikauden vuotuisesta maailmanlaajuisesta kokonaisliikevaihdosta sen mukaan, kumpi näistä määristä on suurempi:
(a)5 artiklassa tarkoitettua tekoälyyn liittyviä käytäntöjä koskevaa kieltoa ei ole noudatettu;
(b)tekoälyjärjestelmä ei ole 10 artiklassa säädettyjen vaatimusten mukainen.
4.Jos tekoälyjärjestelmä ei täytä muita tämän asetuksen mukaisia vaatimuksia ja velvoitteita kuin sen 5 ja 10 artiklassa säädetyt vaatimukset tai velvoitteet, tästä voidaan määrätä hallinnollinen sakko, joka on enintään 20 000 000 euroa tai, jos rikkomiseen syyllistynyt on yritys, enintään 4 prosenttia sen edeltävän tilikauden vuotuisesta maailmanlaajuisesta kokonaisliikevaihdosta sen mukaan, kumpi näistä määristä on suurempi.
5.Virheellisten, puutteellisten tai harhaanjohtavien tietojen toimittamisesta vastauksena ilmoitettujen laitosten ja kansallisten toimivaltaisten viranomaisten pyyntöön voidaan määrätä hallinnollinen sakko, joka on enintään 10 000 000 euroa tai, jos rikkomiseen syyllistynyt on yritys, enintään 2 prosenttia sen edeltävän tilikauden vuotuisesta maailmanlaajuisesta kokonaisliikevaihdosta sen mukaan, kumpi näistä määristä on suurempi.
6.Kun päätetään hallinnollisen sakon määrästä, kussakin yksittäisessä tapauksessa on otettava asianmukaisesti huomioon kaikki kyseisen tilanteen kannalta merkittävät olosuhteet sekä seuraavat seikat:
(a)rikkomisen ja sen seurausten luonne, vakavuus ja kesto;
(b)ovatko muut markkinavalvontaviranomaiset jo määränneet hallinnollisia sakkoja samalle toimijalle samasta rikkomisesta;
(c)rikkomiseen syyllistyneen toimijan koko ja markkinaosuus.
7.Kunkin jäsenvaltion on asetettava sääntöjä siitä, voidaanko viranomaisille tai julkishallinnon elimille määrätä kyseisessä jäsenvaltiossa hallinnollisia sakkoja ja missä määrin.
8.Jäsenvaltion oikeusjärjestelmästä riippuen hallinnollisia sakkoja koskevia sääntöjä voidaan soveltaa siten, että sakkojen määräämisestä vastaavat toimivaltaiset kansalliset tuomioistuimet tai muut elimet, siten kuin kyseisissä jäsenvaltioissa on säädetty. Tällaisten sääntöjen soveltamisella näissä jäsenvaltioissa on oltava vastaava vaikutus.
72 artikla
Unionin toimielimille, virastoille ja elimille määrättävät hallinnolliset sakot
1.Euroopan tietosuojavaltuutettu voi määrätä hallinnollisia sakkoja tämän asetuksen soveltamisalaan kuuluville unionin toimielimille, virastoille ja elimille. Kun päätetään hallinnollisen sakon määräämisestä ja hallinnollisen sakon määrästä, kussakin yksittäisessä tapauksessa on otettava asianmukaisesti huomioon kaikki kyseisen tilanteen kannalta merkittävät olosuhteet sekä seuraavat seikat:
(a)rikkomisen ja sen seurausten luonne, vakavuus ja kesto;
(b)yhteistyö Euroopan tietosuojavaltuutetun kanssa rikkomisen korjaamiseksi ja sen mahdollisten haittavaikutusten lieventämiseksi, mukaan lukien niiden toimenpiteiden noudattaminen, jotka Euroopan tietosuojavaltuutettu on aiemmin määrännyt asianomaiselle unionin toimielimelle, virastolle tai elimelle samasta aiheesta;
(c)unionin toimielimen, viraston tai elimen mahdolliset aiemmat samankaltaiset rikkomiset.
2.Seuraavista rikkomisista voidaan määrätä hallinnollinen sakko, joka on enintään 500 000 euroa:
(a)5 artiklassa tarkoitettua tekoälyyn liittyviä käytäntöjä koskevaa kieltoa ei ole noudatettu;
(b)tekoälyjärjestelmä ei ole 10 artiklassa säädettyjen vaatimusten mukainen.
3.Jos tekoälyjärjestelmä ei täytä muita tämän asetuksen mukaisia vaatimuksia ja velvoitteita kuin sen 5 ja 10 artiklassa säädetyt vaatimukset tai velvoitteet, tästä voidaan määrätä hallinnollinen sakko, joka on enintään 250 000 euroa.
4.Euroopan tietosuojavaltuutettu antaa ennen tämän artiklan mukaisen päätöksen tekemistä unionin toimielimelle, virastolle tai elimelle, joka on Euroopan tietosuojavaltuutetun toteuttaman menettelyn kohteena, tilaisuuden tulla kuulluksi mahdollisesta rikkomisesta. Euroopan tietosuojavaltuutettu perustaa päätöksensä ainoastaan niille tekijöille ja olosuhteille, joista asianomaiset osapuolet ovat voineet esittää huomautuksensa. Mahdolliset kantelijat osallistuvat tiiviisti menettelyyn.
5.Menettelyissä on kunnioitettava täysin asianomaisten osapuolten puolustautumisoikeuksia. Niillä on oikeus tutustua Euroopan tietosuojavaltuutetun asiakirja-aineistoon edellyttäen, että otetaan huomioon yksityishenkilöiden tai yritysten oikeutetut edut, jotka liittyvät henkilötietojen tai liikesalaisuuksien suojaan.
6.Tämän artiklan mukaisesti määrätyillä sakoilla kerätyt varat otetaan unionin yleiseen talousarvioon.
XI OSASTO
SÄÄDÖSVALLAN SIIRTO JA KOMITEAMENETTELY
73 artikla
Siirretyn säädösvallan käyttäminen
1.Siirretään komissiolle valta antaa delegoituja säädöksiä tässä artiklassa säädetyin edellytyksin.
2.Siirretään komissiolle [tämän asetuksen voimaantulopäivästä] määräämättömäksi ajaksi 4 artiklassa, 7 artiklan 1 kohdassa, 11 artiklan 3 kohdassa, 43 artiklan 5 ja 6 kohdassa ja 48 artiklan 5 kohdassa tarkoitettu valta antaa delegoituja säädöksiä.
3.Euroopan parlamentti tai neuvosto voi milloin tahansa peruuttaa 4 artiklassa, 7 artiklan 1 kohdassa, 11 artiklan 3 kohdassa, 43 artiklan 5 ja 6 kohdassa ja 48 artiklan 5 kohdassa tarkoitetun säädösvallan siirron. Peruuttamispäätöksellä lopetetaan tuossa päätöksessä mainittu säädösvallan siirto. Peruuttaminen tulee voimaan sitä päivää seuraavana päivänä, jona se julkaistaan Euroopan unionin virallisessa lehdessä, tai jonakin myöhempänä, kyseisessä päätöksessä mainittuna päivänä. Päätös ei vaikuta jo voimassa olevien delegoitujen säädösten pätevyyteen.
4.Heti kun komissio on antanut delegoidun säädöksen, komissio antaa sen tiedoksi yhtäaikaisesti Euroopan parlamentille ja neuvostolle.
5.Edellä olevan 4 artiklan, 7 artiklan 1 kohdan, 11 artiklan 3 kohdan, 43 artiklan 5 ja 6 kohdan ja 48 artiklan 5 kohdan nojalla annettu delegoitu säädös tulee voimaan ainoastaan, jos Euroopan parlamentti tai neuvosto ei ole kolmen kuukauden kuluessa siitä, kun asianomainen säädös on annettu tiedoksi Euroopan parlamentille ja neuvostolle, ilmaissut vastustavansa sitä tai jos sekä Euroopan parlamentti että neuvosto ovat ennen mainitun määräajan päättymistä ilmoittaneet komissiolle, että ne eivät vastusta säädöstä. Euroopan parlamentin tai neuvoston aloitteesta tätä määräaikaa jatketaan kolmella kuukaudella.
74 artikla
Komiteamenettely
1.Komissiota avustaa komitea. Tämä komitea on asetuksessa (EU) N:o 182/2011 tarkoitettu komitea.
2.Kun viitataan tähän kohtaan, sovelletaan asetuksen (EU) N:o 182/2011 5 artiklaa.
XII OSASTO
LOPPUSÄÄNNÖKSET
75 artikla
Asetuksen (EY) N:o 300/2008 muuttaminen
Lisätään asetuksen (EY) N:o 300/2008 4 artiklan 3 kohtaan alakohta seuraavasti:
”Hyväksyttäessä yksityiskohtaisia toimenpiteitä, jotka liittyvät sellaisten turvalaitteiden käyttöä koskeviin teknisiin erittelyihin ja hyväksyntämenettelyihin, joihin sisältyy [tekoälystä] annetussa Euroopan parlamentin ja neuvoston asetuksessa (EU) YYY/XX* tarkoitettuja tekoälyjärjestelmiä, huomioon on otettava mainitun asetuksen III osaston 2 luvussa säädetyt vaatimukset.
__________
* Asetus (EU) YYY/XX [tekoälystä] (EUVL …).”
76 artikla
Asetuksen (EU) N:o 167/2013 muuttaminen
Lisätään asetuksen (EU) N:o 167/2013 17 artiklan 5 kohtaan alakohta seuraavasti:
”Hyväksyttäessä ensimmäisen alakohdan mukaisia delegoituja säädöksiä, jotka koskevat [tekoälystä] annetussa Euroopan parlamentin ja neuvoston asetuksessa (EU) YYY/XX* tarkoitettuja tekoälyjärjestelmiä, jotka ovat turvakomponentteja, huomioon on otettava mainitun asetuksen III osaston 2 luvussa säädetyt vaatimukset.
__________
* Asetus (EU) YYY/XX [tekoälystä] (EUVL …).”
77 artikla
Asetuksen (EU) N:o 168/2013 muuttaminen
Lisätään asetuksen (EU) N:o 168/2013 22 artiklan 5 kohtaan alakohta seuraavasti:
”Hyväksyttäessä ensimmäisen alakohdan mukaisia delegoituja säädöksiä, jotka koskevat [tekoälystä] annetussa Euroopan parlamentin ja neuvoston asetuksessa (EU) YYY/XX* tarkoitettuja tekoälyjärjestelmiä, jotka ovat turvakomponentteja, huomioon on otettava mainitun asetuksen III osaston 2 luvussa säädetyt vaatimukset.
__________
* Asetus (EU) YYY/XX [tekoälystä] (EUVL …).”
78 artikla
Direktiivin 2014/90/EY muuttaminen
Lisätään direktiivin 2014/90/EU 8 artiklaan kohta seuraavasti:
”4. Toteuttaessaan 1 kohdan mukaisia tehtäviään ja hyväksyessään teknisiä eritelmiä ja testausnormeja 2 ja 3 kohdan mukaisesti sellaisten [tekoälystä] annetussa Euroopan parlamentin ja neuvoston asetuksessa (EU) YYY/XX* tarkoitettujen tekoälyjärjestelmien osalta, jotka ovat turvakomponentteja, komissio ottaa huomioon mainitun asetuksen III osaston 2 luvussa säädetyt vaatimukset.
__________
* Asetus (EU) YYY/XX [tekoälystä] (EUVL …).”
79 artikla
Direktiivin (EU) 2016/797 muuttaminen
Lisätään direktiivin (EU) 2016/797 5 artiklaan kohta seuraavasti:
”12. ”Hyväksyttäessä ensimmäisen kohdan mukaisia delegoituja säädöksiä ja 11 kohdan mukaisia täytäntöönpanosäädöksiä, jotka koskevat [tekoälystä] annetussa Euroopan parlamentin ja neuvoston asetuksessa (EU) YYY/XX* tarkoitettuja tekoälyjärjestelmiä, jotka ovat turvakomponentteja, huomioon on otettava mainitun asetuksen III osaston 2 luvussa säädetyt vaatimukset.
__________
* Asetus (EU) YYY/XX [tekoälystä] (EUVL …).”
80 artikla
Asetuksen (EU) 2018/858 muuttaminen
Lisätään asetuksen (EU) N:o 2018/858 5 artiklaan kohta seuraavasti:
”4. ”Hyväksyttäessä 3 kohdan mukaisia delegoituja säädöksiä, jotka koskevat [tekoälystä] annetussa Euroopan parlamentin ja neuvoston asetuksessa (EU) YYY/XX* tarkoitettuja tekoälyjärjestelmiä, jotka ovat turvakomponentteja, huomioon on otettava mainitun asetuksen III osaston 2 luvussa säädetyt vaatimukset.
__________
* Asetus (EU) YYY/XX [tekoälystä] (EUVL …).”
81 artikla
Asetuksen (EU) 2018/1139 muuttaminen
Muutetaan asetus (EU) 2018/1139 seuraavasti:
1) Lisätään 17 artiklaan kohta seuraavasti:
”3. ”Hyväksyttäessä 1 kohdan mukaisia täytäntöönpanosäädöksiä, jotka koskevat [tekoälystä] annetussa Euroopan parlamentin ja neuvoston asetuksessa (EU) YYY/XX* tarkoitettuja tekoälyjärjestelmiä, jotka ovat turvakomponentteja, huomioon on otettava mainitun asetuksen III osaston 2 luvussa säädetyt vaatimukset, sanotun kuitenkaan rajoittamatta 2 kohdan soveltamista.
__________
* Asetus (EU) YYY/XX [tekoälystä] (EUVL …).”
2) Lisätään 19 artiklaan kohta seuraavasti:
”4. ”Hyväksyttäessä 1 ja 2 kohdan mukaisia delegoituja säädöksiä, jotka koskevat [tekoälystä] annetussa asetuksessa (EU) YYY/XX tarkoitettuja tekoälyjärjestelmiä, jotka ovat turvakomponentteja, huomioon on otettava mainitun asetuksen III osaston 2 luvussa säädetyt vaatimukset.”
3) Lisätään 43 artiklaan kohta seuraavasti:
”4. ”Hyväksyttäessä 1 kohdan mukaisia täytäntöönpanosäädöksiä, jotka koskevat [tekoälystä] annetussa asetuksessa (EU) YYY/XX tarkoitettuja tekoälyjärjestelmiä, jotka ovat turvakomponentteja, huomioon on otettava mainitun asetuksen III osaston 2 luvussa säädetyt vaatimukset.”
4) Lisätään 47 artiklaan kohta seuraavasti:
”3. ”Hyväksyttäessä 1 ja 2 kohdan mukaisia delegoituja säädöksiä, jotka koskevat [tekoälystä] annetussa asetuksessa (EU) YYY/XX tarkoitettuja tekoälyjärjestelmiä, jotka ovat turvakomponentteja, huomioon on otettava mainitun asetuksen III osaston 2 luvussa säädetyt vaatimukset.”
5) Lisätään 57 artiklaan kohta seuraavasti:
”Hyväksyttäessä tällaisia täytäntöönpanosäädöksiä, jotka koskevat [tekoälystä] annetussa asetuksessa (EU) YYY/XX tarkoitettuja tekoälyjärjestelmiä, jotka ovat turvakomponentteja, huomioon on otettava mainitun asetuksen III osaston 2 luvussa säädetyt vaatimukset.”
6) Lisätään 58 artiklaan kohta seuraavasti:
”3. ”Hyväksyttäessä 1 ja 2 kohdan mukaisia delegoituja säädöksiä, jotka koskevat [tekoälystä] annetussa asetuksessa (EU) YYY/XX tarkoitettuja tekoälyjärjestelmiä, jotka ovat turvakomponentteja, huomioon on otettava mainitun asetuksen III osaston 2 luvussa säädetyt vaatimukset.”
82 artikla
Asetuksen (EU) 2019/2144 muuttaminen
Lisätään asetuksen (EU) 2019/2144 11 artiklaan kohta seuraavasti:
”3. ”Hyväksyttäessä 2 kohdan mukaisia täytäntöönpanosäädöksiä, jotka koskevat [tekoälystä] annetussa Euroopan parlamentin ja neuvoston asetuksessa (EU) YYY/XX* tarkoitettuja tekoälyjärjestelmiä, jotka ovat turvakomponentteja, huomioon on otettava mainitun asetuksen III osaston 2 luvussa säädetyt vaatimukset.
__________
* Asetus (EU) YYY/XX [tekoälystä] (EUVL …).”
83 artikla
Jo markkinoille saatetut tai käyttöön otetut suuririskiset tekoälyjärjestelmät
1.Tätä asetusta ei sovelleta tekoälyjärjestelmiin, jotka ovat liitteessä IX luetelluilla säädöksillä perustettujen laaja-alaisten tietojärjestelmien osia ja jotka on saatettu markkinoille tai otettu käyttöön ennen [12 kuukauden kuluttua 85 artiklan 2 kohdassa tarkoitetusta tämän asetuksen soveltamispäivästä], paitsi jos kyseisten säädösten korvaaminen tai muuttaminen aiheuttaa merkittävän muutoksen kyseisen tekoälyjärjestelmän tai kyseisten tekoälyjärjestelmien rakenteessa tai käyttötarkoituksessa.
Tässä asetuksessa säädetyt vaatimukset on soveltuvin osin otettava huomioon arvioitaessa kutakin liitteessä IX luetelluilla säädöksillä perustettua laaja-alaista tietojärjestelmää kyseisissä säädöksissä säädetyllä tavalla.
2.Tätä asetusta sovelletaan muihin kuin 1 kohdassa tarkoitettuihin suuririskisiin tekoälyjärjestelmiin, jotka on saatettu markkinoille tai otettu käyttöön ennen [85 artiklan 2 kohdassa tarkoitettu tämän asetuksen soveltamispäivä], ainoastaan, jos kyseisten järjestelmien rakenteessa tai käyttötarkoituksessa tapahtuu merkittäviä muutoksia kyseisen päivän jälkeen.
84 artikla
Arviointi ja uudelleentarkastelu
1.Komissio arvioi, onko liitteessä III olevaa luetteloa tarpeen muuttaa, kerran vuodessa tämän asetuksen voimaantulon jälkeen.
2.Viimeistään [kolmen vuoden kuluttua 85 artiklan 2 kohdassa tarkoitetusta tämän asetuksen soveltamispäivästä] ja sen jälkeen neljän vuoden välein komissio toimittaa Euroopan parlamentille ja neuvostolle säännöllisesti raportit tämän asetuksen arvioinnista ja uudelleentarkastelusta. Raportit julkaistaan.
3.Edellä 2 kohdassa tarkoitetuissa raporteissa on kiinnitettävä erityistä huomiota seuraaviin seikkoihin:
(a)kansallisten toimivaltaisten viranomaisten taloudellisten ja henkilöresurssien tila, jotta ne voivat suorittaa tehokkaasti niille tässä asetuksessa osoitetut tehtävät;
(b)jäsenvaltioiden tämän asetuksen säännösten rikkomisista määräämien seuraamusten ja erityisesti 71 artiklan 1 kohdassa tarkoitettujen hallinnollisten sakkojen tila.
4.Komissio arvioi [kolmen vuoden kuluessa 85 artiklan 2 kohdassa tarkoitetusta tämän asetuksen soveltamispäivästä] ja sen jälkeen neljän vuoden välein käytännesääntöjen vaikutusta ja sitä, kuinka tehokkaasti ne edistävät III osaston 2 luvussa vahvistettujen vaatimusten ja mahdollisesti muita tekoälyjärjestelmiä kuin suuririskisiä tekoälyjärjestelmiä koskevien lisävaatimusten soveltamista.
5.Edellä olevan 1–4 kohdan soveltamiseksi tekoälyneuvoston, jäsenvaltioiden ja kansallisten toimivaltaisten viranomaisten on toimitettava komissiolle sen pyytämät tiedot.
6.Kun komissio tekee 1–4 kohdassa tarkoitettuja arviointeja ja uudelleentarkasteluja, se ottaa huomioon tekoälyneuvostolta, Euroopan parlamentilta ja neuvostolta sekä muilta asiaankuuluvilta elimiltä ja muista lähteistä saadut näkemykset ja havainnot.
7.Komissio esittää tarvittaessa ehdotuksia tämän asetuksen muuttamiseksi ottaen erityisesti huomioon teknologiassa ja tietoyhteiskunnassa tapahtuvan kehityksen.
85 artikla
Voimaantulo ja soveltaminen
1.Tämä asetus tulee voimaan kahdentenakymmenentenä päivänä sen jälkeen, kun se on julkaistu Euroopan unionin virallisessa lehdessä.
2.Tätä asetusta sovelletaan [24 kuukauden kuluttua tämän asetuksen voimaantulosta].
3.Poiketen siitä, mitä 2 kohdassa säädetään:
(a)III osaston 4 lukua ja VI osastoa sovelletaan [kolmen kuukauden kuluttua tämän asetuksen voimaantulosta];
(b)71 artiklaa sovelletaan [12 kuukauden kuluttua tämän asetuksen voimaantulosta].
Tämä asetus on kaikilta osiltaan velvoittava, ja sitä sovelletaan sellaisenaan kaikissa jäsenvaltioissa.
Tehty Brysselissä
Euroopan parlamentin puolesta
Neuvoston puolesta
Puhemies
Puheenjohtaja
SÄÄDÖSEHDOTUKSEEN LIITTYVÄ RAHOITUSSELVITYS
1.PERUSTIEDOT EHDOTUKSESTA/ALOITTEESTA
1.1.Ehdotuksen/aloitteen nimi
1.2.Toimintalohko(t)
1.3.Ehdotus/aloite liittyy
1.4.Tavoite (Tavoitteet)
1.4.1.Yleistavoite (Yleistavoitteet)
1.4.2.Erityistavoite (Erityistavoitteet)
1.4.3.Odotettavissa olevat tulokset ja vaikutukset
1.4.4.Tulosindikaattorit
1.5.Ehdotuksen/aloitteen perustelut
1.5.1.Tarpeet, joihin ehdotuksella/aloitteella vastataan lyhyellä tai pitkällä aikavälillä sekä aloitteen yksityiskohtainen toteutusaikataulu
1.5.2.
EU:n osallistumisesta saatava lisäarvo (joka voi olla seurausta eri tekijöistä, kuten koordinoinnin paranemisesta, oikeusvarmuudesta tai toiminnan vaikuttavuuden tai täydentävyyden paranemisesta). EU:n osallistumisesta saatavalla lisäarvolla tarkoitetaan tässä kohdassa arvoa, jonka EU:n osallistuminen tuottaa sen arvon lisäksi, joka olisi saatu aikaan pelkillä jäsenvaltioiden toimilla
1.5.3.
Vastaavista toimista saadut kokemukset
1.5.4.
Yhteensopivuus monivuotisen rahoituskehyksen kanssa ja mahdolliset synergiaedut suhteessa muihin kyseeseen tuleviin välineisiin
1.5.5
Arvio käytettävissä olevista rahoitusvaihtoehdoista, mukaan lukien mahdollisuudet määrärahojen uudelleenkohdentamiseen
1.6.
Ehdotetun toimen/aloitteen kesto ja rahoitusvaikutukset
1.7.Hallinnointitapa (Hallinnointitavat)
2.HALLINNOINTI
2.1.Seuranta- ja raportointisäännöt
2.2.Hallinnointi- ja valvontajärjestelmä
2.2.1.
Perustelut ehdotetu(i)lle hallinnointitavalle(/-tavoille), rahoituksen toteutusmekanismille(/-mekanismeille), maksujärjestelyille sekä valvontastrategialle
2.2.2.
Tiedot todetuista riskeistä ja niiden vähentämiseksi käyttöön otetuista sisäisistä valvontajärjestelmistä
2.2.3. Valvonnan kustannustehokkuutta (valvontakustannusten suhde hallinnoitujen varojen arvoon) koskevat arviot ja perustelut sekä arviot maksujen suoritusajankohdan ja toimen päättämisajankohdan odotetuista virheriskitasoista
2.3.Toimenpiteet petosten ja sääntöjenvastaisuuksien ehkäisemiseksi
3.EHDOTUKSEN/ALOITTEEN ARVIOIDUT RAHOITUSVAIKUTUKSET
3.1.Kyseeseen tulevat monivuotisen rahoituskehyksen otsakkeet ja menopuolen budjettikohdat
3.2.Arvioidut vaikutukset määrärahoihin
3.2.1.Yhteenveto arvioiduista vaikutuksista toimintamäärärahoihin
3.2.2.Arvioidut toimintamäärärahoista rahoitetut tuotokset
3.2.3. Yhteenveto arvioiduista vaikutuksista hallintomäärärahoihin
3.2.4.Yhteensopivuus nykyisen monivuotisen rahoituskehyksen kanssa
3.2.5.Ulkopuolisten tahojen rahoitusosuudet
3.3.Arvioidut vaikutukset tuloihin
SÄÄDÖSEHDOTUKSEEN LIITTYVÄ RAHOITUSSELVITYS
1.PERUSTIEDOT EHDOTUKSESTA/ALOITTEESTA
1.1.Ehdotuksen/aloitteen nimi
Euroopan parlamentin ja neuvoston asetus tekoälyä koskevista yhdenmukaistetuista säännöistä (tekoälysäädös) ja tiettyjen unionin säädösten muuttamisesta
1.2.Toimintalohko(t)
Viestintäverkot, sisältö ja teknologia;
Sisämarkkinat, teollisuus, yrittäjyys ja pk-yritykset.
Talousarviovaikutukset koskevat komissiolle annettuja uusia tehtäviä, mukaan lukien tuki EU:n tekoälyneuvostolle.
Toiminta: Euroopan digitaalista tulevaisuutta rakentamassa
1.3.Ehdotus/aloite liittyy
X uuteen toimeen
◻ uuteen toimeen, joka perustuu pilottihankkeeseen tai valmistelutoimeen
◻ käynnissä olevan toimen jatkamiseen
◻ toimeen, joka on suunnattu uudelleen
1.4.Tavoite (Tavoitteet)
1.4.1.Yleistavoite (Yleistavoitteet)
Toiminnan yleisenä tavoitteena on varmistaa sisämarkkinoiden moitteeton toiminta luomalla edellytykset luotettavan tekoälyn kehittämiselle ja käytölle unionissa.
1.4.2.Erityistavoite (Erityistavoitteet)
Erityistavoite nro 1
Asetetaan tekoälyjärjestelmiä koskevia erityisvaatimuksia ja kaikkia arvoketjun toimijoita koskevia velvoitteita sen varmistamiseksi, että markkinoille saatetut ja käytetyt tekoälyjärjestelmät ovat turvallisia ja noudattavat perusoikeuksia ja unionin arvoja koskevaa voimassa olevaa lainsäädäntöä;
Erityistavoite nro 2
Varmistetaan oikeusvarmuus tekoälyyn tehtävien investointien ja innovoinnin helpottamiseksi selventämällä, mitä olennaisia vaatimuksia, velvoitteita ja vaatimustenmukaisuusmenettelyjä on noudatettava tekoälyjärjestelmän saattamiseksi markkinoille tai sen käyttämiseksi unionissa;
Erityistavoite nro 3
Parannetaan tekoälyjärjestelmiin sovellettavan perusoikeuksia ja turvallisuusvaatimuksia koskevan voimassa olevan lainsäädännön hallinnointia ja tehokasta täytäntöönpanoa antamalla asianomaisille viranomaisille uusia valtuuksia ja resursseja ja määrittelemällä selkeät säännöt vaatimustenmukaisuuden arviointi- ja jälkivalvontamenettelyjä varten sekä jakamalla hallinto- ja valvontatehtävät kansallisen ja EU:n tason välillä;
Erityistavoite nro 4
Helpotetaan sisämarkkinoiden kehittämistä laillisia, turvallisia ja luotettavia tekoälysovelluksia varten ja estetään markkinoiden pirstaloituminen toteuttamalla EU:n toimia vähimmäisvaatimusten asettamiseksi tekoälyjärjestelmien markkinoille saattamiselle ja käytölle unionissa perusoikeuksia ja turvallisuutta koskevan voimassa olevan lainsäädännön mukaisesti.
1.4.3.Odotettavissa olevat tulokset ja vaikutukset
Selvitys siitä, miten ehdotuksella/aloitteella on tarkoitus vaikuttaa edunsaajien/kohderyhmän tilanteeseen
Tekoälyn toimittajien pitäisi hyötyä mahdollisimman vähäisistä mutta selkeistä vaatimuksista, joilla luodaan oikeusvarmuutta ja varmistetaan pääsy koko sisämarkkinoille.
Tekoälyn käyttäjien pitäisi saada oikeusvarmuus siitä, että heidän ostamansa suuririskiset tekoälyjärjestelmät ovat EU:n lainsäädännön ja arvojen mukaisia.
Kuluttajien pitäisi hyötyä siitä, että riski heidän turvallisuutensa tai perusoikeuksiensa loukkaamisesta pienenee.
1.4.4.Tulosindikaattorit
Selvitys siitä, millaisin indikaattorein ehdotuksen/aloitteen toteuttamista seurataan
Indikaattori 1
Vakavien vaaratilanteiden tai sellaisten tekoälyn suoritusten lukumäärä, jotka muodostavat vakavan vaaratilanteen tai perusoikeusvelvoitteiden rikkomisen (puolivuosittain) sovellusaloittain ja laskettuna a) absoluuttisesti, b) käyttöön otettujen sovellusten osuutena ja c) asianomaisten kansalaisten osuutena.
Indikaattori 2
a) Tekoälyyn tehdyt kokonaisinvestoinnit EU:ssa (vuosittain)
b) Tekoälyyn tehdyt kokonaisinvestoinnit jäsenvaltioittain (vuosittain)
c) Tekoälyä käyttävien yritysten osuus (vuosittain)
d) Tekoälyä käyttävien pk-yritysten osuus (vuosittain)
Kohdat a ja b lasketaan virallisten lähteiden perusteella ja niitä verrataan yksityisiin arvioihin.
Kohdat c ja d kerätään säännöllisillä yrityskyselyillä.
1.5.Ehdotuksen/aloitteen perustelut
1.5.1.Tarpeet, joihin ehdotuksella/aloitteella vastataan lyhyellä tai pitkällä aikavälillä sekä aloitteen yksityiskohtainen toteutusaikataulu
Asetusta olisi sovellettava täysimääräisesti puolitoista vuotta sen hyväksymisen jälkeen. Hallintorakenteen osatekijöiden olisi kuitenkin oltava käytössä jo ennen sitä. Jäsenvaltioiden on erityisesti nimettävä aikaisemmin olemassa olevat viranomaiset ja/tai perustettava uusia viranomaisia, jotka hoitavat lainsäädännössä säädettyjä tehtäviä. Myös EU:n tekoälyneuvosto olisi perustettava ja sen olisi oltava toimintavalmis. Tekoälyjärjestelmien eurooppalaisen tietokannan olisi oltava täysin toimintakykyinen soveltamisajankohtaan mennessä. Samanaikaisesti hyväksymisprosessin kanssa on siis tarpeen kehittää tietokantaa, jotta kehitystyö on saatu valmiiksi, kun asetus tulee voimaan.
1.5.2.EU:n osallistumisesta saatava lisäarvo (joka voi olla seurausta eri tekijöistä, kuten koordinoinnin paranemisesta, oikeusvarmuudesta tai toiminnan vaikuttavuuden tai täydentävyyden paranemisesta). EU:n osallistumisesta saatavalla lisäarvolla tarkoitetaan tässä kohdassa arvoa, jonka EU:n osallistuminen tuottaa sen arvon lisäksi, joka olisi saatu aikaan pelkillä jäsenvaltioiden toimilla.
Mahdollisesti toisistaan poikkeavien kansallisten sääntöjen hajanainen kehys haittaa tekoälyjärjestelmien saumatonta tarjontaa EU:ssa eikä varmista tehokkaasti turvallisuutta ja unionin perusoikeuksien ja arvojen suojelua eri jäsenvaltioissa. Tekoälyä koskeva EU:n yhteinen lainsäädäntötoimi voisi edistää sisämarkkinoita, ja sillä olisi hyvät mahdollisuudet tarjota eurooppalaiselle teollisuudelle maailmanlaajuinen kilpailuetu ja mittakaavaetuja, joita jäsenvaltiot eivät voi yksin saavuttaa.
1.5.3.Vastaavista toimista saadut kokemukset
Sähköisestä kaupankäynnistä annetussa direktiivissä 2000/31/EY vahvistetaan keskeiset puitteet sisämarkkinoiden toiminnalle ja digitaalisten palvelujen valvonnalle ja luodaan perusrakenne jäsenvaltioiden väliselle yleiselle yhteistyömekanismille, joka kattaa periaatteessa kaikki digitaalisiin palveluihin sovellettavat vaatimukset. Direktiivin arvioinnissa tuotiin esiin puutteita useilla tämän yhteistyömekanismin osa-alueilla, myös tärkeissä menettelyllisissä näkökohdissa, kuten siinä, ettei jäsenvaltioiden vastauksille ole selkeitä määräaikoja ja ettei pyyntöihin yleensä vastata. Tämä on johtanut vuosien mittaan siihen, että jäsenvaltioiden välillä ei ole luottamusta rajatylittävien digitaalisten palvelujen tarjoajiin liittyvien huolenaiheiden käsittelyyn. Direktiivin arviointi osoitti, että on tarpeen määritellä Euroopan tasolla eriytettyjä sääntöjä ja vaatimuksia. Tästä syystä tässä asetuksessa säädettyjen erityisvelvoitteiden täytäntöönpano edellyttäisi erityistä EU:n tason yhteistyömekanismia, johon kuuluisi hallintorakenne, jolla varmistetaan tiettyjen vastuullisten elinten koordinointi EU:n tasolla.
1.5.4.Yhteensopivuus monivuotisen rahoituskehyksen kanssa ja mahdolliset synergiaedut suhteessa muihin kyseeseen tuleviin välineisiin
Tekoälyä koskevista yhdenmukaistetuista säännöistä ja tiettyjen unionin säädösten muuttamisesta annettavassa asetuksessa määritellään tekoälyjärjestelmiin sovellettavien uusien yhteisten vaatimusten kehys, joka menee huomattavasti voimassa olevassa lainsäädännössä säädettyä kehystä pidemmälle. Tästä syystä tällä ehdotuksella on tarpeen luoda uusi kansallinen ja Euroopan tason sääntely- ja valvontatehtävä.
Mitä tulee mahdollisiin synergioihin muiden asianmukaisten välineiden kanssa, ilmoittamisesta vastaavien kansallisten viranomaisten tehtäviä voivat hoitaa kansalliset viranomaiset, jotka hoitavat vastaavia tehtäviä muiden EU:n säädösten nojalla.
Koska asetus lisää luottamusta tekoälyyn ja kannustaa siten investoimaan tekoälyn kehittämiseen ja käyttöönottoon, se täydentää Digitaalinen Eurooppa -ohjelmaa, jossa tekoälyn levittämisen edistäminen on yksi viidestä painopisteestä.
1.5.5.Arvio käytettävissä olevista rahoitusvaihtoehdoista, mukaan lukien mahdollisuudet määrärahojen uudelleenkohdentamiseen
Henkilöstöä siirretään toisiin tehtäviin. Muut kustannukset katetaan Digitaalinen Eurooppa -ohjelman määrärahoista, koska tämän asetuksen tavoite – luotettavan tekoälyn varmistaminen – edistää suoraan yhtä Digitaalinen Eurooppa -ohjelman keskeistä tavoitetta eli tekoälyn kehittämisen ja käyttöönoton nopeuttamista Euroopassa.
1.6.Ehdotetun toimen/aloitteen kesto ja rahoitusvaikutukset
◻ kesto on rajattu
–◻
toiminta alkaa [PP/KK]VVVV ja päättyy [PP/KK]VVVV.
–◻
maksusitoumusmäärärahoihin kohdistuvat rahoitusvaikutukset koskevat vuosia YYYY–YYYY ja maksumäärärahoihin kohdistuvat rahoitusvaikutukset vuosia YYYY–YYYY.
X kestoa ei ole rajattu
–Käynnistysvaihe yksi/kaksi vuotta (vahvistettava),
–minkä jälkeen toteutus täydessä laajuudessa.
1.7.Hallinnointitapa (Hallinnointitavat)
X Suora hallinnointi, jonka komissio toteuttaa käyttämällä
–◻ yksiköitään, myös unionin edustustoissa olevaa henkilöstöään
–◻ toimeenpanovirastoja
◻ Hallinnointi yhteistyössä jäsenvaltioiden kanssa
◻ Välillinen hallinnointi, jossa täytäntöönpanotehtäviä on siirretty
–◻ kolmansille maille tai niiden nimeämille elimille
–◻ kansainvälisille järjestöille ja niiden erityisjärjestöille (tarkennettava)
–◻ Euroopan investointipankille tai Euroopan investointirahastolle
–◻ varainhoitoasetuksen 70 ja 71 artiklassa tarkoitetuille elimille
–◻ julkisoikeudellisille yhteisöille
–◻ sellaisille julkisen palvelun tehtäviä hoitaville yksityisoikeudellisille elimille, jotka antavat riittävät rahoitustakuut
–◻ sellaisille jäsenvaltion yksityisoikeuden mukaisille elimille, joille on annettu tehtäväksi julkisen ja yksityisen sektorin kumppanuuden täytäntöönpano ja jotka antavat riittävät rahoitustakuut
–◻ henkilöille, joille on annettu tehtäväksi toteuttaa SEU-sopimuksen V osaston mukaisia yhteisen ulko- ja turvallisuuspolitiikan erityistoimia ja jotka nimetään asiaa koskevassa perussäädöksessä.
–Jos käytetään useampaa kuin yhtä hallinnointitapaa, olisi annettava lisätietoja kohdassa ”Huomautukset”.
Huomautukset:
2.HALLINNOINTI
2.1.Seuranta- ja raportointisäännöt
Ilmoitetaan sovellettavat aikavälit ja edellytykset.
Asetusta tarkastellaan uudelleen ja arvioidaan viiden vuoden kuluttua sen voimaantulosta. Komissio raportoi arvioinnin tuloksista Euroopan parlamentille, neuvostolle ja Euroopan talous- ja sosiaalikomitealle.
2.2.Hallinnointi- ja valvontajärjestelmä(t)
2.2.1.Perustelut ehdotetu(i)lle hallinnointitavalle(/-tavoille), rahoituksen toteutusmekanismille(/-mekanismeille), maksujärjestelyille sekä valvontastrategialle
Asetuksessa vahvistetaan uusi toimintapolitiikka, joka koskee yhdenmukaistettuja sääntöjä tekoälyjärjestelmien tarjonnasta sisämarkkinoilla varmistaen samalla turvallisuus ja perusoikeuksien kunnioittaminen. Nämä uudet säännöt edellyttävät yhdenmukaisuusmekanismia tämän asetuksen mukaisten velvoitteiden rajatylittävää soveltamista varten. Se toteutetaan uuden neuvoa-antavan ryhmän muodossa, joka koordinoi kansallisten viranomaisten toimintaa.
Näiden uusien tehtävien hoitamiseksi komission yksiköille pitää antaa tarvittavat resurssit. Uuden asetuksen täytäntöönpanon valvonnan arvioidaan edellyttävän 10 kokoaikavastaavaa työntekijää (5 kokoaikaista työntekijää tekoälyneuvoston toiminnan tukemiseen ja 5 kokoaikaista työntekijää Euroopan tietosuojavaltuutetulle, joka toimii ilmoittamisesta vastaavana viranomaisena Euroopan unionin elinten käyttöön ottamien tekoälyjärjestelmien osalta).
2.2.2.Tiedot todetuista riskeistä ja niiden vähentämiseksi käyttöön otetuista sisäisistä valvontajärjestelmistä
On tarpeen varmistaa, että tekoälyneuvoston jäsenillä on mahdollisuus tehdä tietoon perustuvia analyyseja tosiseikkojen perusteella. Sen vuoksi esitetään, että tekoälyneuvoston työtä tuetaan komission hallintorakenteella ja että perustetaan asiantuntijaryhmä tarjoamaan tarvittaessa lisäasiantuntemusta.
2.2.3.Valvonnan kustannustehokkuutta (valvontakustannusten suhde hallinnoitujen varojen arvoon) koskevat arviot ja perustelut sekä arviot maksujen suoritusajankohdan ja toimen päättämisajankohdan odotetuista virheriskitasoista
Kun otetaan huomioon kokouskulujen alhainen arvo tapahtumaa kohden (esim. kokousedustajan matkakulujen korvaaminen), tavanomaiset valvontamenettelyt vaikuttavat riittäviltä. Tietokannan kehittämisen osalta voidaan todeta, että viestintäverkkojen, sisältöjen ja teknologian pääosastolla (CNECT) on sopimusten myöntämistä varten käytössä vahva sisäinen valvontajärjestelmä keskitettyjen hankintatoimien muodossa.
2.3.Toimenpiteet petosten ja sääntöjenvastaisuuksien ehkäisemiseksi
Ilmoitetaan käytössä olevat ja suunnitellut ehkäisy- ja suojatoimenpiteet, esimerkiksi petostentorjuntastrategian pohjalta
Komissioon nykyisin sovellettavat petostentorjunnan toimenpiteet kattavat tämän asetuksen soveltamiseksi tarvittavat lisämäärärahat.
3.EHDOTUKSEN/ALOITTEEN ARVIOIDUT RAHOITUSVAIKUTUKSET
3.1.Kyseeseen tulevat monivuotisen rahoituskehyksen otsakkeet ja menopuolen budjettikohdat
·Talousarviossa jo olevat budjettikohdat
Monivuotisen rahoituskehyksen otsakkeiden ja budjettikohtien mukaisessa järjestyksessä.
Moni-vuotisen rahoitus-kehyksen otsake
|
Budjettikohta
|
Menolaji
|
Rahoitusosuudet
|
|
Numero
|
JM/ EI-JM
|
EFTA-mailta
|
ehdokas-mailta
|
kolman-silta mailta
|
varainhoito-asetuksen 21 artiklan 2 kohdan b alakohdassa tarkoitetut rahoitusosuudet
|
7
|
20 02 06 Hallintokulut
|
EI-JM
|
EI
|
EI
|
EI
|
EI
|
1
|
02 04 03 Digitaalinen Eurooppa -ohjelma, tekoäly
|
JM
|
KYLLÄ
|
EI
|
EI
|
EI
|
1
|
02 01 30 01 Digitaalinen Eurooppa -ohjelman tukimenot
|
EI-JM
|
KYLLÄ
|
EI
|
EI
|
EI
|
3.2.Arvioidut vaikutukset määrärahoihin
3.2.1.Yhteenveto arvioiduista vaikutuksista toimintamäärärahoihin
–◻
Ehdotus/aloite ei edellytä toimintamäärärahoja.
–X
Ehdotus/aloite edellyttää toimintamäärärahoja seuraavasti:
milj. euroa (kolmen desimaalin tarkkuudella)
Monivuotisen rahoituskehyksen otsake
|
1
|
|
Pääosasto: CNECT
|
|
|
|
Vuosi
2022
|
Vuosi
2023
|
Vuosi
2024
|
Vuosi
2025
|
Vuosi
2026
|
Vuosi
2027
|
YHTEENSÄ
|
• Toimintamäärärahat
|
|
|
|
|
|
|
|
|
Budjettikohta 02 04 03
|
Sitoumukset
|
(1a)
|
|
1.000
|
|
|
|
|
|
1.000
|
|
Maksut
|
(2 a)
|
|
0.600
|
0.100
|
0.100
|
0.100
|
0.100
|
|
1.000
|
Budjettikohta
|
Sitoumukset
|
(1b)
|
|
|
|
|
|
|
|
|
|
Maksut
|
(2b)
|
|
|
|
|
|
|
|
|
Tiettyjen ohjelmien määrärahoista katettavat hallintomäärärahat
|
|
|
|
|
|
|
|
|
Budjettikohta 02 01 30 01
|
|
(3)
|
|
0.240
|
0.240
|
0.240
|
0.240
|
0.240
|
|
1.200
|
PO CNECTin määrärahat YHTEENSÄ
|
Sitoumukset
|
=1a+1b +3
|
|
1.240
|
|
0.240
|
0.240
|
0.240
|
|
2.200
|
|
Maksut
|
=2a+2b
+3
|
|
0.840
|
0.340
|
0.340
|
0.340
|
0.340
|
|
2.200
|
• Toimintamäärärahat YHTEENSÄ
|
Sitoumukset
|
(4)
|
|
1.000
|
|
|
|
|
|
1.000
|
|
Maksut
|
(5)
|
|
0.600
|
0.100
|
0.100
|
0.100
|
0.100
|
|
1.000
|
• Tiettyjen ohjelmien määrärahoista katettavat hallintomäärärahat YHTEENSÄ
|
(6)
|
|
0.240
|
0.240
|
0.240
|
0.240
|
0.240
|
|
1.200
|
Monivuotisen rahoituskehyksen OTSAKKEESEEN 1 kuuluvat määrärahat YHTEENSÄ
|
Sitoumukset
|
=4+ 6
|
|
1.240
|
0.240
|
0.240
|
.0.240
|
0.240
|
|
2.200
|
|
Maksut
|
=5+ 6
|
|
0.840
|
0.340
|
0.340
|
0.340
|
0.340
|
|
2.200
|
Jos ehdotuksella/aloitteella on vaikutuksia useampaan otsakkeeseen, toistetaan edellä oleva osa:
• Toimintamäärärahat (kaikki otsakkeet) YHTEENSÄ
|
Sitoumukset
|
(4)
|
|
|
|
|
|
|
|
|
|
Maksut
|
(5)
|
|
|
|
|
|
|
|
|
• Tiettyjen ohjelmien määrärahoista katettavat hallintomäärärahat (kaikki otsakkeet) YHTEENSÄ
|
(6)
|
|
|
|
|
|
|
|
|
Monivuotisen rahoituskehyksen OTSAKKEISIIN 1–6 kuuluvat määrärahat YHTEENSÄ
(Rahoitusohje)
|
Sitoumukset
|
=4+ 6
|
|
|
|
|
|
|
|
|
|
Maksut
|
=5+ 6
|
|
|
|
|
|
|
|
|
Monivuotisen rahoituskehyksen otsake
|
7
|
”Hallintomenot”
|
Tämän osan täyttämisessä on käytettävä
rahoitusselvityksen liitteessä
(sisäisten sääntöjen liite V) olevaa hallintomäärärahoja koskevaa selvitystä, joka on laadittava ennen rahoitusselvityksen laatimista. Liite ladataan DECIDE-tietokantaan komission sisäistä lausuntokierrosta varten.
milj. euroa (kolmen desimaalin tarkkuudella)
|
|
|
Vuosi
2023
|
Vuosi
2024
|
Vuosi
2025
|
Vuosi
2026
|
Vuosi 2027
|
Vuoden 2027 jälkeen
|
YHTEENSÄ
|
Pääosasto: CNECT
|
• Henkilöresurssit
|
0.760
|
0.760
|
0.760
|
0.760
|
0.760
|
0.760
|
3.800
|
• Muut hallintomenot
|
0.010
|
0.010
|
0.010
|
0.010
|
0.010
|
0.010
|
0.050
|
PO CNECT YHTEENSÄ
|
Määrärahat
|
0.760
|
0.760
|
0.760
|
0.760
|
0.760
|
0.760
|
3.850
|
Euroopan tietosuojavaltuutettu
|
|
• Henkilöresurssit
|
0.760
|
0.760
|
0.760
|
0.760
|
0.760
|
0.760
|
3.800
|
• Muut hallintomenot
|
|
|
|
|
|
|
|
EUROOPAN TIETOSUOJAVALTUUTETUN MENOT YHTEENSÄ
|
Määrärahat
|
0.760
|
0.760
|
0.760
|
0.760
|
0.760
|
0.760
|
3.800
|
Monivuotisen rahoituskehyksen OTSAKKEESEEN 7 kuuluvat määrärahat YHTEENSÄ
|
(Sitoumukset yhteensä = maksut yhteensä)
|
1.530
|
1.530
|
1.530
|
1.530
|
1.530
|
1.530
|
7.650
|
milj. euroa (kolmen desimaalin tarkkuudella)
|
|
|
Vuosi
2022
|
Vuosi
2023
|
Vuosi
2024
|
Vuosi
2025
|
Vuosi 2026
|
Vuosi 2027
|
|
YHTEENSÄ
|
Monivuotisen rahoituskehyksen OTSAKKEISIIN 1–7 kuuluvat määrärahat YHTEENSÄ
|
Sitoumukset
|
|
2.770
|
1.770
|
1.770
|
1.770
|
1.770
|
|
9.850
|
|
Maksut
|
|
2.370
|
1.870
|
1.870
|
1.870
|
1.870
|
9.850
|
3.2.2.Arvioidut toimintamäärärahoista rahoitetut tuotokset
maksusitoumusmäärärahat, milj. euroa (kolmen desimaalin tarkkuudella)
Tavoitteet ja tuotokset
⇩
|
|
|
Vuosi
2022
|
Vuosi
2023
|
Vuosi
2024
|
Vuosi
2025
|
Vuosi
2026
|
Vuosi
2027
|
Vuoden 2027 jälkeen
|
YHTEENSÄ
|
|
TUOTOKSET
|
|
Tyyppi
|
Keskimäär. kustannukset
|
Lkm
|
Kustannus
|
Lkm
|
Kustannus
|
Lkm
|
Kustannus
|
Lkm
|
Kustannus
|
Lkm
|
Kustannus
|
Lkm
|
Kustannus
|
Lkm
|
Kustannus
|
Lukumäärä yhteensä
|
Kustannukset yhteensä
|
ERITYISTAVOITE 1…
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Tietokanta
|
|
|
|
|
1
|
1.000
|
1
|
|
1
|
|
1
|
|
1
|
|
1
|
0.100
|
1
|
1.000
|
Kokoukset – tuotos
|
|
|
|
|
10
|
0.200
|
10
|
0.200
|
10
|
0.200
|
10
|
0.200
|
10
|
0.200
|
10
|
0.200
|
50
|
1.000
|
Tiedotustoimet
|
|
|
|
|
2
|
0.040
|
2
|
0.040
|
2
|
0.040
|
2
|
0.040
|
2
|
0.040
|
2
|
0.040
|
10
|
0.040
|
Välisumma, erityistavoite 1
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ERITYISTAVOITE 2
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
– Tuotos
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Välisumma, erityistavoite 2
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
KAIKKI YHTEENSÄ
|
|
|
13
|
0.240
|
13
|
0.240
|
13
|
0.240
|
13
|
0.240
|
13
|
0.240
|
13
|
0.100
|
65
|
2.200
|
3.2.3.Yhteenveto arvioiduista vaikutuksista hallintomäärärahoihin
–◻
Ehdotus/aloite ei edellytä hallintomäärärahoja.
–X
Ehdotus/aloite edellyttää hallintomäärärahoja seuraavasti:
milj. euroa (kolmen desimaalin tarkkuudella)
|
Vuosi
2022
|
Vuosi
2023
|
Vuosi
2024
|
Vuosi
2025
|
Vuosi
2026
|
Vuosi
2027
|
Vuoden 2027 jälkeen
|
YHTEENSÄ
|
Monivuotisen rahoituskehyksen OTSAKE 7
|
|
|
|
|
|
|
|
|
Henkilöresurssit
|
|
1.520
|
1.520
|
1.520
|
1.520
|
1.520
|
1.520
|
7.600
|
Muut hallintomenot
|
|
0.010
|
0.010
|
0.010
|
0.010
|
0.010
|
0.010
|
0.050
|
Monivuotisen rahoituskehyksen OTSAKE 7, välisumma
|
|
1.530
|
1.530
|
1.530
|
1.530
|
1.530
|
1.530
|
7.650
|
Monivuotisen rahoituskehyksen OTSAKKEESEEN 7 sisältymättömät
|
|
|
|
|
|
|
|
|
Henkilöresurssit
|
|
|
|
|
|
|
|
|
Muut hallintomenot
|
|
0.240
|
0.240
|
0.240
|
0.240
|
0.240
|
0.240
|
1.20
|
Monivuotisen rahoituskehyksen OTSAKKEESEEN 7 sisältymättömät, välisumma
|
|
0.240
|
0.240
|
0.240
|
0.240
|
0.240
|
0.240
|
1.20
|
YHTEENSÄ
|
|
1.770
|
1.770
|
1.770
|
1.770
|
1.770
|
1.770
|
8.850
|
Henkilöresursseja ja muita hallintomenoja koskeva määrärahatarve katetaan toimen hallinnointiin jo osoitetuilla pääosaston määrärahoilla ja/tai pääosastossa toteutettujen uudelleenjärjestelyjen tuloksena saaduilla määrärahoilla sekä tarvittaessa sellaisilla lisäresursseilla, jotka toimea hallinnoiva pääosasto voi saada käyttöönsä vuotuisessa määrärahojen jakomenettelyssä talousarvion puitteissa.
3.2.3.1.Henkilöresurssien arvioitu tarve
–◻
Ehdotus/aloite ei edellytä henkilöresursseja.
–X
Ehdotus/aloite edellyttää henkilöresursseja seuraavasti:
Arvio kokoaikaiseksi henkilöstöksi muutettuna
.
|
|
Vuosi
2023
|
Vuosi 2024
|
Vuosi 2025
|
2026
|
2027
|
Vuoden 2027 jälkeen
|
|
• Henkilöstötaulukkoon sisältyvät virat/toimet (virkamiehet ja väliaikaiset toimihenkilöt)
|
20 01 02 01 (päätoimipaikka ja komission edustustot EU:ssa)
|
10
|
10
|
10
|
10
|
10
|
10
|
|
20 01 02 03 (EU:n ulkopuoliset edustustot)
|
|
|
|
|
|
|
|
01 01 01 01 (epäsuora tutkimustoiminta)
|
|
|
|
|
|
|
|
01 01 01 11 (suora tutkimustoiminta)
|
|
|
|
|
|
|
|
Muu budjettikohta (mikä?)
|
|
|
|
|
|
|
|
• Ulkopuolinen henkilöstö (kokoaikaiseksi muutettuna)
|
20 02 01 (kokonaismäärärahoista katettavat sopimussuhteiset toimihenkilöt, kansalliset asiantuntijat ja vuokrahenkilöstö)
|
|
|
|
|
|
|
|
20 02 03 (sopimussuhteiset ja paikalliset toimihenkilöt, kansalliset asiantuntijat, vuokrahenkilöstö ja nuoremmat asiantuntijat EU:n ulkopuolisissa edustustoissa)
|
|
|
|
|
|
|
|
XX 01 xx yy zz
|
– päätoimipaikassa
|
|
|
|
|
|
|
|
|
– EU:n ulkopuolisissa edustustoissa
|
|
|
|
|
|
|
|
01 01 01 02 (sopimussuhteiset toimihenkilöt, kansalliset asiantuntijat ja vuokrahenkilöstö - epäsuora tutkimustoiminta)
|
|
|
|
|
|
|
|
01 01 01 12 (sopimussuhteiset toimihenkilöt, kansalliset asiantuntijat ja vuokrahenkilöstö - suora tutkimustoiminta)
|
|
|
|
|
|
|
|
Muu budjettikohta (mikä?)
|
|
|
|
|
|
|
|
YHTEENSÄ
|
|
10
|
10
|
10
|
10
|
10
|
10
|
|
XX viittaa kyseessä olevaan toimintalohkoon eli talousarvion osastoon.
Henkilöresurssien tarve katetaan toimen hallinnointiin jo osoitetulla pääosaston henkilöstöllä ja/tai pääosastossa toteutettujen henkilöstön uudelleenjärjestelyjen tuloksena saadulla henkilöstöllä sekä tarvittaessa sellaisilla lisäresursseilla, jotka toimea hallinnoiva pääosasto voi saada käyttöönsä vuotuisessa määrärahojen jakomenettelyssä talousarvion puitteissa.
Euroopan tietosuojavaltuutetun odotetaan antavan puolet tarvittavista resursseista.
Kuvaus henkilöstön tehtävistä:
Virkamiehet ja väliaikaiset toimihenkilöt
|
Jotta voidaan valmistella yhteensä 13–16 kokousta, laatia raporttiluonnoksia, jatkaa toimintapoliittista työtä esimerkiksi suuririskisten tekoälysovellusten luettelon tulevien muutosten osalta ja pitää yllä suhteita jäsenvaltioiden viranomaisiin, tarvitaan neljä kokoaikaista AD-virkamiestä ja yksi kokoaikainen AST-virkamies.
EU:n toimielinten kehittämistä tekoälyjärjestelmistä vastaa Euroopan tietosuojavaltuutettu. Aiempien kokemusten perusteella voidaan arvioida, että Euroopan tietosuojavaltuutetun vastuulle lainsäädäntöluonnoksen mukaisesti kuuluvien tehtävien hoitamiseen tarvitaan viisi kokoaikaista AD-virkamiestä.
|
Ulkopuolinen henkilöstö
|
|
3.2.4.Yhteensopivuus nykyisen monivuotisen rahoituskehyksen kanssa
Ehdotus/aloite
–X
voidaan rahoittaa kokonaan kohdentamalla menoja uudelleen monivuotisen rahoituskehyksen kyseisen otsakkeen sisällä.
Ohjelmia ei tarvitse muuttaa.
–◻
edellyttää monivuotisen rahoituskehyksen kyseiseen otsakkeeseen sisältyvän kohdentamattoman liikkumavaran ja/tai monivuotista rahoituskehystä koskevassa asetuksessa määriteltyjen erityisvälineiden käyttöä.
Selvitys tarvittavista toimenpiteistä, mainittava myös kyseeseen tulevat rahoituskehyksen otsakkeet, budjettikohdat ja määrät sekä ehdotetut välineet.
–◻
edellyttää monivuotisen rahoituskehyksen tarkistamista.
Selvitys tarvittavista toimenpiteistä, mainittava myös kyseeseen tulevat rahoituskehyksen otsakkeet, budjettikohdat ja määrät
3.2.5.Ulkopuolisten tahojen rahoitusosuudet
Ehdotus/aloite
–X
rahoittamiseen ei osallistu ulkopuolisia tahoja
–◻
rahoittamiseen osallistuu ulkopuolisia tahoja seuraavasti (arvio):
Määrärahat, milj. euroa (kolmen desimaalin tarkkuudella)
|
Vuosi
N
|
Vuosi
N+1
|
Vuosi
N+2
|
Vuosi
N+3
|
ja näitä seuraavat vuodet (ilmoitetaan kaikki vuodet, joille ehdotuksen/aloitteen vaikutukset ulottuvat, ks. kohta 1.6)
|
Yhteensä
|
Rahoitukseen osallistuva taho
|
|
|
|
|
|
|
|
|
Yhteisrahoituksella katettavat määrärahat YHTEENSÄ
|
|
|
|
|
|
|
|
|
3.3.Arvioidut vaikutukset tuloihin
–◻
Ehdotuksella/aloitteella on vaikutuksia tuloihin seuraavasti:
–◻
Ehdotuksella/aloitteella on vaikutuksia tuloihin seuraavasti:
–◻
vaikutukset muihin tuloihin
–◻
vaikutukset muihin tuloihin
–tulot on kohdennettu menopuolen budjettikohtiin◻
milj. euroa (kolmen desimaalin tarkkuudella)
Tulopuolen budjettikohta:
|
Käytettävissä olevat määrärahat kuluvana varainhoito-vuonna
|
Ehdotuksen/aloitteen vaikutus
|
|
|
Vuosi
N
|
Vuosi
N+1
|
Vuosi
N+2
|
Vuosi
N+3
|
ja näitä seuraavat vuodet (ilmoitetaan kaikki vuodet, joille ehdotuksen/aloitteen vaikutukset ulottuvat, ks. kohta 1.6)
|
Momentti ….
|
|
|
|
|
|
|
|
|
Vastaava(t) menopuolen budjettikohta (budjettikohdat) käyttötarkoitukseensa sidottujen tulojen tapauksessa:
Muita huomautuksia (esim. tuloihin kohdistuvan vaikutuksen laskentamenetelmä/-kaava tai muita lisätietoja).