This document is an excerpt from the EUR-Lex website
Document 52020IP0275
European Parliament resolution of 20 October 2020 with recommendations to the Commission on a framework of ethical aspects of artificial intelligence, robotics and related technologies (2020/2012(INL))
Euroopan parlamentin päätöslauselma 20. lokakuuta 2020 suosituksista komissiolle tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevien eettisten näkökohtien kehyksestä (2020/2012(INL))
Euroopan parlamentin päätöslauselma 20. lokakuuta 2020 suosituksista komissiolle tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevien eettisten näkökohtien kehyksestä (2020/2012(INL))
EUVL C 404, 6.10.2021, p. 63–106
(BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)
6.10.2021 |
FI |
Euroopan unionin virallinen lehti |
C 404/63 |
P9_TA(2020)0275
Tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevien eettisten näkökohtien kehys
Euroopan parlamentin päätöslauselma 20. lokakuuta 2020 suosituksista komissiolle tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevien eettisten näkökohtien kehyksestä (2020/2012(INL))
(2021/C 404/04)
Euroopan parlamentti, joka
— |
ottaa huomioon Euroopan unionin toiminnasta tehdyn sopimuksen 225 artiklan, |
— |
ottaa huomioon Euroopan unionin toiminnasta tehdyn sopimuksen 114 artiklan, |
— |
ottaa huomioon Euroopan unionin perusoikeuskirjan, |
— |
ottaa huomioon Euroopan suurteholaskennan yhteisyrityksen perustamisesta 28. syyskuuta 2018 annetun neuvoston asetuksen (EU) 2018/1488 (1), |
— |
ottaa huomioon rodusta tai etnisestä alkuperästä riippumattoman yhdenvertaisen kohtelun periaatteen täytäntöönpanosta 29. kesäkuuta 2000 annetun neuvoston direktiivin 2000/43/EY (2) (rotujen välistä tasa-arvoa koskeva direktiivi), |
— |
ottaa huomioon yhdenvertaista kohtelua työssä ja ammatissa koskevista yleisistä puitteista 27. marraskuuta 2000 annetun neuvoston direktiivin 2000/78/EY (3) (yhdenvertaista kohtelua työssä koskeva direktiivi), |
— |
ottaa huomioon luonnollisten henkilöiden suojelusta henkilötietojen käsittelyssä sekä näiden tietojen vapaasta liikkuvuudesta ja direktiivin 95/46/EY kumoamisesta 27. huhtikuuta 2016 annetun Euroopan parlamentin ja neuvoston asetuksen (EU) 2016/679 (yleinen tietosuoja-asetus) (4) sekä luonnollisten henkilöiden suojelusta toimivaltaisten viranomaisten suorittamassa henkilötietojen käsittelyssä rikosten ennalta estämistä, tutkimista, paljastamista tai rikoksiin liittyviä syytetoimia tai rikosoikeudellisten seuraamusten täytäntöönpanoa varten sekä näiden tietojen vapaasta liikkuvuudesta ja neuvoston puitepäätöksen 2008/977/YOS kumoamisesta 27. huhtikuuta 2016 annetun Euroopan parlamentin ja neuvoston direktiivin (EU) 2016/680 (5), |
— |
ottaa huomioon 13. huhtikuuta 2016 tehdyn toimielinten välisen sopimuksen paremmasta lainsäädännöstä (6), |
— |
ottaa huomioon 6. kesäkuuta 2018 annetun ehdotuksen Euroopan parlamentin ja neuvoston asetukseksi Digitaalinen Eurooppa -ohjelman perustamisesta vuosiksi 2021–2027 (COM(2018)0434), |
— |
ottaa huomioon 11. joulukuuta 2019 annetun komission tiedonannon Euroopan parlamentille, neuvostolle, Euroopan talous- ja sosiaalikomitealle sekä alueiden komitealle Euroopan vihreän kehityksen ohjelmasta (COM(2019)0640), |
— |
ottaa huomioon 19. helmikuuta 2020 annetun komission tiedonannon Euroopan parlamentille, neuvostolle, Euroopan talous- ja sosiaalikomitealle sekä alueiden komitealle aiheesta ”Tekoäly – Eurooppalainen lähestymistapa huippuosaamiseen ja luottamukseen” (COM(2020)0065), |
— |
ottaa huomioon 19. helmikuuta 2020 annetun komission tiedonannon Euroopan parlamentille, neuvostolle, Euroopan talous- ja sosiaalikomitealle sekä alueiden komitealle Euroopan datastrategiasta (COM(2020)0066), |
— |
ottaa huomioon 19. helmikuuta 2020 annetun komission tiedonannon Euroopan parlamentille, neuvostolle, Euroopan talous- ja sosiaalikomitealle sekä alueiden komitealle aiheesta ”Euroopan digitaalista tulevaisuutta rakentamassa” (COM(2020)0067), |
— |
ottaa huomioon kesäkuussa 2020 annetut Euroopan unionin neuvoston päätelmät Euroopan digitaalisen tulevaisuuden rakentamisesta, |
— |
ottaa huomioon 16. helmikuuta 2017 antamansa päätöslauselman suosituksista komissiolle robotiikkaa koskevista yksityisoikeudellisista säännöistä (7), |
— |
ottaa huomioon 1. kesäkuuta 2017 antamansa päätöslauselman Euroopan teollisuuden digitalisoinnista (8), |
— |
ottaa huomioon 12. syyskuuta 2018 antamansa päätöslauselman autonomisista asejärjestelmistä (9), |
— |
ottaa huomioon 11. syyskuuta 2018 antamansa päätöslauselman kielellisestä tasa-arvosta digitaaliajalla (10), |
— |
ottaa huomioon 12. helmikuuta 2019 antamansa päätöslauselman tekoälyä ja robotiikkaa koskevasta kokonaisvaltaisesta Euroopan unionin teollisuuspolitiikasta (11), |
— |
ottaa huomioon 8. huhtikuuta 2019 julkaistun komission perustaman tekoälyä käsittelevän korkean tason asiantuntijaryhmän asiakirjan ”Luotettavaa tekoälyä koskevat eettiset ohjeet”, |
— |
ottaa huomioon Euroopan parlamentin tutkimuspalvelun toteuttaman Euroopan tason lisäarvon arvioinnin ”European framework on ethical aspects of artificial intelligence, robotics and related technologies: European Added Value Assessment” (12), |
— |
ottaa huomioon seuraavat katsaukset ja selvitykset, jotka valmisteltiin Euroopan parlamentin tutkimuspalveluun kuuluvan, tulevaisuuden ennakoinnin tutkimusyksikössä toimivan tieteen ja tekniikan tulevaisuuspaneelin (STOA) pyynnöstä: ”What if algorithms could abide by ethical principles?”, ”Artificial Intelligence ante portas: Legal & ethical reflections”, ”A governance framework for algorithmic accountability and transparency”, ”Should we fear artificial intelligence?” ja ”The ethics of artificial intelligence: Issues and initiatives”, |
— |
ottaa huomioon kansallisten vähemmistöjen suojelua koskevan Euroopan neuvoston puiteyleissopimuksen, ihmisoikeuksien ja perusvapauksien suojaamiseksi tehdyn yleissopimuksen kahdennentoista pöytäkirjan sekä alueellisia kieliä tai vähemmistökieliä koskevan eurooppalaisen peruskirjan, |
— |
ottaa huomioon 22. toukokuuta 2019 annetun OECD:n neuvoston suosituksen tekoälystä, |
— |
ottaa huomioon työjärjestyksen 47 ja 54 artiklan, |
— |
ottaa huomioon ulkoasiainvaliokunnan, sisämarkkina- ja kuluttajansuojavaliokunnan, liikenne- ja matkailuvaliokunnan, kansalaisvapauksien sekä oikeus- ja sisäasioiden valiokunnan, työllisyyden ja sosiaaliasioiden valiokunnan, ympäristön, kansanterveyden ja elintarvikkeiden turvallisuuden valiokunnan sekä kulttuuri- ja koulutusvaliokunnan lausunnot, |
— |
ottaa huomioon oikeudellisten asioiden valiokunnan mietinnön (A9-0186/2020), |
Johdanto
A. |
ottaa huomioon, että ihmiset vastaavat tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämisestä, käyttöönotosta ja käytöstä ja että heidän valintansa ratkaisevat, miten tällainen teknologia voi hyödyttää yhteiskuntaa; |
B. |
ottaa huomioon, että tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa edistetään ja kehitetään nopeaa tahtia, ja toteaa, että ne voivat tuoda mahdollisuuksia yrityksille ja hyötyjä kansalaisille sekä vaikuttaa suoraan kaikkiin yhteiskuntiemme osa-alueisiin, perusoikeudet sekä sosiaaliset ja taloudelliset periaatteet ja arvot mukaan lukien, ja että niillä voi olla pysyviä vaikutuksia kaikilla elämänaloilla; |
C. |
ottaa huomioon, että tekoäly, robotiikka ja niihin liittyvä teknologia tuovat tullessaan merkittäviä muutoksia työmarkkinoille ja työpaikoille; toteaa, että ne voivat mahdollisesti korvata toistuvia työtehtäviä suorittavia työntekijöitä, helpottaa yhteistyöhön perustuvia ihminen-konejärjestelmiä, lisätä kilpailukykyä ja vaurautta sekä luoda uusia työmahdollisuuksia päteville työntekijöille, mutta huomauttaa, että ne merkitsevät myös vakavaa haastetta työvoiman uudelleenorganisoinnille; |
D. |
ottaa huomioon, että tekoälyn, robotiikan ja niihin liittyvän teknologian kehittäminen voi myös auttaa saavuttamaan Euroopan vihreän kehityksen ohjelman kestävyystavoitteet monilla eri aloilla; toteaa, että digitaaliteknologiat voivat tehostaa ympäristönsuojelutoimien vaikutusta; ottaa huomioon, että niiden avulla voidaan myös vähentää liikenneruuhkia sekä kasvihuonekaasujen ja ilman epäpuhtauksien päästöjä; |
E. |
ottaa huomioon, että esimerkiksi julkisessa liikenteessä tekoälyn tukemia älykkäitä liikennejärjestelmiä voidaan käyttää minimoimaan jonoja, optimoimaan reittisuunnittelua, lisäämään vammaisten henkilöiden itsenäisyyttä ja parantamaan energiatehokkuutta, jolloin tehostetaan hiilestä irtautumista ja pienennetään ympäristöjalanjälkeä; |
F. |
toteaa, että tällaiset teknologiat luovat uusia liiketoimintamahdollisuuksia, jotka voivat myötävaikuttaa unionin teollisuuden elpymiseen tämänhetkisestä terveys- ja talouskriisistä, jos niitä hyödynnetään paremmin esimerkiksi liikennealalla; toteaa, että nämä mahdollisuudet voivat synnyttää uusia työpaikkoja, koska näiden teknologioiden käyttöönotto voi lisätä yritysten tuottavuutta ja tuottaa tehokkuushyötyjä; huomauttaa, että tämän alan innovointiohjelmat voivat auttaa alueellisia klustereita menestymään; |
G. |
ottaa huomioon, että unionilla ja sen jäsenvaltioilla on erityinen vastuu hyödyntää, edistää ja tehostaa tekoälystä saatavaa lisäarvoa sekä varmistaa, että tekoälyteknologiat ovat turvallisia ja edistävät kansalaisten hyvinvointia ja yleistä etua, sillä ne voivat edesauttaa suuresti yhteistä tavoitettamme parantaa kansalaisten elämää ja lisätä vaurautta unionissa tukemalla parempien strategioiden kehittämistä ja innovointia eri aloilla ja sektoreilla; toteaa, että jotta voitaisiin hyödyntää tekoälyn koko potentiaali ja saada käyttäjät tiedostamaan tekoälyteknologioiden tuomat hyödyt ja haasteet, on tarpeen ottaa tekoäly- tai digilukutaito osaksi koulutusta, myös edistämällä digitaalista osallisuutta, ja toteuttaa unionin tasolla tiedotuskampanjoita, joissa annetaan paikkansapitävä kuva tekoälyn kehityksen kaikista näkökohdista; |
H. |
katsoo, että tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä, käyttöönottoa ja käyttöä koskevan yhteisen unionin sääntelykehyksen myötä kansalaisten pitäisi voida jakaa niiden potentiaaliin liittyvät hyödyt samalla, kun heitä suojellaan näiden teknologioiden mahdollisilta riskeiltä ja edistetään niiden luotettavuutta unionissa ja muualla; toteaa, että tällaisen kehyksen olisi perustuttava unionin oikeuteen ja arvoihin ja siinä olisi noudatettava läpinäkyvyyden, selitettävyyden, oikeudenmukaisuuden, vastuuvelvollisuuden ja vastuullisuuden periaatteita; |
I. |
katsoo, että tällainen sääntelykehys on olennaisen tärkeä, jotta voidaan välttää kansallisen lainsäädännön eroista johtuva hajanaisuus sisämarkkinoilla, ja sen avulla voidaan edistää kipeästi kaivattuja investointeja, kehittää datainfrastruktuuria ja tukea tutkimusta; toteaa, että kehyksen olisi koostuttava yhteisistä oikeudellisista velvoitteista ja eettisistä periaatteista, joista säädetään tämän päätöslauselman liitteenä olevassa ehdotuksessa asetukseksi; katsoo, että sääntelykehys olisi laadittava paremman sääntelyn suuntaviivojen mukaisesti; |
J. |
ottaa huomioon, että unionissa on otettu käyttöön tiukka lainsäädäntökehys muun muassa henkilötietojen ja yksityisyyden suojan sekä syrjimättömyyden varmistamiseksi ja sukupuolten tasa-arvon, ympäristönsuojelun ja kuluttajien oikeuksien edistämiseksi; toteaa, että tätä lainsäädäntökehystä, johon sisältyy laaja horisontaalinen ja alakohtainen lainsäädäntö, mukaan lukien voimassa olevat tuoteturvallisuus- ja tuotevastuusäännöt, sovelletaan jatkossakin tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan, vaikka tiettyihin säädöksiin saattaa olla tarpeen tehdä eräitä mukautuksia, jotta voidaan ottaa huomioon digitalisaatio ja vastata tekoälyn käytöstä aiheutuviin uusiin haasteisiin; |
K. |
toteaa, että unionin nykyinen oikeudellinen kehys, mukaan lukien kuluttajalainsäädäntö ja työllisyys- ja sosiaalialan säännöstö, tietosuojalainsäädäntö, tuoteturvallisuus- ja markkinavalvontalainsäädäntö sekä syrjinnän vastainen lainsäädäntö, ei välttämättä enää sovellu torjumaan tehokkaasti tekoälyn, robotiikan ja niihin liittyvän teknologian aiheuttamia riskejä; |
L. |
katsoo, että voimassa olevaan lainsäädäntöön tehtävien mukautusten lisäksi tekoälyteknologioihin liittyviä oikeudellisia ja eettisiä kysymyksiä olisi käsiteltävä toimivassa, kattavassa ja tulevaisuuden vaatimukset huomioon ottavassa unionin sääntelykehyksessä, joka ilmentää perussopimuksissa ja Euroopan unionin perusoikeuskirjassa, jäljempänä ”perusoikeuskirja”, vahvistettuja unionin periaatteita ja arvoja; toteaa, että tällaisessa kehyksessä olisi vältettävä ylisääntelyä niin, että siinä ainoastaan korjataan nykyisen lainsäädännön porsaanreiät, ja sillä olisi lisättävä niin yritysten kuin kansalaisten oikeusvarmuutta sisällyttämällä siihen pakollisia toimenpiteitä, joilla estetään käytännöt, jotka kiistatta heikentäisivät perusoikeuksia; |
M. |
toteaa, että uudessa sääntelykehyksessä on otettava huomioon kaikki asiaan liittyvät edut; katsoo, että uuden sääntelykehyksen seuraukset kaikille toimijoille olisi tutkittava huolellisesti vaikutustenarvioinnissa ja että tämän olisi oltava edellytyksenä muille lainsäädäntötoimille; toteaa, että pienillä ja keskisuurilla yrityksillä, jäljempänä ”pk-yritykset”, ja startup-yrityksillä on keskeinen rooli varsinkin unionin taloudessa, joten on perusteltua noudattaa ehdottoman oikeasuhteista lähestymistapaa, jotta ne voivat kehittyä ja innovoida; |
N. |
toteaa, että tekoälyllä, robotiikalla ja niihin liittyvällä teknologialla voi olla vakavia seurauksia yksittäisten ihmisten, ryhmien ja koko yhteiskunnan aineellisen ja aineettoman koskemattomuuden kannalta ja että mahdollisiin yksilölle tai yhteisölle aiheutuviin vahinkoihin on puututtava lainsäädännöllä; |
O. |
toteaa, että unionin liikennealaa koskevia erityissääntöjä voi olla tarpeen mukauttaa, jotta ne olisivat tekoälyä koskevan unionin sääntelykehyksen mukaisia; |
P. |
ottaa huomioon, että tekoälyteknologioilla on strategista merkitystä liikennealalle, myös siksi, että ne parantavat kaikkien liikennemuotojen turvallisuutta ja saavutettavuutta ja luovat uusia työllistymismahdollisuuksia ja kestävämpiä liiketoimintamalleja; katsoo, että liikennealan tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä koskevalla unionin lähestymistavalla on mahdollista lisätä unionin talouden globaalia kilpailukykyä ja strategista riippumattomuutta; |
Q. |
huomauttaa, että inhimillinen virhe on yhä taustalla noin 95 prosentissa unionin kaikista tieliikenneonnettomuuksista; toteaa, että unionin tavoitteena oli vähentää vuoteen 2020 mennessä vuotuista tieliikennekuolemien määrää 50 prosenttia vuoteen 2010 verrattuna, mutta kehityksen pysähdyttyä työtä jatketaan EU:n tieliikenneturvallisuuspolitiikan puitteissa vuosiksi 2021–2030 määrittämällä seuraavat toimet nollavisiotavoitteen saavuttamiseksi; huomauttaa, että tekoäly, automaatio ja muut uudet teknologiat tarjoavat valtavan potentiaalin ja ovat elintärkeitä liikenneturvallisuuden parantamiseksi, kun ne vähentävät inhimillisten virheiden mahdollisuuksia; |
R. |
toteaa, että tekoälyä koskevassa unionin sääntelykehyksessä olisi huomioitava myös tarve varmistaa, että työntekijöiden oikeuksia kunnioitetaan; katsoo, että siinä olisi otettava huomioon kesäkuussa 2020 tehty Euroopan tason työmarkkinaosapuolten puitesopimus digitalisaatiosta; |
S. |
toteaa, että tekoälyä koskevan unionin sääntelykehyksen soveltamisalan olisi oltava asianmukainen, oikeasuhteinen ja perusteellisesti arvioitu; katsoo, että kehyksen olisi katettava laaja valikoima teknologioita ja niiden komponentteja, mukaan lukien niiden käyttämät tai tuottamat algoritmit, ohjelmistot ja data, ja että tarvitaan kohdennettua riskiperusteista lähestymistapaa, jottei estetä tulevaa innovointia eikä luoda tarpeettomia rasitteita, etenkään pk-yrityksille; huomauttaa, että tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa käyttävien sovellusten kirjo on niin laaja, että on vaikea löytää yhtä ainoaa ratkaisua, joka toimisi kaikkiin mahdollisiin riskeihin; |
T. |
toteaa, että data-analyysi ja tekoäly vaikuttavat yhä enemmän kansalaisten saatavilla olevaan tietoon; katsoo, että jos tällaisia teknologioita käytetään väärin, ne saattavat vaarantaa perustavaa laatua olevat oikeudet sananvapauteen ja tiedonvälityksen vapauteen sekä tiedotusvälineiden vapauden ja moniarvoisuuden; |
U. |
toteaa, että tekoälyä koskevan unionin sääntelykehyksen maantieteellisen soveltamisalan olisi katettava kaikki unionissa kehitetyn, käyttöön otetun tai käytetyn tekoälyn, robotiikan ja niihin liittyvän teknologian osa-alueet, myös silloin kun osa teknologiasta saattaa sijaita unionin ulkopuolella tai sillä ei ole tiettyä sijaintipaikkaa; |
V. |
katsoo, että tekoälyä koskevan unionin sääntelykehyksen olisi katettava kaikki olennaiset vaiheet, nimittäin asiaan liittyvien teknologioiden ja niiden komponenttien kehittäminen, käyttöönotto ja käyttö, ja siinä olisi otettava asiaankuuluvasti huomioon tähän liittyvät oikeudelliset velvoitteet ja eettiset periaatteet sekä vahvistettava edellytykset sen varmistamiseksi, että kehittäjät, käyttöönottajat ja käyttäjät toimivat kaikilta osin näiden velvoitteiden ja periaatteiden mukaisesti; |
W. |
ottaa huomioon, että yhdenmukainen lähestymistapa tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskeviin eettisiin periaatteisiin edellyttää, että unionissa vallitsee yhteisymmärrys teknologioiden perustana olevista käsitteistä, kuten algoritmeista, ohjelmistoista, datasta tai biometrisestä tunnistuksesta; |
X. |
katsoo, että unionin tason toimet ovat perusteltuja, koska on vältettävä hajanaista sääntelyä tai kansallisia säännöksiä, joilla ei ole yhteistä nimittäjää, ja varmistettava laissa vahvistettujen yhteisten eettisten periaatteiden yhtenäinen soveltaminen kehitettäessä, otettaessa käyttöön ja käytettäessä tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa; toteaa, että selkeitä sääntöjä tarvitaan, kun riskit ovat merkittävät; |
Y. |
ottaa huomioon, että yhteiset eettiset periaatteet ovat tehokkaita vain, kun ne on vahvistettu myös laissa ja kun niiden noudattamisen varmistamisesta, arvioinnista ja seurannasta vastaavat tahot on määritetty; |
Z. |
toteaa, että eettinen ohjeistus, kuten tekoälyä käsittelevän korkean tason asiantuntijaryhmän hyväksymät periaatteet, on hyvä lähtökohta, mutta sillä ei voida varmistaa, että kehittäjät, käyttöönottajat ja käyttäjät toimivat oikeudenmukaisesti ja takaavat tehokkaan yksilöiden suojan; huomauttaa, että ohjeistus on sitäkin tärkeämpää suuririskisen tekoälyn, robotiikan ja niihin liittyvän teknologian tapauksessa; |
AA. |
katsoo, että kunkin jäsenvaltion olisi nimettävä kansallinen valvontaviranomainen, jonka vastuulla on varmistaa, arvioida ja seurata, että suuririskisen tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämisessä, käyttöönotossa ja käytössä noudatetaan tekoälyä koskevaa unionin sääntelykehystä, sekä mahdollistaa keskustelu ja näkemystenvaihto tiiviissä yhteistyössä asiaankuuluvien sidosryhmien ja kansalaisyhteiskunnan kanssa; toteaa, että kansallisten valvontaviranomaisten olisi tehtävä yhteistyötä keskenään; |
AB. |
toteaa, että jotta voitaisiin varmistaa yhdenmukainen lähestymistapa koko unionissa ja digitaalisten sisämarkkinoiden optimaalinen toiminta, olisi harkittava komission ja/tai tätä varten mahdollisesti nimettävien asiaankuuluvien unionin toimielinten, elinten, toimistojen tai virastojen toteuttamaa unionin tason koordinointia sen suhteen, millaisia uusia, erityisesti rajatylittäviä mahdollisuuksia ja haasteita teknologian jatkuvaan kehitykseen liittyy; katsoo, että komissiolle olisi annettava tehtäväksi löytää sopiva ratkaisu tällaisen unionin tason koordinoinnin jäsentämiseen; |
Ihmiskeskeinen ja ihmisen luoma tekoäly
1. |
katsoo, että alakohtaista lainsäädäntöä rajoittamatta tarvitaan toimiva ja yhdenmukainen sääntelykehys, joka perustuu unionin oikeuteen, perusoikeuskirjaan ja ihmisoikeuksia koskevaan kansainväliseen oikeuteen; toteaa, että kehystä on sovellettava erityisesti suuririskiseen teknologiaan, jotta voidaan vahvistaa yhtäläiset vaatimukset kaikkialla unionissa ja suojella tehokkaasti unionin arvoja; |
2. |
katsoo, että tekoälyä koskevassa uudessa sääntelykehyksessä, joka koostuu tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä, käyttöönottoa ja käyttöä koskevista oikeudellisista velvoitteista ja eettisistä periaatteista, olisi kaikilta osin noudatettava perusoikeuskirjaa; toteaa, että kehyksessä olisi siten kunnioitettava ihmisarvoa, yksilön autonomiaa ja itsemääräämisoikeutta, vältettävä vahinkoja, edistettävä oikeudenmukaisuutta, osallistavuutta ja läpinäkyvyyttä, poistettava vääristymiä ja syrjintää, myös vähemmistöryhmien kohdalla, sekä kunnioitettava ja noudatettava periaatteita, jotka koskevat käytettävän teknologian kielteisten ulkoisvaikutusten rajoittamista, teknologian selitettävyyden varmistamista ja sen takaamista, että teknologian tehtävänä on palvella ihmisiä eikä korvata heitä tai päättää heidän puolestaan, siten, että perimmäisenä tavoitteena on lisätä jokaisen ihmisen hyvinvointia; |
3. |
korostaa epäsymmetrisyyttä tekoälyteknologioita käyttävien sekä niiden kanssa vuorovaikutuksessa ja niiden kohteena olevien tahojen välillä; korostaakin, että kansalaisten luottamusta tekoälyyn voidaan rakentaa ainoastaan sellaisen oletusarvoisen ja sisäänrakennetun eettisyyden takaavan sääntelykehyksen varassa, jolla varmistetaan, että kaikissa käyttöön otetuissa tekoälysovelluksissa kunnioitetaan ja noudatetaan kaikilta osin perussopimuksia, perusoikeuskirjaa ja johdettua unionin oikeutta; katsoo, että tällaisen toimintatavan olisi oltava sopusoinnussa unionin lainsäädäntöä ohjaavan ennalta varautumisen periaatteen kanssa ja keskeisellä sijalla tekoälyä koskevassa sääntelykehyksessä; kehottaa tässä yhteydessä ottamaan käyttöön selkeän ja johdonmukaisen hallintomallin, jonka avulla yritykset ja innovoijat voivat kehittää edelleen tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa; |
4. |
katsoo, että tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevien lainsäädäntötoimien olisi oltava tarpeellisuus- ja suhteellisuusperiaatteiden mukaisia; |
5. |
katsoo, että tällaisen lähestymistavan myötä yritykset voivat tuoda markkinoille innovatiivisia tuotteita ja luoda uusia mahdollisuuksia ja samalla varmistetaan unionin arvojen suojelu, sillä se johtaa sellaisten tekoälyjärjestelmien kehittämiseen, joihin on sisäänrakennettu unionin eettiset periaatteet; katsoo, että arvoihin perustuva sääntelykehys toisi lisäarvoa, sillä se antaisi unionille ainutlaatuisen kilpailuedun ja edistäisi merkittävästi unionin kansalaisten ja yritysten hyvinvointia ja vaurautta vauhdittamalla sisämarkkinoiden toimintaa; korostaa, että tällainen tekoälyä koskeva sääntelykehys tuo lisäarvoa myös edistämällä innovointia sisämarkkinoilla; katsoo, että esimerkiksi liikennesektorilla tämä lähestymistapa antaa unionin yrityksille mahdollisuuden nousta alalla globaaliin johtoasemaan; |
6. |
huomauttaa, että tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan, mukaan lukien tällaisen teknologian käyttämät tai tuottamat ohjelmistot, algoritmit ja data, olisi sovellettava unionin oikeudellista kehystä; |
7. |
toteaa, että tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan perustuvat mahdollisuudet edellyttävät massadataa ja että algoritmien kouluttamiseen ja tulosten tarkentamiseen tarvitaan tietty vähimmäismäärä dataa; pitää tässä yhteydessä myönteisenä komission ehdotusta yhteisen data-avaruuden perustamisesta unioniin tietojenvaihdon tehostamiseksi ja tutkimuksen tukemiseksi unionin tietosuojasääntöjä täysin noudattaen; |
8. |
katsoo, että etenkin yksityisyyden ja henkilötietojen suojaa koskevaa unionin nykyistä oikeudellista kehystä on sovellettava kaikilta osin tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan ja että sitä on tarkasteltava ja tutkittava säännöllisesti ja päivitettävä tarvittaessa, jotta voidaan puuttua tehokkaasti näiden teknologioiden riskeihin; katsoo, että kehystä olisi tältä osin hyvä täydentää vahvoilla ohjaavilla eettisillä periaatteilla; huomauttaa, että tapauksissa, joissa säädösten antaminen olisi ennenaikaista, olisi käytettävä ei-sitovia oikeuslähteitä; |
9. |
odottaa, että jatkotoimena tekoälyä koskevalle valkoiselle kirjalle komissio sisällyttää tämän päätöslauselman liitteessä pyydettyyn lainsäädäntöehdotukseen vahvan eettisen lähestymistavan, joka koskee muun muassa turvallisuutta, vastuuta ja perusoikeuksia ja jolla maksimoidaan tekoälyteknologioiden mahdollisuudet ja minimoidaan niiden riskit; odottaa, että pyydetty lainsäädäntöehdotus sisältää toimintapoliittisia ratkaisuja tekoälyn suurimpiin tunnistettuihin riskeihin, jotka koskevat muun muassa massadatan eettistä keruuta ja käyttöä sekä algoritmien läpinäkyvyyttä ja niiden vääristymiä; kehottaa komissiota laatimaan tekoälyteknologian merkitsemiseksi kriteerejä ja indikaattoreita, jotta voidaan parantaa läpinäkyvyyttä, selitettävyyttä ja vastuuvelvollisuutta ja kannustaa kehittäjiä toteuttamaan täydentäviä varotoimia; korostaa tarvetta panostaa siihen, että tekoälytutkimukseen sisällytetään muita kuin teknisiä tieteenaloja sosiaalinen konteksti huomioon ottaen; |
10. |
katsoo, että tekoäly, robotiikka ja niihin liittyvä teknologia on räätälöitävä ihmisen tarpeisiin noudattaen periaatetta, että niiden kehittämisen, käyttöönoton ja käytön olisi aina palveltava ihmisiä eikä ikinä päinvastoin; toteaa, että niillä olisi pyrittävä lisäämään hyvinvointia ja yksilönvapautta sekä säilyttämään rauha, estämään konfliktit ja lujittamaan kansainvälistä turvallisuutta samalla, kun maksimoidaan niiden hyödyt ja ehkäistään ja vähennetään niiden riskejä; |
11. |
toteaa, että ihmisten mutta myös muiden toteuttamassa suuririskisen tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämisessä, käyttöönotossa ja käytössä olisi aina toimittava eettisesti ja kunnioitettava ihmisen toimijuutta ja demokraattista valvontaa ja mahdollistettava ne ja että niissä olisi tarvittaessa pystyttävä palauttamaan ihmisen valvonta toteuttamalla asianmukaisia valvontatoimenpiteitä; |
Riskinarviointi
12. |
korostaa, että tulevassa kehyksessä olisi sovellettava tekoälyn, robotiikan ja niihin liittyvän teknologian sääntelyyn eriytettyä ja tulevaisuuteen suuntautuvaa riskiperusteista lähestymistapaa, johon sisältyy teknologianeutraaleja vaatimuksia kaikilla aloilla ja tapauksen mukaan alakohtaisia vaatimuksia; huomauttaa, että suuririskisistä aloista ja käyttötarkoituksista on laadittava tyhjentävä ja kumulatiivinen luettelo, jotta varmistetaan, että riskinarviointijärjestelmä pannaan yhdenmukaisesti täytäntöön ja että oikeudellisia velvoitteita noudatetaan jäsenvaltioiden tasapuolisten toimintaedellytysten varmistamiseksi ja sisämarkkinoiden hajanaisuuden estämiseksi; korostaa, että luetteloa on arvioitava säännöllisesti uudelleen, ja toteaa, että näiden teknologioiden kehittyessä tulevaisuudessa voidaan joutua arvioimaan uudelleen tapa, jolla riskinarviointi toteutetaan; |
13. |
katsoo, että se, onko tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa pidettävä suuririskisinä ja onko niiden yhteydessä siten pakollista noudattaa tekoälyä koskevassa sääntelykehyksessä vahvistettuja oikeudellisia velvoitteita ja eettisiä periaatteita, olisi aina ratkaistava puolueettoman ja säännellyn ulkopuolisen arvioinnin perusteella ja konkreettisia ja ennalta määritettyjä kriteerejä käyttäen; |
14. |
katsoo, että tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa olisi pidettävä suuririskisinä silloin, kun niiden kehittämiseen, käyttöönottoon ja käyttöön liittyy merkittävä riski vahingon tai haitan aiheuttamisesta yksittäisille ihmisille tai yhteiskunnalle unionin lainsäädännössä vahvistettujen perusoikeuksien ja turvallisuussääntöjen vastaisesti; katsoo, että arvioitaessa, liittyykö tekoälyteknologioihin tällainen riski, olisi otettava huomioon, millä alalla niitä kehitetään, otetaan käyttöön tai käytetään, mikä on niiden täsmällinen käyttötarkoitus ja miten vakava odotettavissa oleva vahinko tai haitta on; toteaa, että ensimmäinen ja toinen kriteeri eli alan ja käyttötarkoituksen kriteerit olisi huomioitava kumuloituvasti; |
15. |
painottaa, että tällaisten teknologioiden riskinarviointi olisi tehtävä suuririskisiä aloja ja käyttötarkoituksia koskevan tyhjentävän ja kumulatiivisen luettelon perusteella; uskoo vahvasti, että unionissa olisi toimittava johdonmukaisesti näiden teknologioiden riskinarvioinnissa, etenkin kun arvioidaan, onko niissä noudatettu tekoälyä koskevaa sääntelykehystä ja myös muuta mahdollisesti sovellettavaa alakohtaista lainsäädäntöä; |
16. |
katsoo, että riskiperusteisen lähestymistavan kehittämisessä olisi rajoitettava yritysten ja erityisesti pk-yritysten hallinnollista taakkaa käyttämällä mahdollisimman paljon olemassa olevia välineitä; toteaa, että näihin välineisiin kuuluu esimerkiksi asetuksessa (EU) 2016/679 säädetty tietosuojaa koskeva vaikutustenarviointi; |
Turvallisuusvaatimukset, läpinäkyvyys ja vastuuvelvollisuus
17. |
palauttaa mieliin, että kuluttajien oikeus tietoon on ankkuroitu unionin oikeuteen keskeisenä periaatteena, ja korostaa, että sen olisi tämän vuoksi toteuduttava kaikilta osin tekoälyn, robotiikan ja niihin liittyvän teknologian yhteydessä; katsoo, että siihen olisi erityisesti sisällyttävä läpinäkyvyys, joka koskee vuorovaikutusta tekoälyjärjestelmien kanssa, mukaan lukien automaatioprosessit, ja niiden toimintatapaa ja valmiuksia, esimerkiksi tiedon suodatus- ja esitystapaa sekä tarkkuutta ja rajoituksia; katsoo, että tällaisia tietoja olisi annettava kansallisille valvontaviranomaisille ja kansallisille kuluttajansuojaviranomaisille; |
18. |
korostaa, että kuluttajien luottamus on olennaisen tärkeää näiden teknologioiden kehittämisessä ja toteutuksessa ja että niihin voi liittyä riskejä, kun ne perustuvat läpinäkymättömiin algoritmeihin ja vääristyneisiin datajoukkoihin; katsoo, että kuluttajilla olisi oltava oikeus saada riittävä määrä ymmärrettävää, oikea-aikaista, vakioitua, tarkkaa ja helposti saatavilla olevaa tietoa algoritmijärjestelmien olemassaolosta, päättelyprosesseista, mahdollisista lopputuloksista ja vaikutuksista kuluttajiin sekä siitä, miten he voivat saada yhteyden päätösvaltaiseen ihmiseen ja miten järjestelmän tekemiä päätöksiä voidaan tarkistaa, mielekkäästi riitauttaa ja korjata; korostaa tältä osin tarvetta ottaa huomioon kuluttajalainsäädännön perustana olevat tiedonsaannin ja tietojen julkistamisen periaatteet ja noudattaa niitä; katsoo, että loppukäyttäjille on annettava yksityiskohtaista tietoa liikennejärjestelmien ja tekoälyn tukemien ajoneuvojen toiminnasta; |
19. |
pitää olennaisena, että tekoälyn, robotiikan ja niihin liittyvän teknologian käyttämät tai tuottamat algoritmit ja datajoukot ovat selitettävissä ja viranomaisten, kuten kansallisten valvontaviranomaisten ja markkinavalvontaviranomaisten, saatavissa silloin, kun se on ehdottoman välttämätöntä, ja edellyttäen, että noudatetaan kaikilta osin tietosuojaa, yksityisyyttä, teollis- ja tekijänoikeuksia ja liikesalaisuuksia koskevaa unionin lainsäädäntöä; toteaa lisäksi, että suuririskisten teknologioiden kehittämisen eri vaiheisiin osallistuvien tahojen olisi tallennettava tällainen dokumentaatio alalla sovellettavien mahdollisimman korkeatasoisten vaatimusten mukaisesti; huomauttaa, että markkinavalvontaviranomaisilla voi olla tässä yhteydessä lisäoikeuksia; korostaa laillisen takaisinmallinnuksen merkitystä tässä suhteessa; katsoo, että voimassa olevan markkinavalvontalainsäädännön tarkastelu saattaa olla tarpeen, jotta siinä otetaan varmasti huomioon tekoälyn, robotiikan ja niihin liittyvän teknologian yleistymisen eettinen ulottuvuus; |
20. |
kehottaa asettamaan vaatimuksen, että suuririskisten teknologioiden kehittäjät ja käyttöönottajat antavat riskinarvioinnin perusteella viranomaisille dokumentaation käyttö-, suunnittelu- ja turvallisuusohjeista, mukaan lukien lähdekoodi, kehitystyökalut ja järjestelmän käyttämä data, silloin, kun se on ehdottoman tarpeen, ja edellyttäen, että noudatetaan kaikilta osin tietosuojaa, yksityisyyttä, teollis- ja tekijänoikeuksia ja liikesalaisuuksia koskevaa unionin lainsäädäntöä; huomauttaa, että tämän velvoitteen avulla voitaisiin arvioida, ovatko ne noudattaneet unionin lainsäädäntöä ja eettisiä periaatteita, ja mainitsee tässä yhteydessä esimerkin, jossa julkaisuista annetaan kansalliskirjastoon vapaakappale; huomauttaa, että algoritmien läpinäkyvyyden ja algoritmien käytön läpinäkyvyyden välillä on merkittävä ero; |
21. |
toteaa myös, että ihmisarvon, yksilön autonomian ja turvallisuuden kunnioittamiseksi olisi otettava huomioon elintärkeät ja kehittyneet lääkinnälliset laitteet sekä se, että riippumattomilla luotetuilla viranomaisilla säilyvät tarvittavat keinot tarjota palveluja tällaisia laitteita käyttäville ihmisille, kun alkuperäinen kehittäjä tai käyttöönottaja ei enää tarjoa niitä; huomauttaa, että tällaisiin palveluihin sisältyvät esimerkiksi huolto-, korjaus- ja parannustyöt, myös ohjelmistopäivitykset, joilla korjataan toimintahäiriöitä ja haavoittuvuuksia; |
22. |
katsoo, että suuririskistä tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa, myös tällaisen teknologian käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa, olisi kehitettävä sisäänrakennetusti turvallisella, jäljitettävissä olevalla, teknisesti toimintavarmalla, luotettavalla, eettisellä ja oikeudellisesti sitovalla tavalla sekä riippumattomassa valvonnassa ja seurannassa riippumatta alasta, jolla niitä kehitetään, otetaan käyttöön ja käytetään; katsoo erityisesti, että tekoälytuotteiden ja -palvelujen kehitys- ja toimitusketjujen kaikkien toimijoiden olisi oltava oikeudellisesti vastuussa, ja painottaa, että tarvitaan mekanismeja vastuun ja vastuuvelvollisuuden varmistamiseksi; |
23. |
korostaa, että sääntely ja ohjeet, jotka koskevat selitettävyyttä, tarkastettavuutta, jäljitettävyyttä ja läpinäkyvyyttä, sekä viranomaisten pääsy tällaisten teknologioiden taustalla olevaan teknologiaan, dataan ja laskentajärjestelmiin riskinarvioinnin perusteella silloin, kun se on ehdottoman tarpeen, ja edellyttäen, että noudatetaan kaikilta osin tietosuojaa, yksityisyyttä, teollis- ja tekijänoikeuksia ja liikesalaisuuksia koskevaa unionin lainsäädäntöä, ovat olennaisen tärkeitä, jotta voidaan varmistaa kansalaisten luottamus näihin teknologioihin, joskin selitettävyyden aste on suhteutettava teknologioiden monimutkaisuuteen; huomauttaa, että aina ei ole mahdollista selittää, miksi jokin malli on johtanut tiettyyn tulokseen tai päätökseen, kuten niin sanotut mustan laatikon algoritmit osoittavat; katsookin, että näiden periaatteiden noudattaminen on edellytys vastuuvelvollisuuden takaamiselle; |
24. |
katsoo, että kansalaisille ja kuluttajille on ilmoitettava, kun he ovat vuorovaikutuksessa sellaisen järjestelmän kanssa, joka käyttää tekoälyä erityisesti tuotteen tai palvelun personoimiseksi sen käyttäjille, voivatko he poistaa tällaisen personoinnin käytöstä tai rajoittaa sitä, ja jos voivat, miten; |
25. |
huomauttaa, että tekoälyn, robotiikan ja niihin liittyvän teknologian on oltava teknisesti toimintavarmaa ja tarkkaa, jotta niihin voidaan luottaa; |
26. |
korostaa, että on tärkeää suojella toisiinsa liitettyjä tekoäly- ja robotiikkaverkostoja ja toteuttaa tehokkaita toimenpiteitä, joilla estetään tietoturvaloukkaukset, tietovuodot, tietojen korruptointi, kyberhyökkäykset ja henkilötietojen väärinkäyttö, ja että tämä edellyttää, että unionin ja kansallisen tason asiaankuuluvat virastot, elimet ja toimielimet toimivat yhdessä ja yhteistyössä teknologian loppukäyttäjien kanssa; kehottaa komissiota ja jäsenvaltioita varmistamaan, että tekoälyteknologian kehittämisessä ja käyttöönotossa kunnioitetaan aina unionin arvoja ja perusoikeuksia, jotta voidaan varmistaa unionin digitaalisen infrastruktuurin turvallisuus ja häiriönsietokyky; |
Puolueettomuus ja syrjimättömyys
27. |
muistuttaa, että tekoäly voi sen mukaan, miten sitä kehitetään ja käytetään, luoda ja vahvistaa ennakkoluuloja, myös taustalla oleviin datajoukkoihin sisältyvien vääristymien kautta, ja siten synnyttää erilaisia automaattisen syrjinnän muotoja, myös välillistä syrjintää, joka kohdistuu erityisesti ominaisuuksiltaan samankaltaisten ihmisten ryhmiin; kehottaa komissiota ja jäsenvaltioita ryhtymään kaikkiin mahdollisiin toimenpiteisiin tällaisten vääristymien välttämiseksi ja perusoikeuksien täysimääräisen suojelun varmistamiseksi; |
28. |
on huolissaan vääristymien ja syrjinnän riskeistä suuririskisen tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisen teknologian käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, kehittämisessä, käyttöönotossa ja käytössä; muistuttaa, että tässä yhteydessä olisi kaikissa olosuhteissa noudatettava unionin oikeutta ja kunnioitettava ihmisoikeuksia, ihmisarvoa ja yksilön autonomiaa ja itsemääräämisoikeutta ja varmistettava kaikkien ihmisten yhdenvertainen ja syrjimätön kohtelu; |
29. |
painottaa, että tekoälyteknologiat olisi suunniteltava kunnioittamaan, palvelemaan ja suojelemaan unionin arvoja sekä fyysistä ja henkistä koskemattomuutta, vaalimaan unionin kulttuurista ja kielellistä monimuotoisuutta sekä auttamaan olennaisten tarpeiden täyttämisessä; painottaa, että on vältettävä kaikkea sellaista käyttöä, joka voi johtaa asiattomaan suoraan tai välilliseen pakottamiseen, vaarantaa henkisen autonomian ja mielenterveyden tai johtaa perusteettomaan valvontaan, harhauttamiseen tai asiattomaan manipulointiin; |
30. |
uskoo vakaasti, että perusoikeuskirjassa vahvistettuja perustavaa laatua olevia ihmisoikeuksia olisi ehdottomasti kunnioitettava, jotta voidaan varmistaa, että tällainen kehittyvä teknologia ei synnytä suojeluun liittyviä aukkoja; |
31. |
toteaa, että ohjelmistojen, algoritmien ja datan mahdolliset vääristymät ja niiden aiheuttama syrjintä voivat aiheuttaa selvää vahinkoa ihmisille ja yhteiskunnalle, joten olisi kannustettava laatimaan ja jakamaan strategioita niiden torjumiseksi, esimerkiksi korjaamalla datajoukkojen vääristymiä tutkimus- ja kehitystoiminnassa, ja laadittava säännöt tietojen käsittelyyn; katsoo, että ohjelmistoja, algoritmeja ja dataa voitaisiin näin käyttää apuna vääristymien ja syrjinnän torjumisessa tietyissä tilanteissa sekä edistämään yhtäläisiä oikeuksia ja myönteistä sosiaalista muutosta; |
32. |
katsoo, että oikeudenmukaisuutta, tarkkuutta, luottamuksellisuutta ja läpinäkyvyyttä koskevien eettisten arvojen olisi oltava näiden teknologioiden perustana, mikä tarkoittaa, ettei niiden toiminta saisi synnyttää puolueellisia tuotoksia; |
33. |
korostaa tekoälyssä, robotiikassa ja niihin liittyvässä teknologiassa käytettävien datajoukkojen laadun merkitystä ja toteaa, että se riippuu niiden kontekstista, erityisesti opetusdatan edustavuuden osalta, datajoukkojen vääristymien korjaamisesta, käytetyistä algoritmeista sekä data- ja aggregointivaatimuksista; korostaa, että kansallisten valvontaviranomaisten olisi tarvittaessa voitava tarkastaa nämä datajoukot, jotta varmistetaan, että ne ovat edellä mainittujen periaatteiden mukaisia; |
34. |
korostaa, että erityisesti Euroopan ulkopuolisten toimijoiden lietsomassa laajalle levinneessä disinformaatiosodassa tekoälyteknologioilla voi olla eettisesti haitallisia vaikutuksia, kun kolmas maa voi hyödyntää datan ja algoritmien vääristymiä tai muuttaa tarkoituksellisesti opetusdataa, ja ne voivat myös altistua muunlaiselle vaaralliselle pahantahtoiselle manipuloinnille ennalta-arvaamattomin tavoin ja sellaisin seurauksin, joita on mahdoton kuvitellakaan; toteaa, että sen vuoksi on yhä tärkeämpää, että unioni investoi edelleen tutkimukseen, analysointiin, innovointiin sekä rajatylittävään ja monialaiseen tietämyksen siirtoon sellaisten tekoälyteknologioiden kehittämiseksi, joissa ei esiinny minkäänlaista profilointia, vääristymiä ja syrjintää ja jotka voisivat tehokkaasti edistää valeuutisten ja disinformaation torjuntaa siten, että samalla kunnioitetaan tietosuojaa ja unionin oikeudellista kehystä; |
35. |
muistuttaa, että on tärkeää varmistaa yksittäisille ihmisille tehokkaat oikeussuojakeinot, ja kehottaa jäsenvaltioita huolehtimaan siitä, että käytössä on helposti saatavilla olevia, kohtuuhintaisia, riippumattomia ja tehokkaita menettelyjä sekä tarkastelumekanismeja, joilla taataan ihmisen suorittama puolueeton tarkastelu aina, kun algoritmijärjestelmien käytön väitetään loukanneen kansalaisten oikeuksia, kuten kuluttajien oikeuksia tai kansalaisoikeuksia, olipa kyse sitten julkisen tai yksityisen sektorin toimijoiden järjestelmistä; pitää tärkeänä ehdotusta Euroopan parlamentin ja neuvoston direktiiviksi, joka koskee kuluttajien yhteisten etujen suojaamiseksi nostettavia edustajakanteita sekä direktiivin 2009/22/EY kumoamista ja josta päästiin poliittiseen sopimukseen 22. kesäkuuta 2020, ja toteaa, että sitä voitaisiin hyödyntää vastaisuudessa tapauksissa, joissa riitautetaan tekoälyjärjestelmän käyttöönotto tai jo tapahtuva käyttö, johon liittyy riski kuluttajien oikeuksien loukkauksesta, tai pyydetään korjaamaan tällainen loukkaus; pyytää komissiota ja jäsenvaltioita varmistamaan kansallisille ja unionin kuluttajajärjestöille riittävän rahoituksen, jotta ne voivat auttaa kuluttajia käyttämään oikeuttaan korjaaviin toimenpiteisiin, kun heidän oikeuksiaan on loukattu; |
36. |
katsoo sen vuoksi, että jokaisen luonnollisen henkilön ja oikeushenkilön olisi voitava hakea hyvitystä sellaisen päätöksen johdosta, jonka tekoäly, robotiikka tai niihin liittyvä teknologia on tehnyt tämän vahingoksi unionin tai kansallisen lainsäädännön vastaisesti; |
37. |
katsoo, että kuluttajat voisivat kääntyä myös kansallisten valvontaviranomaisten puoleen, jotka toimivat ensimmäisenä yhteyspisteenä unionin sääntelykehyksen epäillyissä rikkomistapauksissa, tekemällä niille hyvityspyyntöjä kyseisen kehyksen tehokkaan täytäntöönpanon varmistamiseksi; |
Sosiaalinen vastuu ja sukupuolten välinen tasapaino
38. |
korostaa, että sosiaalisesti vastuullisen tekoälyn, robotiikan ja niihin liittyvän teknologian avulla voidaan löytää ratkaisuja, joilla suojellaan ja edistetään yhteiskuntamme perusoikeuksia ja -arvoja, kuten demokratiaa, oikeusvaltioperiaatetta, monimuotoisia ja riippumattomia tiedotusvälineitä sekä puolueetonta ja vapaata tiedonsaantia, terveyttä ja taloudellista hyvinvointia, yhtäläisiä mahdollisuuksia, työntekijöiden oikeuksia ja sosiaalisia oikeuksia, laadukasta koulutusta, lasten suojelua, kulttuurista ja kielellistä monimuotoisuutta, sukupuolten tasa-arvoa, digitaalista lukutaitoa, innovointia ja luovuutta; muistuttaa tarpeesta varmistaa, että kaikkien kansalaisten, myös marginalisoitujen tai haavoittuvassa asemassa olevien ihmisten, kuten vammaisten henkilöiden, edut otetaan asianmukaisesti huomioon ja ne ovat asianmukaisesti edustettuina; |
39. |
painottaa, että on tärkeää saavuttaa yleisesti korkea digitaalisen lukutaidon taso ja kouluttaa alalle erittäin päteviä ammattilaisia sekä varmistaa tällaisten tutkintojen vastavuoroinen tunnustaminen kaikkialla unionissa; korostaa, että tarvitaan monimuotoisia kehittäjä- ja insinööritiimejä toimimaan keskeisten yhteiskunnallisten toimijoiden rinnalle, jotta tekoälyalgoritmeihin, -järjestelmiin ja -sovelluksiin ei epähuomiossa sisällytetä sukupuoleen liittyviä ja kulttuurisia ennakkoluuloja; tukee tekoälyn yhteiskunnallisia, oikeudellisia ja eettisiä vaikutuksia käsittelevien opetusohjelmien ja tiedotustoimien kehittämistä; |
40. |
pitää ajatuksen- ja sananvapauden takaamista ensiarvoisen tärkeänä, kunhan taataan, että tällaisilla teknologioilla ei edistetä vihapuhetta tai väkivaltaa, ja pitää sananvapauden estämistä tai rajoittamista digitaalisessa ympäristössä unionin perusperiaatteiden nojalla laittomana, paitsi jos tämän perusvapauden käyttämiseen sisältyy laittomia tekoja; |
41. |
korostaa, että tekoälyn, robotiikan ja niihin liittyvän teknologian avulla voidaan vähentää sosiaalista eriarvoisuutta, ja katsoo, että niiden kehittämistä koskevan eurooppalaisen mallin on perustuttava kansalaisten luottamukseen ja suurempaan sosiaaliseen yhteenkuuluvuuteen; |
42. |
painottaa, että tekoälyjärjestelmien käyttöönotolla ei saisi aiheettomasti rajoittaa käyttäjien mahdollisuuksia saada julkisia palveluja, kuten sosiaaliturvapalveluja; kehottaakin komissiota arvioimaan, miten tämä tavoite voidaan saavuttaa; |
43. |
korostaa sellaisen vastuullisen tutkimus- ja kehitystoiminnan merkitystä, jolla pyritään maksimoimaan tekoälyn, robotiikan ja niihin liittyvän teknologian mahdollisuudet kansalaisille sekä yleinen etu; kehottaa unionia ja sen jäsenvaltioita antamaan käyttöön resursseja, jotta voidaan kehittää ja tukea vastuullista innovointia; |
44. |
korostaa, että teknologinen asiantuntemus on jatkossa yhä tärkeämpää ja että siksi on tarpeen päivittää jatkuvasti koulutustarjontaa, erityisesti tulevia sukupolvia varten, ja edistää jo työmarkkinoilla olevien ammatillista uudelleenkoulutusta; toteaa tässä yhteydessä, että innovointia ja koulutusta olisi edistettävä yksityisen sektorin lisäksi myös julkisella sektorilla; |
45. |
tähdentää, että tällaisten teknologioiden kehittäminen, käyttöönotto ja käyttö eivät saisi aiheuttaa minkäänlaista vahinkoa tai haittaa ihmisille, yhteiskunnalle tai ympäristölle ja että kehittäjät, käyttöönottajat ja käyttäjät olisi siksi saatettava vastuuseen tällaisen vahingon tai haitan aiheuttamisesta asiaa koskevien unionin ja kansallisten vastuusääntöjen mukaisesti; |
46. |
kehottaa jäsenvaltioita arvioimaan, olisiko näiden teknologioiden käyttöönoton aiheuttamien työpaikkojen menetysten takia toteutettava aiheellisia julkisia politiikkatoimia, kuten lyhennettävä työaikaa; |
47. |
katsoo, että suunnitteluun on ehdottomasti otettava unionin arvoihin ja eettisiin periaatteisiin pohjautuva painotus, jotta voidaan luoda edellytykset tekoälyn, robotiikan ja niihin liittyvän teknologian laajamittaiselle sosiaaliselle hyväksynnälle; pitää tällaista painotusta, jossa tavoitteena on kehittää luotettava, eettisesti vastuullinen ja teknisesti toimintavahva tekoäly, tärkeänä mahdollistajana kestävälle ja älykkäälle liikkuvuudelle, joka on turvallista ja esteetöntä; |
48. |
pyytää kiinnittämään huomiota autonomisten ajoneuvojen suureen lisäarvoon liikuntarajoitteisille henkilöille, sillä tällaisten ajoneuvojen ansiosta heidän mahdollisuutensa pärjätä tieliikenteessä omin avuin paranevat, mikä helpottaa heidän arkeaan; korostaa esteettömyyden merkitystä etenkin suunniteltaessa MaaS-järjestelmiä (liikkuminen palveluna); |
49. |
kehottaa komissiota jatkossakin tukemaan luotettavien tekoälyjärjestelmien kehittämistä, jotta liikenteestä voidaan tehdä turvallisempaa, tehokkaampaa, esteetöntä, kohtuuhintaista ja kaikki käyttäjät, myös liikuntarajoitteiset ja erityisesti vammaiset henkilöt, huomioon ottavaa Euroopan parlamentin ja neuvoston direktiivin (EU) 2019/882 (13) ja matkustajien oikeuksia koskevan unionin lainsäädännön mukaisesti; |
50. |
katsoo, että tekoäly voi auttaa hyödyntämään paremmin vammaisten henkilöiden taitoja ja valmiuksia ja että tekoälyn käyttö työpaikoilla voi edistää osallistavia työmarkkinoita ja nostaa vammaisten henkilöiden työllisyysastetta; |
Ympäristö ja kestävä kehitys
51. |
korostaa, että viranomaisten ja yritysten olisi käytettävä tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa ihmisten ja planeetan hyödyksi ja että näin olisi edistettävä kestävän kehityksen, ympäristönsuojelun, ilmastoneutraaliuden ja kiertotalouden tavoitteiden saavuttamista; katsoo, että näiden teknologioiden kehittämisellä, käyttöönotolla ja käytöllä olisi edistettävä vihreää siirtymää ja ympäristönsuojelua sekä minimoitava ja korjattava ympäristölle aiheutuvia vahinkoja niiden koko elinkaaren ajan ja niiden koko toimitusketjussa unionin lainsäädännön mukaisesti; |
52. |
toteaa, että tekoälyn, robotiikan ja niihin liittyvän teknologian edellä mainittujen merkittävien ympäristövaikutusten vuoksi alakohtaiset viranomaiset voisivat tarvittaessa ja tapauksen mukaan arvioida niiden kehittämisen, käyttöönoton ja käytön ympäristövaikutukset koko niiden elinkaaren ajalta; huomauttaa, että tähän voisi sisältyä arvio tarvittavien raaka-aineiden talteenoton vaikutuksesta, energiankulutuksesta sekä teknologioiden kehittämisestä, käyttöönotosta ja käytöstä syntyvistä kasvihuonekaasupäästöistä; |
53. |
ehdottaa, että kehityksen huippua edustavien vastuullisten tekoälyratkaisujen kehittämiseksi olisi selvitettävä tekoälyn, robotiikan ja niihin liittyvän teknologian tarjoamat mahdollisuudet, edistettävä niitä ja maksimoitava ne vastuullisen tutkimus- ja kehitystoiminnan avulla, mikä edellyttää unionin ja sen jäsenvaltioiden resurssien käyttöönottoa; |
54. |
korostaa, että näiden teknologioiden kehittäminen, käyttöönotto ja käyttö tarjoavat tilaisuuden edistää Yhdistyneiden kansakuntien kestävän kehityksen tavoitteita, maailmanlaajuista energiasiirtymää ja hiilestä irtautumista; |
55. |
katsoo, että yhteiskuntavastuun, sukupuolten tasa-arvon, ympäristönsuojelun ja kestävyyden tavoitteet eivät saisi estää soveltamasta näillä aloilla voimassa olevia yleisiä ja alakohtaisia velvoitteita; katsoo, että erityisesti suuririskisten teknologioiden kehittäjille, käyttöönottajille ja käyttäjille olisi laadittava ei-sitovia ohjeita niiden menetelmien täytäntöönpanoon, joilla arvioidaan tämän asetuksen vaatimusten noudattamista ja edellä mainittujen tavoitteiden saavuttamista; |
56. |
kehottaa unionia edistämään ja rahoittamaan sellaisen ihmiskeskeisen tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä, joilla puututaan ympäristö- ja ilmastohaasteisiin ja joissa kunnioitetaan perusoikeuksia, verotuksen, hankintojen tai muiden kannustimien avulla; |
57. |
korostaa, että vaikka tekoälyn, robotiikan ja niihin liittyvän teknologian, mukaan lukien automaattiset päätökset ja koneoppiminen, kehittämisellä, käyttöönotolla ja käytöllä on nykyisin suuri hiilijalanjälki, näillä teknologioilla voidaan auttaa pienentämään tieto- ja viestintätekniikan alan nykyistä ympäristöjalanjälkeä; tähdentää, että näiden ja muiden asianmukaisesti säänneltyjen asiaan liittyvien teknologioiden olisi oltava ratkaisevassa asemassa vihreän kehityksen ohjelman, YK:n kestävän kehityksen tavoitteiden ja Pariisin sopimuksen tavoitteiden saavuttamisessa monilla eri aloilla ja että niiden pitäisi tehostaa ympäristönsuojelutoimien, kuten jätteen vähentämistä ja ympäristön tilan heikkenemisen estämistä koskevien politiikkatoimien, vaikutusta; |
58. |
kehottaa komissiota tekemään tutkimuksen tekoälyteknologian hiilijalanjäljen vaikutuksesta sekä tekoälyteknologian käyttöön siirtymisen myönteisistä ja kielteisistä vaikutuksista kuluttajien kannalta; |
59. |
toteaa, että tekoälysovelluksia kehitetään koko ajan enemmän, mikä vaatii laskenta-, tallennus- ja energiaresursseja, joten tekoälyjärjestelmien ympäristövaikutukset olisi otettava huomioon niiden koko elinkaaren aikana; |
60. |
katsoo, että esimerkiksi terveyden alalla vastuun on viime kädessä oltava luonnollisella henkilöllä tai oikeushenkilöllä; korostaa, että algoritmeja varten tarvitaan jäljitettävää ja julkisesti saatavilla olevaa koulutusdataa; |
61. |
tukee vahvasti komission tiedonannossaan Euroopan datastrategiasta tekemää ehdotusta eurooppalaisen terveysdata-avaruuden perustamisesta, jolla pyritään edistämään terveystietojen vaihtoa ja tukemaan tutkimusta noudattaen kaikilta osin tietosuojaa, muun muassa käsittelemällä tietoja tekoälyteknologian avulla, ja jolla tehostetaan ja laajennetaan terveystietojen käyttöä ja uudelleenkäyttöä; kehottaa laajentamaan terveystietojen vaihtoa rajojen yli sekä linkittämään ja käyttämään tietyntyyppisiä terveystietoja, kuten eurooppalaisten terveysrekisterien tietoja, genomitietoja ja lääketieteellisiä digitaalikuvia, suojattujen, federoitujen tietovarastojen kautta, jotta voidaan edistää unionin laajuisia yhteentoimivia rekistereitä tai tietokantoja esimerkiksi tutkimuksen, tieteen ja terveydenhuollon aloilla; |
62. |
korostaa tekoälyn hyötyjä tautien ehkäisyssä, hoidossa ja hallinnassa, mistä esimerkkinä on se, että tekoäly ennusti covid-19-epidemian puhkeamisen jo ennen WHO:ta; kehottaa komissiota tarjoamaan Euroopan tautienehkäisy- ja -valvontakeskukselle (ECDC) asianmukaisen sääntelykehyksen sekä resurssit, jotka mahdollistavat tarvittavien anonymisoitujen, reaaliaikaisten ja maailmanlaajuisten terveystietojen keräämisen itsenäisesti jäsenvaltioiden ohella, jotta voidaan muun muassa puuttua covid-19-kriisin esiin tuomiin kysymyksiin; |
Yksityisyyden suoja ja biometrinen tunnistaminen
63. |
panee merkille, että tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämisestä, käyttöönotosta ja käytöstä peräisin olevan datan, myös biometristen tietojen ja muiden henkilötietojen, tuottaminen ja käyttö lisääntyvät nopeasti, minkä vuoksi on erityisen tärkeää kunnioittaa kansalaisten oikeutta yksityisyyteen ja henkilötietojen suojaan unionin lainsäädännön mukaisesti ja valvoa sen toteutumista; |
64. |
huomauttaa, että näiden teknologioiden ansiosta henkilötietoja ja muita tietoja voidaan käyttää ihmisten luokittelemiseen ja mikrokohdentamiseen, ihmisten haavoittuvuuksien selvittämiseen tai tarkan ennustetiedon hyödyntämiseen, joten sen vastapainoksi on pantava tehokkaasti täytäntöön tietosuojan ja yksityisyyden periaatteet, kuten tietojen minimointi, oikeus vastustaa profilointia ja valvoa itseään koskevien tietojen käyttöä, oikeus saada selitys automaattiseen käsittelyyn perustuvaan päätökseen ja sisäänrakennettu yksityisyyden suoja, sekä yleisen tietosuoja-asetuksen mukaiset suhteellisuuden, tarpeellisuuden ja käyttötarkoituksen tarkasti määritellyn rajoittamisen periaatteet; |
65. |
korostaa, että kun viranomaiset käyttävät tärkeään yleiseen etuun liittyvissä tarkoituksissa etätunnistusteknologiaa, kuten biometristen piirteiden ja erityisesti kasvojen tunnistusta, käytöstä olisi aina ilmoitettava, sen olisi oltava oikeasuhteista, kohdennettua ja tiettyihin tavoitteisiin rajattua, sen olisi oltava ajallisesti rajoitettua unionin lainsäädännön mukaisesti ja siinä olisi otettava asianmukaisesti huomioon ihmisarvo ja yksilön autonomia sekä perusoikeuskirjassa vahvistetut perusoikeudet; katsoo, että tällaisen käytön kriteereihin ja rajoituksiin olisi sovellettava laillisuusvalvontaa ja demokraattista valvontaa ja siinä olisi otettava huomioon sen psykologiset ja sosiokulttuuriset vaikutukset kansalaisyhteiskuntaan; |
66. |
huomauttaa, että vaikka tekoälyn, robotiikan ja niihin liittyvän teknologian käyttöönotosta julkisen vallan päätöksissä on hyötyä, se voi johtaa vakavaan väärinkäyttöön, kuten joukkovalvontaan, ennakoivaan poliisitoimintaan ja oikeudenmukaista menettelyä koskevien oikeuksien loukkauksiin; |
67. |
katsoo, että teknologioita, joilla voidaan tuottaa automaattisia päätöksiä ja siten korvata viranomaisten tekemät päätökset, olisi käsiteltävä äärimmäisen harkiten, erityisesti oikeuden ja lainvalvonnan alalla; |
68. |
katsoo, että jäsenvaltioiden olisi turvauduttava tällaisiin teknologioihin vain, jos on saatu perusteellinen näyttö niiden luotettavuudesta ja jos ihmisen mielekäs väliintulo ja tarkastelu on mahdollista tai järjestelmällistä tapauksissa, joissa on kyse perusvapauksista; pitää tärkeänä, että kansalliset viranomaiset tekevät perusoikeuksia koskevia tiukkoja vaikutustenarviointeja näissä tapauksissa käyttöön otetuille tekoälyjärjestelmille, varsinkin jos teknologiat on arvioitu suuririskisiksi; |
69. |
katsoo, että kaikissa tekoälyn, robotiikan ja niihin liittyvän teknologian julkisen vallan erioikeuksien puitteissa tekemissä päätöksissä olisi edellytettävä ihmisen mielekästä väliintuloa ja oikeudenmukaista menettelyä, varsinkin jos teknologiat on arvioitu suuririskisiksi; |
70. |
katsoo, että teknologian kehitys ei saisi johtaa siihen, että tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa käytetään tekemään autonomisesti julkisen sektorin päätöksiä, joilla on suora ja merkittävä vaikutus kansalaisten oikeuksiin ja velvoitteisiin; |
71. |
toteaa, että tekoäly, robotiikka ja niihin liittyvä teknologia voisivat lainvalvonnan ja rajavalvonnan alalla parantaa yleistä turvallisuutta mutta että ne edellyttävät myös laajaa ja perusteellista julkista valvontaa ja mahdollisimman suurta läpinäkyvyyttä yksittäisten sovellusten riskinarvioinnin suhteen sekä yleiskuvaa tekoälyn, robotiikan ja niihin liittyvän teknologian käytöstä lainvalvonnassa ja rajavalvonnassa; toteaa, että tällaisiin teknologioihin liittyy merkittäviä eettisiä riskejä, joihin on puututtava asianmukaisesti, kun pidetään mielessä niiden mahdolliset haitalliset vaikutukset yksilöihin, etenkin kun on kyse heidän oikeudestaan yksityisyyteen, tietosuojaan ja syrjimättömyyteen; korostaa, että niiden väärinkäytöstä voi tulla suora uhka demokratialle ja että niiden käyttöönotossa ja käytössä on noudatettava suhteellisuus- ja tarpeellisuusperiaatteita, perusoikeuskirjaa sekä asiaankuuluvaa unionin johdettua oikeutta, kuten tietosuojasääntöjä; korostaa, että tekoäly ei saisi koskaan korvata ihmisiä tuomioiden antajana; katsoo, että esimerkiksi takuita tai valvontarangaistusta koskeviin päätöksiin, jotka käsitellään tuomioistuimissa, tai yksinomaan automaattiseen käsittelyyn perustuviin päätöksiin, joilla on yksilöä koskevia oikeusvaikutuksia tai jotka vaikuttavat heihin merkittävästi, on aina liityttävä mielekäs arviointi ja inhimillinen harkinta; |
Hyvä hallinto
72. |
korostaa, että asianmukainen hallintotapa tekoälyn, robotiikan ja niihin liittyvän teknologian, etenkin suuririskisten teknologioiden, kehittämisessä, käyttöönotossa ja käytössä voi lisätä kansalaisten turvallisuutta ja luottamusta näihin teknologioihin, kun siihen sisältyy toimenpiteitä, joilla keskitytään vastuuvelvollisuuteen ja puututaan mahdollisiin vääristymien ja syrjinnän riskeihin; |
73. |
katsoo, että luomalla tällaisten teknologioiden hallinnolle yhteinen kehys, jota koordinoivat komissio ja/tai tätä varten tähän tehtävään mahdollisesti nimettävät asiaankuuluvat unionin toimielimet, elimet, toimistot tai virastot ja jonka kansalliset valvontaviranomaiset panevat täytäntöön kussakin jäsenvaltiossa, varmistettaisiin yhtenäinen unionin toimintatapa ja estettäisiin sisämarkkinoiden hajanaisuus; |
74. |
toteaa, että tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämiseen käytetään suuria määriä dataa ja että tällaisen datan käsittelyä, jakamista ja käyttöä ja siihen pääsyä on hallinnoitava lain sekä siinä vahvistettujen laatua, eheyttä, yhteentoimivuutta, läpinäkyvyyttä, turvallisuutta, yksityisyyttä ja valvontaa koskevien vaatimusten mukaisesti; |
75. |
muistuttaa, että datan saatavuus on olennainen osatekijä digitaalitalouden kasvussa; huomauttaa, että datan yhteentoimivuudella on lukkiutumisvaikutusten rajoittamisen kautta keskeinen rooli reilujen markkinaolosuhteiden varmistamisessa ja tasapuolisten toimintaedellytysten edistämisessä digitaalisilla sisämarkkinoilla; |
76. |
korostaa tarvetta varmistaa, että henkilötietoja suojellaan asianmukaisesti, ja toteaa, että tämä koskee erityisesti haavoittuvassa asemassa olevia ryhmiä, kuten vammaisia henkilöitä, potilaita, lapsia, ikäihmisiä, vähemmistöjä, maahanmuuttajia ja muita syrjäytymisvaarassa olevia ryhmiä, koskevia tai näiltä peräisin olevia tietoja; |
77. |
huomauttaa, että viranomaiset ulkoistavat tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämisen, käyttöönoton ja käytön usein yksityisille tahoille; katsoo, että tämä ei saisi millään tavalla vaarantaa julkisten arvojen ja perusoikeuksien suojelua; katsoo, että julkisten hankintojen ehdoissa olisi soveltuvin osin otettava huomioon viranomaisille asetetut eettiset vaatimukset; |
Kuluttajat ja sisämarkkinat
78. |
pitää tärkeänä, että tekoälyä koskevaa sääntelykehystä sovelletaan tilanteissa, joissa unionin kuluttajat ovat algoritmijärjestelmän käyttäjiä, sen piirissä tai sen kohteena tai heitä ohjataan tällaiseen järjestelmään, riippumatta siitä, mihin järjestelmää kehittävät, myyvät tai käyttävät yhteisöt ovat sijoittautuneet; katsoo lisäksi, että kehyksessä vahvistettuja sääntöjä olisi oikeusvarmuuden vuoksi sovellettava kaikkiin kehittäjiin ja koko arvoketjuun eli asiaankuuluvien teknologioiden ja niiden komponenttien kehittämiseen, käyttöönottoon ja käyttöön ja että niillä olisi taattava korkeatasoinen kuluttajansuoja; |
79. |
panee merkille yhteyden yhtäältä tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisen teknologian käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, sekä toisaalta esimerkiksi esineiden internetin, koneoppimisen, sääntöpohjaisten järjestelmien tai automaattisten ja avusteisten päätöksentekoprosessien välillä; toteaa lisäksi, että voitaisiin kehittää vakiomuotoisia kuvakkeita, joiden avulla tällaisia järjestelmiä voidaan selittää kuluttajille, kun ne ovat monimutkaisia tai niillä on valta tehdä päätöksiä, jotka vaikuttavat merkittävästi heidän elämäänsä; |
80. |
muistuttaa, että komission olisi tarkasteltava voimassa olevaa oikeudellista kehystä ja sen soveltamista, kuluttajansuoja-, tuotevastuu-, tuoteturvallisuus- ja markkinavalvontalainsäädäntö mukaan lukien, jotta voidaan kartoittaa lainsäädännön puutteet ja nykyiset sääntelyvelvoitteet; katsoo, että tämä on tarpeen sen selvittämiseksi, pystytäänkö sillä vastaamaan tekoälyn, robotiikan ja niihin liittyvän teknologian leviämisen aiheuttamiin uusiin haasteisiin ja takaamaan korkeatasoinen kuluttajansuoja; |
81. |
painottaa tarvetta vastata tehokkaasti tekoälyn, robotiikan ja niihin liittyvän teknologian tuomiin haasteisiin ja varmistaa, että kuluttajilla on vaikutusmahdollisuuksia ja heitä suojellaan asianmukaisesti; korostaa tarvetta tarkastella asiaa laajemminkin kuin vain niiden perinteisten tiedonsaannin ja tietojen julkistamisen periaatteiden kannalta, joiden varaan kuluttajalainsäädäntö on rakennettu, sillä kuluttajan oikeuksia on vahvistettava ja tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämiselle, käyttöönotolle ja käytölle on asetettava selkeitä rajoituksia, jotta varmistetaan, että tällainen teknologia parantaa kuluttajien elämää ja kehittyy tavalla, jossa kunnioitetaan perusoikeuksia ja kuluttajan oikeuksia sekä unionin arvoja; |
82. |
huomauttaa, että päätöksellä N:o 768/2008/EY (14) käyttöön otetussa lainsäädäntökehyksessä esitetään yhdenmukaistettu luettelo valmistajille, maahantuojille ja jakelijoille asetetuista velvoitteista, kannustetaan standardien käyttöön ja säädetään useista valvonnan tasoista tuotteen vaarallisuuden mukaan; katsoo, että tätä kehystä olisi sovellettava myös tuotteisiin, joihin on sisällytetty tekoäly; |
83. |
huomauttaa, että tekoälyn, robotiikan ja niihin liittyvän teknologian kuluttajiin kohdistuvien vaikutusten analysoimiseksi pääsy tietoihin voitaisiin ulottaa koskemaan kansallisia toimivaltaisia viranomaisia edellyttäen, että noudatetaan kaikilta osin tietosuojaa, yksityisyyttä ja liikesalaisuuksia koskevaa unionin lainsäädäntöä; muistuttaa, että on tärkeää valistaa kuluttajia niin, että heillä on entistä paremmat tiedot ja taidot, kun he ovat tekemisissä tekoälyn, robotiikan ja niihin liittyvän teknologian kanssa, jotta voidaan suojella heitä mahdollisilta riskeiltä ja puolustaa heidän oikeuksiaan; |
84. |
kehottaa komissiota esittämään tietojen jäljitettävyyttä koskevia toimenpiteitä, joissa otetaan huomioon sekä tiedonhankinnan laillisuus että kuluttajien oikeuksien ja perusoikeuksien suojelu ja noudatetaan kaikilta osin tietosuojaa, yksityisyyttä, teollis- ja tekijänoikeuksia sekä liikesalaisuuksia koskevaa unionin lainsäädäntöä; |
85. |
huomauttaa, että näiden teknologioiden olisi oltava käyttäjälähtöisiä ja ne olisi suunniteltava siten, että kaikki ikään, sukupuoleen, kykyihin tai ominaisuuksiin katsomatta voivat käyttää tekoälytuotteita tai -palveluja; pitää erityisen tärkeänä, että vammaiset henkilöt voivat käyttää niitä; katsoo, että ei pitäisi käyttää vain yhtä kaikkiin sovellettavaa lähestymistapaa ja että olisi huomioitava kaikkia palvelevan suunnittelun periaatteet, joissa otetaan huomioon mahdollisimman laajasti eri käyttäjät ja noudatetaan asianomaisia esteettömyysvaatimuksia; painottaa, että näin mahdollistetaan yksilöille tasapuolinen pääsy ja aktiivinen osallistuminen nykyisen ja kehittyvän tietokonevälitteisen inhimillisen toiminnan ja apuvälineteknologian alalla; |
86. |
korostaa, että kun julkisista lähteistä peräisin olevilla varoilla edistetään merkittävästi tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä, käyttöönottoa tai käyttöä, voitaisiin avoimen hankintamenettelyn ja avoimen alihankinnan vaatimusten lisäksi harkita mahdollisuutta julkistaa koodi, tuotettu data – siltä osin kuin se ei sisällä henkilötietoja – ja koulutettu malli oletusarvoisesti kehittäjän suostumuksella, jotta voidaan taata läpinäkyvyys, tehostaa kyberturvallisuutta ja mahdollistaa uudelleenkäyttö innovoinnin vauhdittamiseksi; korostaa, että näin voidaan hyödyntää sisämarkkinoiden koko potentiaali ja välttää markkinoiden pirstoutuminen; |
87. |
katsoo, että tekoälyllä, robotiikalla ja niihin liittyvällä teknologialla on valtavasti potentiaalia tarjota kuluttajille mahdollisuuksia saada monenlaisia palveluja monilla elämänaloilla sekä parempia tuotteita ja palveluja, samalla kun kuluttajat hyötyvät paremmasta markkinavalvonnasta, kunhan edelleen sovelletaan kaikkia sovellettavia periaatteita, ehtoja, mukaan lukien läpinäkyvyys ja tarkastettavuus, ja säännöksiä; |
Turvallisuus ja puolustus
88. |
korostaa, että unionin ja sen jäsenvaltioiden turvallisuus- ja puolustuspolitiikkaa ohjaavat perusoikeuskirjan ja YK:n peruskirjan periaatteet sekä yhteisymmärrys ihmisen loukkaamattomien ja luovuttamattomien oikeuksien, ihmisarvon, vapauden, demokratian, tasa-arvon ja oikeusvaltioperiaatteen kunnioittamisen yleismaailmallisista arvoista; korostaa, että kaikissa unionin puitteissa toteutettavissa puolustukseen liittyvissä toimissa on kunnioitettava näitä yleismaailmallisia arvoja ja edistettävä rauhaa, turvallisuutta ja edistystä Euroopassa ja maailmassa; |
89. |
suhtautuu myönteisesti siihen, että eräitä tavanomaisia aseita koskevan YK:n yleissopimuksen (CCW) korkeiden sopimuspuolten vuonna 2019 pidetyssä kokouksessa hyväksyttiin 11 ohjaavaa periaatetta autonomisten asejärjestelmien kehittämistä ja käyttöä varten; pitää kuitenkin valitettavana, että tappavia autonomisia asejärjestelmiä sääntelevästä oikeudellisesti sitovasta välineestä, johon sisältyisi tehokas täytäntöönpanon valvontamekanismi, ei ole päästy sopimukseen; pitää myönteisinä ja tukee komission tekoälyä käsittelevän korkean tason asiantuntijaryhmän 9. huhtikuuta 2019 julkaistua asiakirjaa ”Luotettavaa tekoälyä koskevat eettiset ohjeet” ja siinä esitettyä kantaa tappaviin autonomisiin asejärjestelmiin; kehottaa jäsenvaltioita laatimaan kansallisia strategioita tappavien autonomisten asejärjestelmien määrittelyä ja asemaa varten, jotta saadaan aikaan kattava unionin tason strategia, ja edistämään yhdessä unionin korkean edustajan / komission varapuheenjohtajan ja neuvoston kanssa keskustelua tappavista autonomisista asejärjestelmistä CCW-sopimuksen puitteissa ja muilla asiaankuuluvilla foorumeilla sekä täysin autonomisten, puoliautonomisten ja kauko-ohjattujen tappavien asejärjestelmien kehittämisen ja käytön eettisiä ja oikeudellisia parametreja koskevien kansainvälisten normien laatimisesta; muistuttaa tässä yhteydessä autonomisista asejärjestelmistä 12. syyskuuta 2018 antamastaan päätöslauselmasta ja kehottaa jälleen kiireellisesti määrittelemään ja hyväksymään tappavia autonomisia asejärjestelmiä koskevan yhteisen kannan, jotta kielletään kansainvälisesti sellaisten tappavien autonomisten asejärjestelmien kehittäminen, valmistus ja käyttö, jotka mahdollistavat iskut ilman merkityksellistä ihmisten suorittamaa valvontaa ja ihmisen osallistumista edellyttävää periaatetta noudattamatta, maailman merkittävimpien tekoälytutkijoiden vuonna 2015 päivätyssä avoimessa kirjeessään antaman lausunnon mukaisesti; pitää myönteisenä neuvoston ja Euroopan parlamentin välistä sopimusta jättää Euroopan puolustusrahastosta rahoitettavien toimien ulkopuolelle tappavat autonomiset aseet, joissa ihminen ei voi iskuja tehtäessä ”merkityksellisesti vaikuttaa päätöksiin kohteiden valinnasta ja iskun tekemisestä”; katsoo, että muiden puolustusalan tekoälysovellusten, kuten tiedustelun, valvonnan ja taktisen tiedustelun tai kyberoperaatioiden sovellusten, eettisiä näkökohtia ei saa sivuuttaa ja että on kiinnitettävä erityistä huomiota droonien kehittämiseen ja käyttöönottoon sotilasoperaatioissa; |
90. |
tähdentää, että puolustus- ja turvallisuusalan kehittyvää teknologiaa, jota ei säännellä kansainvälisessä oikeudessa, olisi arvioitava ihmisyyden kunnioittamisen periaatteen ja yleisen omantunnon sanelemien velvoitteiden mukaisesti; |
91. |
suosittaa, että tekoälyä hyödyntävien järjestelmien puolustuskäyttöä taistelutilanteissa ja muissa tilanteissa sääntelevässä eurooppalaisessa kehyksessä on kunnioitettava kaikkia sovellettavia oikeussääntöjä, erityisesti kansainvälistä humanitaarista oikeutta ja ihmisoikeuksia koskevaa kansainvälistä oikeutta, ja että kehyksen on oltava unionin oikeuden, periaatteiden ja arvojen mukainen samalla, kun pidetään mielessä teknisen ja turvallisuusinfrastruktuurin erot unionissa; |
92. |
toteaa, että toisin kuin puolustusteollinen perusta, kriittiset tekoälyinnovaatiot voivat tulla pienistä jäsenvaltioista, joten YTPP-vakioidulla lähestymistavalla olisi varmistettava, että pienemmät jäsenvaltiot ja pk-yritykset eivät joudu paitsioon; korostaa, että EU:n yhteisillä tekoälyvalmiuksilla, jotka sovitetaan jäsenvaltioiden toimintakonsepteihin, voidaan korjata tekniset puutteet, jotka voisivat jättää valtiot vaille asiaankuuluvaa teknologiaa, alan asiantuntemusta tai kykyä ottaa tekoälyjärjestelmiä käyttöön puolustusministeriöissään; |
93. |
katsoo, että unionin kehyksen nykyiset ja tulevat turvallisuuteen ja puolustukseen liittyvät toiminnot perustuvat tekoälyyn, robotiikkaan ja autonomiaan sekä niihin liittyvään teknologiaan ja että luotettava ja toimintavarma tekoäly voisi antaa oman panoksensa nykyaikaisen ja tehokkaan armeijan hyväksi; katsoo, että unionin on siksi omaksuttava johtava asema turvallisuus- ja puolustusalan tekoälyjärjestelmien tutkimus- ja kehitystoiminnassa; katsoo, että tekoälyä hyödyntävien sovellusten käyttö turvallisuus- ja puolustusalalla voisi tarjota operaation komentajalle useita suoria hyötyjä, joita ovat esimerkiksi laadukkaampi kerätty data, parempi tilannetietoisuus, nopeampi päätöksenteko, pienempi oheisvaurioiden riski paremman kaapeloinnin ansiosta, paikalla olevien joukkojen suojelu sekä puolustustarvikkeiden parempi luotettavuus ja siten pienempi ihmisiin kohdistuva riski ja pienempi ihmishenkien menetyksen riski; painottaa, että luotettavan tekoälyn kehittäminen puolustusalalla on olennaisen tärkeää Euroopan strategisen riippumattomuuden varmistamiseksi voimavarojen ja operaatioiden alalla; muistuttaa, että tekoälyjärjestelmistä on myös tulossa keskeisiä tekijöitä uusien turvallisuusuhkien, kuten kyber- ja hybridisodankäynnin, torjunnassa sekä verkossa että sen ulkopuolella; korostaa samalla kaikkia tekoälyn sääntelemättömän käytön riskejä ja haasteita; toteaa, että tekoäly voi altistua manipuloinnille, virheille ja epätarkkuuksille; |
94. |
korostaa, että tekoälyteknologiat ovat pohjimmiltaan kaksikäyttöisiä ja että tekoälyn kehittäminen puolustukseen liittyvissä toiminnoissa hyötyy sotilas- ja siviiliteknologioiden välisestä vaihdosta; korostaa, että tekoäly puolustukseen liittyvissä toiminnoissa on poikittainen murroksellinen teknologia, jonka kehittäminen voi tarjota mahdollisuuksia unionin kilpailukyvylle ja strategiselle riippumattomuudelle; |
95. |
toteaa, että nykypäivän hybridisodankäynnin ja edistyneen sodankäynnin yhteydessä tiedon määrä ja nopeus kriisin alkuvaiheissa saattavat olla ylivoimaisia ihmisanalyytikoille ja että tekoälyjärjestelmä voisi käsitellä tietoja sen varmistamiseksi, että ihmispäättäjät jäljittävät koko tietospektrin asianmukaisessa aikataulussa nopeaa reagointia varten; |
96. |
korostaa, että on tärkeää investoida tekoälyn inhimillisen pääoman kehittämiseen ja edistää tarvittavia osaamista ja koulutusta turvallisuus- ja puolustusalan tekoälyteknologioiden alalla keskittyen erityisesti puoliautonomisten ja autonomisten operatiivisten järjestelmien etiikkaan, joka perustuu ihmisen vastuuvelvollisuuteen tekoälyä hyödyntävässä maailmassa; korostaa erityisesti, että on tärkeää varmistaa, että tämän alan eettisillä asiantuntijoilla on asianmukaiset taidot ja he saavat asianmukaista koulutusta; kehottaa komissiota esittämään mahdollisimman pian vahvistetun osaamisohjelman, josta ilmoitettiin tekoälyä koskevassa valkoisessa kirjassa 19. helmikuuta 2020; |
97. |
korostaa, että kvanttilaskenta voi olla konflikteissa mullistavin muutos sitten atomiaseiden käyttöönoton, ja kehottaa siksi ottamaan kvanttilaskentateknologian jatkokehittämisen yhdeksi unionin ja jäsenvaltioiden painopisteeksi; toteaa, että kvanttilaskennan avulla tehdyt hyökkäykset, kriittiseen infrastruktuuriin kohdistuvat hyökkäykset mukaan lukien, luovat konfliktiympäristön, jossa päätöksentekoon käytettävissä oleva aika lyhenee dramaattisesti päivistä ja tunneista minuutteihin ja sekunteihin, mikä pakottaa jäsenvaltiot kehittämään itseään suojaavia voimavaroja ja kouluttamaan sekä päätöksentekijät että sotilashenkilöstön reagoimaan tehokkaasti tällaisissa määräajoissa; |
98. |
kehottaa lisäämään investointeja eurooppalaiseen tekoälyyn puolustuksen alalla ja sitä ylläpitävään kriittiseen infrastruktuuriin; |
99. |
muistuttaa, että useimmat maailman nykyisistä sotilasmahdeista ovat jo toteuttaneet merkittäviä T&K-toimia, jotka liittyvät tekoälyn sotilaalliseen ulottuvuuteen; katsoo, että unionin on huolehdittava siitä, ettei se jää tässä suhteessa jälkeen; |
100. |
kehottaa komissiota sisällyttämään kyberturvallisuusvalmiuksien kehittämisen teollisuuspolitiikkaansa, jotta voidaan varmistaa turvallisten, häiriönsietokykyisten ja toimintavarmojen tekoäly- ja robottijärjestelmien kehittäminen ja käyttöönotto; kehottaa komissiota tutkimaan lohkoketjuun perustuvien kyberturvallisuusprotokollien ja -sovellusten käyttöä, jotta voidaan parantaa tekoälyinfrastruktuurien häiriönkestokykyä, luotettavuutta ja toimintavarmuutta tiedonsalausmalleilla, joista on poistettu välikädet; kannustaa eurooppalaisia sidosryhmiä tutkimaan ja rakentamaan edistyneitä toimintoja, jotka helpottaisivat sellaisten korruptoituneiden ja vihamielisten tekoäly- ja robottijärjestelmien havaitsemista, jotka voisivat heikentää unionin ja kansalaisten turvallisuutta; |
101. |
korostaa, että kaikilla puolustusalan tekoälyjärjestelmillä on oltava konkreettinen ja tarkasti määritelty käyttöala siten, että ihmisellä säilyy toimijuus havaita ja kytkeä pois tai deaktivoida käyttöön otetut järjestelmät, jos ne siirtyvät pois ihmiskomentajan määrittelemältä ja osoittamalta käyttöalalta tai jos ne toteuttavat eskaloituvia tai ei-toivottuja toimia; katsoo, että sotilaskäyttöön tarkoitetut tekoälyä hyödyntävät järjestelmät, tuotteet ja teknologiat olisi varustettava ”mustalla laatikolla”, johon kirjataan kaikki koneen suorittamat tietotransaktiot; |
102. |
korostaa, että ihmiskäyttäjällä on säilyttävä kokonaisuudessaan vastuu ja vastuuvelvollisuus tekoälyjärjestelmien suunnittelua, kehittämistä, käyttöönottoa ja käyttöä koskevasta päätöksestä, sillä ihmisen suorittaman mielekkään seurannan ja valvonnan on oltava mahdollista kaikkien asejärjestelmien ja inhimillisten aikomusten suhteen, kun päätetään voimankäytöstä toteutettaessa tekoälyä hyödyntävien asejärjestelmien päätöksiä, joilla voi olla tappavia seurauksia; korostaa, että ihmisen suorittama valvonta olisi säilytettävä tekoälyjärjestelmien johtamisjärjestelyssä siten, että pidetään kiinni ihmisen osallistumista edellyttävästä periaatteesta, ihmisen osallistumisen mahdollistavasta periaatteesta ja ihminen määrää -periaatteesta sotilasjohdon tasolla; korostaa, että tekoälyjärjestelmien on mahdollistettava armeijoiden sotilasjohdon täysi vastuu ja vastuuvelvollisuus tappavasta voimankäytöstä sekä tarvittava harkinta, jota koneille ei voida antaa, koska tällaisen harkinnan on perustuttava erottelukykyyn, suhteellisuuteen ja ennalta varautumiseen, tappavien tai laajamittaista tuhoa aiheuttavien toimien toteuttamisessa tällaisten järjestelmien avulla; korostaa, että älykkäiden aseiden ja muiden tekoälyä hyödyntävien järjestelmien käyttöönotolle on luotava selkeät ja jäljitettävissä olevat valtuutus- ja vastuuvelvollisuuspuitteet, joissa käytetään yksilöllisiä käyttäjäominaisuuksia, kuten biometrisiä tietoja, jotta käyttöönotto voi tapahtua yksinomaan valtuutetun henkilöstön toimesta; |
Liikenne
103. |
korostaa tekoälyn, robotiikan ja niihin liittyvän teknologian käyttömahdollisuuksia kaikissa autonomisissa tie-, raide-, vesi- ja lentoliikennevälineissä ja myös edistettäessä liikennemuotosiirtymää ja intermodaalisuutta, koska tällaiset teknologiat voivat auttaa löytämään optimaalisen liikennemuotoyhdistelmän tavaroiden ja matkustajien kuljetuksessa; painottaa lisäksi niiden potentiaalia tehdä kuljetus-, logistiikka- ja liikennevirroista tehokkaampia ja kaikista liikennemuodoista turvallisempia, älykkäämpiä ja ympäristöystävällisempiä; huomauttaa, että tekoälyä koskeva eettinen lähestymistapa voidaan nähdä myös ennakkovaroitusjärjestelmänä erityisesti liikenteen turvallisuuden ja tehokkuuden kannalta; |
104. |
korostaa, että yritysten ja talousalueiden globaalissa kilpailussa unionin on edistettävä investointeja ja vahvistettava liikennealalla toimivien yritysten kansainvälistä kilpailukykyä luomalla tekoälysovellusten ja jatkoinnovaatioiden kehittämistä ja soveltamista suosiva ympäristö, jossa unioniin sijoittautuneista yrityksistä voi kehittyä maailman johtavia toimijoita tekoälyteknologioiden kehittämisessä; |
105. |
korostaa, että unionin liikennealalla tarvitaan päivitetty sääntelykehys, joka koskee tällaisia kehittyviä teknologioita ja niiden käyttöä liikennealalla, sekä sellainen selkeä eettinen kehys luotettavan tekoälyn saavuttamiseksi, jossa otetaan huomioon turvallisuuteen, yksilön autonomian kunnioittamiseen, valvontaan ja vastuuseen liittyvät näkökohdat; toteaa, että tämä lisää kaikille yhteisesti koituvia hyötyjä ja on avainasemassa edistettäessä investointeja tutkimukseen ja innovointiin, osaamisen kehittämistä ja tekoälyn käyttöönottoa julkisissa palveluissa sekä pk-yrityksissä, startup-yrityksissä ja muissa yrityksissä, samalla kun varmistetaan tietosuoja ja yhteentoimivuus aiheuttamatta tarpeetonta hallinnollista rasitetta yrityksille ja kuluttajille; |
106. |
toteaa, että tekoälyn kehittäminen ja käyttöönotto liikennealalla ei ole mahdollista ilman nykyaikaista infrastruktuuria, joka on olennainen osa älykkäitä liikennejärjestelmiä; korostaa, että jäsenvaltioiden kehitystasojen sitkeät erot aiheuttavat riskin siitä, että vähiten kehittyneet alueet ja niiden asukkaat jäävät paitsi autonomisen liikkuvuuden kehittämisen tuomista hyödyistä; kehottaa antamaan riittävästi rahoitusta unionin liikenneinfrastruktuurin nykyaikaistamiseen, myös sen integrointiin 5G-verkkoon; |
107. |
suosittaa, että kaikille liikennemuodoille, autoteollisuus mukaan lukien, ja tekoälyä hyödyntävien ajoneuvojen ja niihin liittyvien tuotteiden ja palvelujen testaukseen kehitetään unionin laajuiset luotettavaa tekoälyä koskevat standardit; |
108. |
toteaa, että tekoälyjärjestelmät voisivat auttaa vähentämään liikennekuolemia merkittävästi esimerkiksi parantamalla reaktioaikoja ja sääntöjen noudattamista; pitää silti mahdottomana, että autonomisten ajoneuvojen käyttö estäisi kaikki onnettomuudet, ja korostaa, että tämä tekee tekoälyn tekemien päätösten selitettävyydestä entistäkin tärkeämpää, jotta päätösten puutteet ja tahattomat seuraukset pystytään perustelemaan; |
Työllisyys, työntekijöiden oikeudet, digitaaliset taidot ja työyhteisö
109. |
huomauttaa, että tekoälyn, robotiikan ja niihin liittyvän teknologian soveltaminen työpaikoilla voi edistää osallistavia työmarkkinoita ja vaikuttaa työterveyteen ja -turvallisuuteen ja että niitä voidaan toisaalta käyttää myös työntekijöiden suoritusten seurantaan, arviointiin, ennakoimiseen ja ohjaamiseen, mistä on suoria ja välillisiä seurauksia heidän työuralleen; toteaa, että tekoälyllä olisi oltava myönteinen vaikutus työoloihin ja että sen käytön olisi perustuttava ihmisoikeuksien sekä unionin perusoikeuksien ja arvojen kunnioittamiseen; katsoo, että tekoälyn olisi oltava ihmiskeskeistä, parannettava ihmisten ja yhteiskunnan hyvinvointia ja edistettävä reilua ja oikeudenmukaista siirtymää; toteaa, että tällaisilla teknologioilla olisi siten oltava myönteinen vaikutus työoloihin ja että niiden käytön olisi perustuttava ihmisoikeuksien sekä unionin perusoikeuksien ja arvojen kunnioittamiseen; |
110. |
korostaa tarvetta kehittää koulutuksen avulla työntekijöiden ja heidän edustajiensa tekoälyosaamista työpaikoilla, jotta voidaan ymmärtää paremmin tekoälyratkaisujen vaikutuksia; korostaa, että työnhakijoille ja työntekijöille olisi ilmoitettava asiaankuuluvalla tavalla kirjallisesti tekoälyn käytöstä rekrytointimenettelyissä ja muissa henkilöresursseja koskevissa päätöksissä sekä siitä, miten tässä tapauksessa voidaan pyytää ihmisen suorittamaa uudelleentarkastelua automaattisen päätöksen kumoamiseksi; |
111. |
korostaa, että on varmistettava, että tekoälyn ja robotiikan kehittämisestä ja käytöstä syntyvä tuottavuuden kasvu hyödyttää paitsi yritysten omistajia ja osakkeenomistajia myös yrityksiä ja työntekijöitä parempien työolojen ja -ehtojen, myös palkkojen, sekä talouskasvun ja -kehityksen muodossa ja että se palvelee koko yhteiskuntaa, erityisesti silloin, kun tällaiset hyödyt saavutetaan työpaikkojen kustannuksella; kehottaa jäsenvaltioita tutkimaan huolellisesti tekoälyn mahdollisia vaikutuksia työmarkkinoihin ja sosiaaliturvajärjestelmiin ja kehittämään strategioita pitkän aikavälin vakauden varmistamiseksi uudistamalla veroja ja maksuja sekä muilla toimenpiteillä siltä varalta, että julkiset tulot pienenevät; |
112. |
korostaa, että yritysten on tärkeää investoida viralliseen ja epäviralliseen koulutukseen ja elinikäiseen oppimiseen, jotta voidaan tukea oikeudenmukaista siirtymistä digitaalitalouteen; korostaa tässä yhteydessä, että tekoälyn käyttöön ottaneilla yrityksillä on vastuu asianmukaisen uudelleen- ja täydennyskoulutuksen tarjoamisesta kaikille asianomaisille työntekijöille, jotta he oppivat käyttämään digitaalisia välineitä ja työskentelemään yhteistyörobottien ja muiden uusien teknologioiden kanssa ja siten mukautuvat työmarkkinoiden muuttuviin tarpeisiin ja pysyvät työelämässä; |
113. |
toteaa, että erityistä huomiota olisi kiinnitettävä keikka- ja alustatyön kaltaisiin uusiin työn muotoihin, jotka ovat seurausta uusien teknologioiden soveltamisesta tässä yhteydessä; korostaa, että tekoälyn vaikutus on otettava huomioon myös säänneltäessä etätyön ehtoja kaikkialla unionissa ja varmistettaessa ihmisarvoiset työolot ja -ehdot digitaalitaloudessa; kehottaa komissiota kuulemaan tässä asiassa työmarkkinaosapuolia, tekoälyn kehittäjiä, tutkijoita ja muita sidosryhmiä; |
114. |
korostaa, että tekoäly, robotiikka ja niihin liittyvä teknologia eivät saa millään tavoin vaikuttaa jäsenvaltioissa ja unionin tasolla tunnustettujen perusoikeuksien käyttämiseen, mukaan lukien oikeus tai vapaus ryhtyä lakkoon tai toteuttaa muita jäsenvaltioiden työmarkkinasuhteiden järjestelmien piiriin kuuluvia toimia, kansallisen lainsäädännön ja/tai käytännön mukaisesti, taikka vaikuttaa oikeuteen neuvotella, tehdä ja panna täytäntöön työehtosopimuksia tai ryhtyä työtaistelutoimiin kansallisen lainsäädännön ja/tai käytännön mukaisesti; |
115. |
painottaa koulutuksen ja jatkuvan oppimisen merkitystä, jotta voidaan kehittää digitaalisella aikakaudella tarvittavat pätevyydet ja torjua digitaalista syrjäytymistä; kehottaa jäsenvaltioita investoimaan laadukkaisiin, tarpeisiin vastaaviin ja osallistaviin yleissivistävän koulutuksen, ammatillisen koulutuksen ja elinikäisen oppimisen järjestelmiin sekä työntekijöiden uudelleen- ja täydennyskoulutustoimiin aloilla, joihin tekoäly saattaa vaikuttaa vakavasti; korostaa tarvetta tarjota nykyiselle ja tulevalle työvoimalle tarvittava luku- ja kirjoitustaito, laskutaito ja digitaalinen osaaminen samoin kuin luonnontieteiden, teknologian, insinööritieteiden ja matematiikan alan (STEM-aineiden) osaamista ja monialaista pehmeää osaamista, kuten kriittistä ajattelukykyä, luovuutta ja yrittäjyyshenkeä; korostaa, että tässä yhteydessä on kiinnitettävä erityistä huomiota muita heikommassa asemassa olevien ryhmien osallistamiseen; |
116. |
muistuttaa, että tekoälyn, robotiikan ja niihin liittyvän teknologian on oltava työpaikoilla kaikkien käytettävissä kaikkia palvelevan suunnittelun periaatteen mukaisesti; |
Koulutus ja kulttuuri
117. |
korostaa tarvetta kehittää tekoälyn kehittämiselle, käyttöönotolle ja käytölle kriteerejä, joissa otetaan huomioon niiden vaikutus koulutukseen, tiedotusvälineisiin, nuoriin, tutkimukseen ja urheiluun sekä vaikutus kulttuurialalla ja luovilla aloilla, kehittämällä vertailuarvoja ja määrittelemällä periaatteita tekoälyteknologioiden eettisesti vastuulliselle ja hyväksytylle käytölle näillä aloilla, mukaan lukien selkeä vastuujärjestelmä tekoälyn käytöstä syntyville tuotteille; |
118. |
toteaa, että jokaisella lapsella on oikeus laadukkaaseen julkiseen koulutukseen kaikilla tasoilla; kehottaa siksi kehittämään, ottamaan käyttöön ja käyttämään laadukkaita tekoälyjärjestelmiä, jotka edistävät ja tarjoavat kaikille laadukkaita oppimisvälineitä kaikilla tasoilla, ja korostaa, että uusien tekoälyjärjestelmien käyttöönotto kouluissa ei saisi pahentaa digitaalista kahtiajakoa yhteiskunnassa; toteaa, että tekoäly ja robotiikka tarjoavat valtavia mahdollisuuksia koulutuksen alalla; toteaa, että tekoälyyn perustuvat yksilöllisen oppimisen järjestelmät eivät saisi korvata opetussuhteita opettajien kanssa ja että perinteisiä koulutusmuotoja ei saisi unohtaa, ja muistuttaa samalla, että opettajille, jotka pyrkivät hankkimaan asianmukaisia taitoja, jotta he voivat sopeutua teknologisiin muutoksiin ja paitsi hyödyntää tekoälyn tarjoamia mahdollisuuksia myös ymmärtää sen rajoituksia, olisi tarjottava taloudellista, teknistä ja koulutukseen liittyvää tukea, tieto- ja viestintätekniikan alan erikoiskoulutus mukaan lukien; kehottaa laatimaan unionin tasolla strategian, jotta voidaan edistää koulutusjärjestelmien uudistamista ja päivittämistä, auttaa oppilaitoksia valmistautumaan kaikilla tasoilla ja tarjota opettajille ja oppilaille tarvittavat taidot ja kyvyt; |
119. |
korostaa, että oppilaitosten olisi pyrittävä käyttämään koulutustarkoituksiin ainoastaan sellaisia tekoälyjärjestelmiä, jotka ovat saaneet eettisten periaatteiden noudattamista koskevan eurooppalaisen todistuksen; |
120. |
korostaa, että digitoinnin ja uusien teknologioiden tarjoamat mahdollisuudet eivät saa johtaa työpaikkojen yleiseen vähenemiseen kulttuurialalla ja luovilla aloilla, originaalien säilyttämisen laiminlyöntiin tai siihen, että väheksytään perinteisiä tapoja tutustua kulttuuriperintöön, vaan niitä olisi suosittava yhtäläisesti; toteaa, että unionissa kehitettyjen, käyttöön otettujen ja käytettyjen tekoälyjärjestelmien olisi heijastettava unionin kulttuurista monimuotoisuutta ja monikielisyyttä; |
121. |
toteaa tekoälyn kasvavan potentiaalin tieto-, media- ja verkkoalustojen alalla, myös välineenä disinformaation torjunnassa unionin lainsäädännön mukaisesti; painottaa, että jos tekoälyä ei säännellä, sillä voi olla myös eettisesti haitallisia vaikutuksia, koska datassa ja algoritmeissa olevia vääristymiä hyödyntämällä voidaan levittää disinformaatiota ja luoda informaatiokuplia; korostaa videonjakoalustojen ja suoratoistoalustojen käyttämien algoritmien läpinäkyvyyden ja niihin liittyvän vastuuvelvollisuuden merkitystä, jotta varmistetaan kulttuurisesti ja kielellisesti monimuotoisen sisällön saatavuus; |
Kansalliset valvontaviranomaiset
122. |
panee merkille lisäarvon, joka saadaan siitä, että kussakin jäsenvaltiossa nimetyt kansalliset valvontaviranomaiset vastaavat suuririskisen tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä, käyttöönottoa ja käyttöä koskevien oikeudellisten velvoitteiden ja eettisten periaatteiden noudattamisen varmistamisesta, arvioinnista ja seurannasta, sillä näin edesautetaan oikeudellisten ja eettisten vaatimusten noudattamista näissä teknologioissa; |
123. |
katsoo, että nämä viranomaiset on velvoitettava tekemään yhteistyötä alakohtaisen lainsäädännön täytäntöönpanosta vastaavien viranomaisten kanssa, ilman että ne hoitavat näiden kanssa päällekkäisiä tehtäviä, jotta voidaan tunnistaa eettisestä näkökulmasta suuririskiset teknologiat ja valvoa vaadittujen ja aiheellisten toimenpiteiden täytäntöönpanoa, jos tällaisia teknologioita tunnistetaan; |
124. |
toteaa, että viranomaisten olisi oltava yhteydessä paitsi toisiinsa myös komissioon ja muihin asiaankuuluviin unionin toimielimiin, elimiin, toimistoihin ja virastoihin, jotta voidaan taata rajatylittävien toimien johdonmukaisuus; |
125. |
ehdottaa, että tällaisen yhteistyön puitteissa laaditaan yhteiset kriteerit ja hakuprosessi, joita noudatetaan myönnettäessä eettisten periaatteiden noudattamista koskeva eurooppalainen todistus, myös silloin, kun sellaisten teknologioiden, joita ei pidetä suuririskisinä, kehittäjä, käyttöönottaja tai käyttäjä pyytää todistusta siitä, että tämä on saanut kansalliselta valvontaviranomaiselta myönteisen arvion vaatimusten noudattamisesta; |
126. |
kehottaa antamaan näille viranomaisille tehtäväksi edistää unionissa säännöllistä ajatustenvaihtoa kansalaisyhteiskunnan kanssa ja innovointia tarjoamalla tukea tutkijoille, kehittäjille ja muille asiaankuuluville sidosryhmille sekä digitaalisesti vähemmän kypsille yrityksille, etenkin pk-yrityksille tai startup-yrityksille, erityisesti valistusta ja tukea kehitykseen, käyttöönottoon, koulutukseen ja kykyjen hankkimiseen, jotta varmistetaan tehokas teknologian siirto sekä pääsy teknologioihin, hankkeisiin, tuloksiin ja verkostoihin; |
127. |
kehottaa kutakin jäsenvaltiota myöntämään sen nimeämälle kansalliselle valvontaviranomaiselle riittävästi rahoitusta ja korostaa tarvetta vahvistaa kansallisia markkinavalvontaviranomaisia tekoälyyn liittyvien valmiuksien, taitojen ja osaamisen sekä tekoälyn, robotiikan ja niihin liittyvän teknologian erityisiä riskejä koskevan tietämyksen osalta; |
Koordinointi unionin tasolla
128. |
pitää tärkeänä, että komissio ja/tai tätä varten mahdollisesti nimettävät asiaankuuluvat unionin toimielimet, elimet, toimistot ja virastot vastaavat unionin tason koordinoinnista, jotta vältetään hajanaisuus, ja että varmistetaan yhdenmukainen lähestymistapa kaikkialla unionissa; katsoo, että koordinoinnissa olisi keskityttävä edellisessä alaosiossa tarkoitettujen kansallisten valvontaviranomaisten toimeksiantoihin ja toimiin kussakin jäsenvaltiossa samoin kuin parhaiden käytäntöjen vaihtamiseen näiden viranomaisten kesken sekä alan tutkimus- ja kehitysyhteistyön edistämiseen kaikkialla unionissa; kehottaa komissiota arvioimaan eri vaihtoehtoja ja löytämään sopivimman ratkaisun tällaisen koordinoinnin jäsentämiseen; mainitsee asiaankuuluvista olemassa olevista unionin toimielimistä, elimistä, toimistoista ja virastoista esimerkkeinä Euroopan unionin kyberturvallisuusviraston (ENISA), Euroopan tietosuojavaltuutetun (EDPS) ja Euroopan oikeusasiamiehen; |
129. |
katsoo, että tällainen koordinointi, kuten myös eettisten periaatteiden noudattamista koskeva eurooppalainen todistus, paitsi hyödyttäisi unionin teollisuuden kehitystä ja innovointia tällä saralla myös lisäisi kansalaisten tietoisuutta näihin teknologioihin liittyvistä mahdollisuuksista ja riskeistä; |
130. |
ehdottaa perustettavaksi asiantuntijakeskusta, jossa on mukana tiede- ja tutkimusyhteisön ja teollisuuden edustajia ja yksittäisiä asiantuntijoita unionin tasolla, jotta voidaan edistää tietämyksen ja teknisen asiantuntemuksen vaihtoa sekä helpottaa yhteistyötä unionissa ja sen ulkopuolella; kehottaa asiantuntijakeskusta ottamaan mukaan myös sidosryhmäorganisaatiot, kuten kuluttajansuojajärjestöt, jotta varmistetaan kuluttajien laaja edustus; katsoo, että algoritmisten järjestelmien naisiin ja vähemmistöihin kohdistuvien mahdollisten suhteettomien vaikutusten vuoksi tällaisen rakenteen päätöksentekotasojen olisi oltava monimuotoisia ja niillä olisi varmistettava sukupuolten tasa-arvo; korostaa, että jäsenvaltioiden on kehitettävä tekoälyä koskevia riskinhallintastrategioita kansallisten markkinavalvontastrategioidensa yhteydessä; |
131. |
ehdottaa, että komissio ja/tai tätä varten mahdollisesti nimettävät asiaankuuluvat unionin toimielimet, elimet, toimistot ja virastot antavat kansallisille valvontaviranomaisille tarvittavaa apua niiden roolissa ensimmäisinä yhteyspisteinä tapauksissa, joissa epäillään, että tekoälyä koskevassa unionin sääntelykehyksessä vahvistettuja oikeudellisia velvoitteita ja eettisiä periaatteita, mukaan lukien syrjimättömyysperiaate, on rikottu; toteaa, että tällöin olisi annettava kansallisille valvontaviranomaisille tarvittavaa apua myös tapauksissa, joissa nämä suorittavat vaatimustenmukaisuuden arviointeja tukeakseen kansalaisten riitauttamis- ja hyvitysoikeutta, varsinkin tukemalla soveltuvin osin muiden toimivaltaisten viranomaisten, erityisesti kuluttajansuoja-asioiden yhteistyöverkoston ja muissa jäsenvaltioissa sijaitsevien kansallisten kuluttajansuojaelinten, kansalaisyhteiskunnan järjestöjen ja työmarkkinaosapuolten, kuulemista unionissa; |
132. |
panee merkille tiedeyhteisön, kansalaisyhteiskunnan ja teollisuuden edustajista koostuvan, tekoälyä käsittelevän korkean tason asiantuntijaryhmän samoin kuin eurooppalaisen tekoälyallianssin arvokkaan työn, erityisesti ”Luotettavaa tekoälyä koskevat eettiset ohjeet”, ja ehdottaa, että se voisi tarjota asiantuntemusta komissiolle ja/tai tätä varten mahdollisesti nimettäville asiaankuuluville unionin toimielimille, elimille, toimistoille ja virastoille; |
133. |
panee merkille tekoälyyn liittyvien hankkeiden sisällyttämisen Euroopan puolustusteolliseen kehittämisohjelmaan; katsoo, että tuleva Euroopan puolustusrahasto ja pysyvä rakenteellinen yhteistyö (PRY) voivat myös tarjota puitteet tuleville tekoälyyn liittyville hankkeille, mikä voisi auttaa virtaviivaistamaan unionin toimia tällä alalla ja edistämään samanaikaisesti unionin tavoitetta ihmisoikeuksien, kansainvälisen oikeuden ja monenvälisten ratkaisujen vahvistamisesta; korostaa, että tekoälyyn liittyvät hankkeet olisi synkronoitava tekoälyä koskevien unionin laajempien siviiliohjelmien kanssa; toteaa, että tekoälystä 19. helmikuuta 2020 annetun komission valkoisen kirjan mukaisesti olisi perustettava tekoälyn tutkimukseen ja kehittämiseen turvallisuus- ja puolustusalalla keskittyviä huippuosaamis- ja testauskeskuksia noudattaen tiukkoja vaatimuksia, joilla tuetaan yksityisten sidosryhmien osallistumista ja investointeja; |
134. |
panee merkille 19. helmikuuta 2020 julkaistun komission valkoisen kirjan tekoälystä ja pitää valitettavana, että siinä ei otettu huomioon sotilaallisia näkökohtia; kehottaa komissiota ja korkeaa edustajaa / varapuheenjohtajaa myös osana yleistä lähestymistapaa esittämään unionin puitteissa toteutettavia puolustukseen liittyviä toimintoja koskevan alakohtaisen tekoälystrategian, jolla varmistetaan sekä kansalaisten oikeuksien kunnioittaminen että unionin strategiset edut ja joka perustuu tekoälyä hyödyntävien järjestelmien kehittämisestä niiden sotilaalliseen käyttöön ulottuvaan johdonmukaiseen lähestymistapaan, ja perustamaan tekoälyä käsittelevän korkean tason asiantuntijaryhmän yhteyteen turvallisuutta ja puolustusta käsittelevän työryhmän, jonka olisi käsiteltävä erityisesti toimintapoliittisia ja investointeihin liittyviä kysymyksiä sekä tekoälyn eettisiä näkökohtia turvallisuuden ja puolustuksen alalla; kehottaa neuvostoa, komissiota ja korkeaa edustajaa / varapuheenjohtajaa aloittamaan tätä koskevan jäsennellyn vuoropuhelun parlamentin kanssa; |
Eettisten periaatteiden noudattamista koskeva eurooppalainen todistus
135. |
ehdottaa, että unionin tason koordinoinnin yhteydessä laaditaan yhteiset kriteerit ja hakuprosessi, joita noudatetaan myönnettäessä eettisten periaatteiden noudattamista koskeva eurooppalainen todistus, myös silloin, kun sellaisten teknologioiden, joita ei pidetä suuririskisinä, kehittäjä, käyttöönottaja tai käyttäjä pyytää todistusta siitä, että tämä on saanut kansalliselta valvontaviranomaiselta myönteisen arvion vaatimusten noudattamisesta; |
136. |
katsoo, että tällainen eettisten periaatteiden noudattamista koskeva eurooppalainen todistus edistäisi sisäänrakennettua eettisyyttä tekoälyn ekosysteemien koko toimitusketjussa; ehdottaakin, että todistus voisi suuririskisten teknologioiden tapauksessa olla pakollinen edellytys pääsylle tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskeviin julkisiin hankintamenettelyihin; |
Kansainvälinen yhteistyö
137. |
katsoo, että tehokas rajatylittävä yhteistyö ja eettiset normit ovat mahdollisia vain, jos kaikki sidosryhmät sitoutuvat varmistamaan ihmisen toimijuuden ja ihmisen suorittaman valvonnan, teknisen toimintavarmuuden ja turvallisuuden, läpinäkyvyyden ja vastuuvelvollisuuden, monimuotoisuuden, syrjimättömyyden ja oikeudenmukaisuuden sekä yhteiskunnallisen ja ekologisen hyvinvoinnin ja noudattamaan yksityisyyden suojaa, datahallintoa ja tietosuojaa koskevia vakiintuneita periaatteita, erityisesti asetuksessa (EU) 2016/679 vahvistettuja periaatteita; |
138. |
korostaa, että näiden teknologioiden kehittämistä, käyttöönottoa ja käyttöä koskevat unionin oikeudelliset velvoitteet ja eettiset periaatteet voisivat nostaa Euroopan johtavaan asemaan maailmassa tekoälyalalla, joten niitä olisi edistettävä maailmanlaajuisesti tekemällä yhteistyötä kansainvälisten kumppanien kanssa ja jatkamalla samalla kriittistä ja etiikkapohjaista vuoropuhelua sellaisten kolmansien maiden kanssa, joilla on vaihtoehtoisia malleja tekoälyn sääntelyä, kehittämistä ja käyttöönottoa varten; |
139. |
muistuttaa, että näihin teknologioihin liittyvillä mahdollisuuksilla ja riskeillä on maailmanlaajuinen ulottuvuus, sillä niissä käytettyjä ohjelmistoja ja dataa tuodaan usein unioniin tai viedään unionista, joten yhteistyöhön tarvitaan johdonmukainen lähestymistapa kansainvälisellä tasolla; kehottaa komissiota tekemään aloitteen sen arvioimiseksi, mitä kahden- ja monenvälisiä sopimuksia olisi mukautettava, jotta voidaan varmistaa johdonmukainen lähestymistapa ja tehdä eettisten periaatteiden noudattamisen eurooppalaista mallia tunnetuksi maailmanlaajuisesti; |
140. |
korostaa edellä kuvatun unionin tason koordinoinnin lisäarvoa myös tässä mielessä; |
141. |
kehottaa luomaan synergioita ja verkostoja eurooppalaisten tekoälytutkimuskeskusten ja muiden monenvälisten foorumien, kuten Euroopan neuvoston, YK:n kasvatus-, tiede- ja kulttuurijärjestön (Unesco), Taloudellisen yhteistyön ja kehityksen järjestön (OECD), Maailman kauppajärjestön (WTO) ja Kansainvälisen televiestintäliiton (ITU), välille, jotta voidaan sovittaa yhteen niiden toimet ja koordinoida paremmin tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä; |
142. |
korostaa, että unionin on oltava eturintamassa tuettaessa CCW-sopimuksen hallitustenvälisessä asiantuntijaryhmässä ja muilla asiaankuuluvilla foorumeilla monenvälisiä pyrkimyksiä keskustella tehokkaasta kansainvälisestä sääntelykehyksestä, jolla varmistetaan ihmisen suorittama mielekäs valvonta autonomisten asejärjestelmien suhteen, kyseisten teknologioiden hallitsemiseksi ottamalla käyttöön hyvin määriteltyjä, vertailuarvoihin perustuvia prosesseja ja hyväksymällä lainsäädäntöä niiden eettistä käyttöä varten armeijan, teollisuuden, lainvalvonnan, tiedeyhteisön ja kansalaisyhteiskunnan sidosryhmiä kuullen, jotta ymmärretään asiaan liittyvät eettiset näkökohdat ja vähennetään tällaisiin teknologioihin liittyviä riskejä sekä estetään niiden käyttö pahantahtoisiin tarkoituksiin; |
143. |
tunnustaa Naton roolin euroatlanttisen turvallisuuden edistämisessä ja kehottaa tekemään Naton puitteissa yhteistyötä puolustusalan tekoälyjärjestelmien yhteisten standardien laatimista ja yhteentoimivuutta varten; korostaa, että transatlanttiset suhteet ovat tärkeitä yhteisten arvojen säilyttämiseksi ja tulevien ja uusien uhkien torjumiseksi; |
144. |
korostaa, että on tärkeää luoda sotilaskäyttöön sovitettujen tekoälyä hyödyntävien järjestelmien käytölle sotilasoperaatioissa eettiset käytännesäännöt, jotka vastaavat kemiallisten ja biologisten aseiden käyttöönoton kieltävää voimassa olevaa sääntelykehystä; katsoo, että komission olisi käynnistettävä tekoälyä hyödyntävien asejärjestelmien käyttöä sodankäynnissä koskevien normien laatiminen kansainvälisen humanitaarisen oikeuden mukaisesti ja että unionin olisi tavoiteltava tällaisten normien kansainvälistä hyväksymistä; katsoo, että unionin olisi harjoitettava tekoälydiplomatiaa kansainvälisillä foorumeilla samanmielisten kumppanien, kuten G7:n, G20:n ja OECD:n, kanssa; |
Loppupäätelmät
145. |
toteaa edellä esitettyjen tekoälyn, robotiikan ja niihin liittyvän teknologian eettiseen ulottuvuuteen liittyviä näkökohtia koskevien pohdintojen perusteella, että oikeudellinen ja eettinen ulottuvuus olisi otettava huomioon toimivassa, tulevaisuuteen suuntautuvassa ja kattavassa unionin tason sääntelykehyksessä, jota tukevat kansalliset toimivaltaiset viranomaiset ja jota koordinoivat ja edistävät komissio ja/tai tätä varten mahdollisesti nimettävät asiaankuuluvat unionin toimielimet, elimet, toimistot ja virastot säännöllisenä tukenaan edellä mainittu asiantuntijakeskus, ja että tätä eettistä ulottuvuutta olisi kunnioitettava asiaankuuluvasti ja sen noudattamisesta olisi annettava todistus sisämarkkinoilla; |
146. |
pyytää komissiota Euroopan unionin toiminnasta tehdyn sopimuksen 225 artiklassa määrättyä menettelyä noudattaen tekemään Euroopan unionin toiminnasta tehdyn sopimuksen 114 artiklan nojalla ehdotuksen asetukseksi tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä, käyttöönottoa ja käyttöä koskevista eettisistä periaatteista liitteenä olevien yksityiskohtaisten suositusten mukaisesti; huomauttaa, että ehdotuksella ei saisi heikentää alakohtaista lainsäädäntöä vaan sillä olisi ainoastaan korjattava havaitut porsaanreiät; |
147. |
suosittaa, että komissio kaikkia asianomaisia sidosryhmiä kuultuaan tarkastelee tarvittaessa tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan sovellettavaa voimassa olevaa unionin lainsäädäntöä, jotta voidaan vastata niiden nopeaan kehitykseen liitteessä olevien suositusten mukaisesti välttäen ylisääntelyä, myös pk-yritysten tapauksessa; |
148. |
katsoo, että tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevan unionin sääntelykehyksen määräajoin tapahtuva arviointi ja tarvittaessa uudelleentarkastelu on olennaisen tärkeää sen varmistamiseksi, että sovellettava lainsäädäntö on teknologian nopean kehityksen tasalla; |
149. |
katsoo, että pyydetyllä lainsäädäntöehdotuksella olisi rahoitusvaikutuksia, jos jollekin eurooppalaiselle elimelle annettaisiin edellä mainitut koordinointitehtävät ja jos sille annettaisiin tarvittavat tekniset välineet ja henkilöresurssit sen uusien tehtävien hoitamiseksi; |
o
o o
150. |
kehottaa puhemiestä välittämään tämän päätöslauselman sekä liitteenä olevat yksityiskohtaiset suositukset komissiolle ja neuvostolle. |
(1) EUVL L 252, 8.10.2018, s. 1.
(2) EYVL L 180, 19.7.2000, s. 22.
(3) EYVL L 303, 2.12.2000, s. 16.
(4) EUVL L 119, 4.5.2016, s. 1.
(5) EUVL L 119, 4.5.2016, s. 89.
(6) EUVL L 123, 12.5.2016, s. 1.
(7) EUVL C 252, 18.7.2018, s. 239.
(8) EUVL C 307, 30.8.2018, s. 163.
(9) EUVL C 433, 23.12.2019, s. 86.
(10) Hyväksytyt tekstit, P8_TA(2018)0332.
(11) Hyväksytyt tekstit, P8_TA(2019)0081.
(12) https://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2020)654179.
(13) Euroopan parlamentin ja neuvoston direktiivi (EU) 2019/882, annettu 17 päivänä huhtikuuta 2019, tuotteiden ja palvelujen esteettömyysvaatimuksista (EUVL L 151, 7.6.2019, s. 70).
(14) Euroopan parlamentin ja neuvoston päätös N:o 768/2008/EY, tehty 9 päivänä heinäkuuta 2008, tuotteiden kaupan pitämiseen liittyvistä yhteisistä puitteista ja päätöksen 93/465/ETY kumoamisesta (EUVL L 218, 13.8.2008, s. 82).
PÄÄTÖSLAUSELMAN LIITE:
PYYDETYN EHDOTUKSEN SISÄLTÖÄ KOSKEVAT YKSITYISKOHTAISET SUOSITUKSET
A. EHDOTUKSEN PERIAATTEET JA TAVOITTEET
I. |
Ehdotuksen pääperiaatteet ja tavoitteet ovat seuraavat:
|
II. |
Ehdotus koostuu seuraavista osista:
|
III. |
Asetus tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä, käyttöönottoa ja käyttöä koskevista eettisistä periaatteista perustuu seuraaviin periaatteisiin:
|
IV. |
Unionin tason koordinoinnin toteuttamiseksi komission ja/tai tätä varten mahdollisesti nimettävien asiaankuuluvien unionin toimielinten, elinten, toimistojen ja virastojen olisi hoidettava seuraavat päätehtävät:
|
V. |
Lisäksi komission olisi hoidettava seuraavat tehtävät:
|
VI. |
Kunkin jäsenvaltion valvontaviranomaisen olisi hoidettava seuraavat päätehtävät:
|
VII. |
Sidosryhmien keskeisenä tehtävänä olisi oltava yhteydenpito komission ja/tai tätä varten mahdollisesti nimettävien asiaankuuluvien unionin toimielinten, elinten, toimistojen ja virastojen sekä kunkin jäsenvaltion valvontaviranomaisen kanssa. |
B. PYYDETYN LAINSÄÄDÄNTÖEHDOTUKSEN TEKSTI
Ehdotus
EUROOPAN PARLAMENTIN JA NEUVOSTON ASETUS
tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä, käyttöönottoa ja käyttöä koskevista eettisistä periaatteista
EUROOPAN PARLAMENTTI JA EUROOPAN UNIONIN NEUVOSTO, jotka
ottavat huomioon Euroopan unionin toiminnasta tehdyn sopimuksen ja erityisesti sen 114 artiklan,
ottavat huomioon Euroopan komission ehdotuksen,
sen jälkeen kun esitys lainsäätämisjärjestyksessä hyväksyttäväksi säädökseksi on toimitettu kansallisille parlamenteille,
ottavat huomioon Euroopan talous- ja sosiaalikomitean lausunnon,
noudattavat tavallista lainsäätämisjärjestystä,
sekä katsovat seuraavaa:
(1) |
Tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisen teknologian käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, kehittämisen, käyttöönoton ja käytön olisi perustuttava haluun palvella yhteiskuntaa. Näihin teknologioihin voi liittyä mahdollisuuksia ja riskejä, joiden käsittelyä ja sääntelyä varten olisi vahvistettava eettisiä periaatteita ilmentävä kattava unionin tason sääntelykehys, jota olisi noudatettava teknologian kehittämisestä ja käyttöönotosta aina sen käyttöön asti. |
(2) |
Tällaista sääntelykehystä, joka koskee tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisen teknologian käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, kehittämistä, käyttöönottoa ja käyttöä unionissa, olisi noudatettava samantasoisesti kaikissa jäsenvaltioissa, jotta näiden teknologioiden tarjoamat mahdollisuudet voidaan hyödyntää tehokkaasti ja niihin liittyviin riskeihin voidaan puuttua johdonmukaisesti ja jotta voidaan välttää sääntelyn hajanaisuutta. Olisi varmistettava, että tässä asetuksessa vahvistettuja sääntöjä sovelletaan yhdenmukaisesti kaikkialla unionissa. |
(3) |
Asiassa eri puolilla unionia noudatettavien sääntöjen ja käytäntöjen nykyinen moninaisuus uhkaa johtaa hajanaisuuteen sisämarkkinoilla ja on merkittävä riski yhtä lailla yksilöiden kuin yhteiskunnan hyvinvoinnin ja vaurauden suojelun kannalta sekä sen kannalta, että voidaan hyödyntää johdonmukaisesti kaikkia tekoälyn, robotiikan ja niihin liittyvän teknologian tarjoamia mahdollisuuksia innovoinnin edistämiseen sekä hyvinvoinnin ja vaurauden säilyttämiseen. Erot siinä, missä määrin kehittäjät, käyttöönottajat ja käyttäjät ottavat huomioon näihin teknologioihin erottamattomasti liittyvän eettisen ulottuvuuden, voivat estää niiden vapaan kehittämisen, käyttöönoton tai käytön unionissa sekä muodostaa esteen tasapuolisille toimintaedellytyksille ja teknologisen edistyksen tavoittelulle ja taloudellisen toiminnan harjoittamiselle unionin tasolla, vääristää kilpailua ja estää viranomaisia täyttämästä unionin oikeuden mukaisia velvoitteitaan. Lisäksi se, että tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämiseltä, käyttöönotolta ja käytöltä puuttuu eettisiä periaatteita ilmentävä yhteinen sääntelykehys, aiheuttaa oikeudellista epävarmuutta kaikille osapuolille eli kehittäjille, käyttöönottajille ja käyttäjille. |
(4) |
Tällä asetuksella olisi edistettävä johdonmukaista lähestymistapaa unionin tasolla, mutta siinä olisi kuitenkin annettava tämän lähestymistavan asettamissa rajoissa jäsenvaltioille harkintavalta täytäntöönpanossa muun muassa sen suhteen, miten niiden kansallisen valvontaviranomaisen on määrä hoitaa toimeksiantonsa ottaen huomioon sille tässä asetuksessa asetettu tavoite. |
(5) |
Tämä asetus ei rajoita voimassa olevan tai tulevan alakohtaisen lainsäädännön soveltamista. Sen olisi oltava tavoitteeseensa nähden oikeasuhteinen, jotta se ei aiheettomasti haittaa innovointia unionissa, ja sen olisi oltava riskiperusteisen lähestymistavan mukainen. |
(6) |
Tällaisen kehyksen maantieteellisen soveltamisalan olisi katettava kaikki tekoälyn, robotiikan ja niihin liittyvän teknologian osa-alueet unionissa tapahtuvan kehittämisen, käyttöönoton ja käytön kaikissa vaiheissa, myös tapauksissa, joissa osa teknologiasta saattaa sijaita unionin ulkopuolella tai sillä ei ole tiettyä tai yhtä sijaintipaikkaa, kuten pilvipalvelujen tapauksessa. |
(7) |
Jotta sääntely olisi yhtenäistä ja luotaisiin näin oikeusvarmuutta yhtä lailla kansalaisille kuin yrityksille, unionissa olisi vallittava yhteisymmärrys sellaisista käsitteistä kuin tekoäly, robotiikka, niihin liittyvä teknologia ja biometrinen tunnistus. Niiden olisi oltava teknologianeutraaleja, ja niitä olisi tarvittaessa tarkasteltava uudelleen. |
(8) |
Lisäksi on tarpeen ottaa huomioon se, että on olemassa tekoälyyn ja robotiikkaan liittyviä teknologioita, joissa ohjelmistolle on annettu eriasteinen autonomia ohjata fyysisiä tai virtuaalisia prosesseja (1). Esimerkiksi kansainvälisessä standardissa SAE J3016 on ehdotettu kuutta automaation tasoa ajoneuvojen automatisoituun ajoon. |
(9) |
Tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisen teknologian käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, kehittämisellä, käyttöönotolla ja käytöllä olisi täydennettävä ihmisen kykyjä eikä korvattava niitä, ja sen yhteydessä olisi varmistettava, että toiminta ei ole kansalaisten edun vastaista ja siinä noudatetaan unionin oikeutta, Euroopan unionin perusoikeuskirjassa, jäljempänä ”perusoikeuskirja”, vahvistettuja perusoikeuksia, Euroopan unionin tuomioistuimen vakiintunutta oikeuskäytäntöä sekä muita unionissa sovellettavia eurooppalaisia ja kansainvälisiä välineitä. |
(10) |
Ihmisen olisi aina voitava tarkastaa, arvioida ja valvoa tekoälyn, robotiikan ja niihin liittyvän teknologian tekemiä tai niiden pohjalta tehtyjä päätöksiä ja puuttua niihin mielekkäällä tavalla. Näiden teknologioiden tekninen ja toiminnallinen monimutkaisuus ei koskaan saisi estää niiden käyttöönottajaa tai käyttäjää vähintäänkin käynnistämästä vikaturvallista pysäytysmekanismia, muuttamasta tai pysäyttämästä niiden toimintaa tai palaamasta käyttämään aiempaa tilaa turvallisten toimintojen palauttamiseksi siinä tapauksessa, että unionin oikeuden ja tässä asetuksessa vahvistettujen eettisten periaatteiden ja oikeudellisten velvoitteiden noudattaminen on vaarassa. |
(11) |
Tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa, joiden kehittämiseen, käyttöönottoon ja käyttöön liittyy merkittävä riski vahingon tai haitan aiheuttamisesta yksittäisille ihmisille tai yhteiskunnalle, jolloin rikotaan unionin oikeudessa vahvistettuja perusoikeuksia ja turvallisuussääntöjä, olisi pidettävä suuririskisinä teknologioina. Tätä arvioitaessa olisi otettava huomioon, millä alalla niitä kehitetään, ne otetaan käyttöön tai niitä käytetään, mikä on niiden erityinen käyttötarkoitus ja miten vakava odotettavissa oleva vahinko tai haitta on. Vakavuusaste olisi määritettävä mahdollisen vahingon tai haitan laajuuden, vaikutusten kohteena olevien henkilöiden lukumäärän, aiheutetun vahingon kokonaisarvon ja koko yhteiskunnalle aiheutuvan haitan perusteella. Vakavia vahingon ja haitan muotoja ovat esimerkiksi lasten, kuluttajien tai työntekijöiden oikeuksien loukkaukset, joiden laajuus, kohteena olevien lasten, kuluttajien tai työntekijöiden lukumäärä tai vaikutus koko yhteiskuntaan on sellainen, että se aiheuttaa merkittävän riskin unionin oikeudessa vahvistettujen perusoikeuksien ja turvallisuussääntöjen rikkomisesta. Tässä asetuksessa olisi esitettävä suuririskisiä aloja ja käyttötarkoituksia koskeva tyhjentävä ja kumulatiivinen luettelo. |
(12) |
Tässä asetuksessa säädettyjä velvoitteita, erityisesti suuririskisiä teknologioita koskevia velvoitteita, olisi sovellettava ainoastaan unionissa kehitettyyn, käyttöön otettuun tai käytettyyn tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan, myös tällaisen teknologian käyttämiin tai tuottamiin ohjelmistoihin, algoritmeihin ja dataan, joita pidetään tässä asetuksessa säädetyn riskinarvioinnin perusteella suuririskisinä. Tällaisia velvoitteita olisi noudatettava rajoittamatta yleistä velvoitetta, jonka mukaan kaikkea tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa, myös tällaisen teknologian käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa, olisi kehitettävä, ne olisi otettava käyttöön ja niitä olisi käytettävä unionissa ihmiskeskeisellä tavalla ja noudattaen yksilön autonomian ja ihmisten turvallisuuden periaatteita unionin oikeuden mukaisesti ja kunnioittaen kaikilta osin perusoikeuksia, kuten ihmisarvoa, oikeutta vapauteen ja turvallisuuteen sekä oikeutta henkilökohtaiseen koskemattomuuteen. |
(13) |
Suuririskisten teknologioiden olisi noudatettava turvallisuuden, läpinäkyvyyden, vastuuvelvollisuuden, puolueettomuuden tai syrjimättömyyden, yhteiskuntavastuun ja sukupuolten tasa-arvon, hyvitysoikeuden, ympäristökestävyyden, yksityisyyden ja hyvän hallinnon periaatteita, ja kansallisen valvontaviranomaisen olisi tehtävä niistä ennakolta puolueeton ja objektiivinen ulkopuolinen riskinarviointi tässä asetuksessa ja sen liitteenä olevassa luettelossa säädettyjen kriteerien mukaisesti. Arvioinnissa olisi otettava huomioon kehittäjän tai käyttöönottajan näkemykset ja mahdollinen itsearviointi. |
(14) |
Komission ja/tai tähän tarkoitukseen mahdollisesti nimettävien asiaankuuluvien unionin toimielinten, elinten, toimistojen ja virastojen olisi laadittava kehittäjille, käyttöönottajille ja käyttäjille ei-sitovat täytäntöönpano-ohjeet tämän asetuksen noudattamista koskevista menetelmistä. Niiden olisi ohjeita laatiessaan kuultava asiaankuuluvia sidosryhmiä. |
(15) |
Unionissa olisi toimittava johdonmukaisesti näiden teknologioiden riskinarvioinnissa varsinkin silloin, kun niitä arvioidaan paitsi tämän asetuksen perusteella myös sovellettavan alakohtaisen lainsäädännön mukaisesti. Näin ollen kansallisten valvontaviranomaisten olisi ilmoitettava muille viranomaisille, jotka suorittavat riskinarviointeja alakohtaisen lainsäädännön mukaisesti, kun nämä teknologiat arvioidaan suuririskisiksi tässä asetuksessa säädetyn riskinarvioinnin perusteella. |
(16) |
Jotta suuririskinen tekoäly, robotiikka ja niihin liittyvä teknologia, myös tällaisen teknologian käyttämät tai tuottamat ohjelmistot, algoritmit ja data, olisivat luotettavia, niitä olisi kehitettävä, ne olisi otettava käyttöön ja niitä olisi käytettävä turvallisella ja läpinäkyvällä tavalla ja vastuuvelvollisuutta noudattaen toimintavarmuutta, häiriönsietokykyä, turvallisuutta, tarkkuutta ja virheiden tunnistamista, selitettävyyttä, tulkittavuutta, tarkastettavuutta, avoimuutta ja tunnistettavuutta koskevien turvallisuusvaatimusten mukaisesti sekä siten, että on mahdollista poistaa kyseiset toiminnot tilapäisesti käytöstä tai palata käyttämään aiempaa tilaa turvallisten toimintojen palauttamiseksi, jos kyseisiä vaatimuksia ei noudateta. Läpinäkyvyys olisi varmistettava antamalla viranomaisille pääsy näiden teknologioiden perustana oleviin teknologiaan, dataan ja laskentajärjestelmiin silloin, kun se on ehdottoman välttämätöntä. |
(17) |
Tekoälyn, robotiikan ja niihin liittyvän teknologian, erityisesti suuririskisten teknologioiden, kehittäjät, käyttöönottajat ja käyttäjät ovat vastuussa turvallisuutta, läpinäkyvyyttä ja vastuuvelvollisuutta koskevien periaatteiden noudattamisesta eriasteisesti siinä määrin kuin nämä osallistuvat kyseisten teknologioiden, myös niiden käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, kehittämiseen, käyttöönottoon tai käyttöön. Kehittäjien olisi varmistettava, että teknologia suunnitellaan ja rakennetaan tässä asetuksessa vahvistettujen turvallisuusvaatimusten mukaisesti, kun taas käyttöönottajien ja käyttäjien olisi teknologiaa käyttöön ottaessaan ja käyttäessään noudatettava täysin näitä vaatimuksia. Tämän vuoksi suuririskisten teknologioiden kehittäjien olisi arvioitava ja ennakoitava kehittämänsä teknologian väärinkäyttöön liittyviä kohtuudella odotettavissa olevia riskejä. Kehittäjien täytyy myös varmistaa, että näiden kehittämissä järjestelmissä ilmoitetaan mahdollisuuksien mukaan ja asianmukaisin keinoin, esimerkiksi vastuuvapauslausekkeilla, virheiden tai epätarkkuuksien todennäköisyys. |
(18) |
Kehittäjien ja käyttöönottajien olisi asetettava käyttäjien saataville kaikki kyseisen teknologian myöhemmät päivitykset, erityisesti ohjelmistopäivitykset, sopimuksessa taikka unionin oikeudessa tai kansallisessa lainsäädännössä edellytetyllä tavalla. Lisäksi jos riskinarviointi sitä edellyttää, kehittäjien ja käyttöönottajien olisi toimitettava viranomaisille kyseisen teknologian käyttöä koskeva asiaankuuluva dokumentaatio ja siihen liittyvät turvallisuusohjeet, mukaan lukien lähdekoodi, kehitystyökalut ja järjestelmän käyttämä data, silloin, kun se on ehdottoman välttämätöntä, ja edellyttäen, että noudatetaan kaikilta osin tietosuojaa, yksityisyyttä, teollis- ja tekijänoikeuksia ja liikesalaisuuksia koskevaa unionin lainsäädäntöä. |
(19) |
Yksityishenkilöillä on oikeus odottaa, että heidän käyttämänsä teknologia toimii kohtuullisesti ja heidän luottamustaan kunnioitetaan. Kansalaisten luottamus tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan, myös tällaisten teknologioiden käyttämiin tai tuottamiin ohjelmistoihin, algoritmeihin ja dataan, on riippuvainen teknisten prosessien ymmärtämisestä ja käsittämisestä. Teknisten prosessien selitettävyyden asteen olisi oltava riippuvainen näiden prosessien kontekstista ja virheellisen tai epätarkan tuotoksen aiheuttamien seurausten vakavuudesta, ja sen olisi oltava riittävä niiden riitauttamiseksi ja hyvityksen hakemiseksi. Näiden teknologioiden mahdolliseen vaikeatajuisuuteen olisi puututtava tarkastettavuuden, jäljitettävyyden ja läpinäkyvyyden avulla. |
(20) |
Yhteiskunnan luottamus tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan, myös tällaisten teknologioiden käyttämiin tai tuottamiin ohjelmistoihin, algoritmeihin ja dataan, on riippuvainen siitä, missä määrin teknologiaa on mahdollista arvioida, tarkastaa ja jäljittää. Kehittäjien olisi varmistettava, että teknologia suunnitellaan ja rakennetaan siten, että mahdollistetaan arviointi, tarkastus ja jäljitettävyys, jos näiden osallistumisen laajuus tätä edellyttää. Siinä määrin kuin se on teknisesti mahdollista, kehittäjien, käyttöönottajien ja käyttäjien olisi varmistettava, että tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa käyttöön otettaessa ja käytettäessä noudatetaan kaikilta osin läpinäkyvyysvaatimuksia ja mahdollistetaan tarkastus ja jäljitettävyys. |
(21) |
Jotta voidaan varmistaa läpinäkyvyys ja vastuuvelvollisuus, kansalaisten olisi saatava tietää, kun järjestelmä käyttää tekoälyä, kun tekoälyjärjestelmät personoivat tuotetta tai palvelua sen käyttäjille, voivatko he poistaa personoinnin käytöstä tai rajoittaa sitä ja kun käytetään automatisoidun päätöksenteon teknologiaa. Läpinäkyvyystoimenpiteiden lisäksi olisi, siinä määrin kuin se on teknisesti mahdollista, kerrottava selkeästi ja ymmärrettävästi käytetystä datasta sekä algoritmista, sen tarkoituksesta, sen tuloksista ja sen mahdollisista vaaroista. |
(22) |
Ohjelmistojen, algoritmien ja datan puolueellisuus ja syrjivyys on laitonta, ja niihin olisi puututtava sääntelemällä prosesseja, joita noudatetaan niitä suunniteltaessa ja käyttöön otettaessa. Puolueellisuus voi johtua automatisoidun järjestelmän antamien tietojen pohjalta tehdyistä tai sen tekemistä päätöksistä sekä datajoukoista, joihin tällainen päätöksenteko perustuu tai joiden avulla järjestelmää on koulutettu. |
(23) |
Tekoälyn, robotiikan ja niihin liittyvän teknologian käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa olisi pidettävä puolueellisina esimerkiksi silloin, kun ne eivät tuota optimaalisia tuloksia suhteessa henkilöön tai henkilöryhmään ennakkoasenteisiin perustuvan henkilökäsityksen tai sosiaalisen käsityksen ja henkilön tai henkilöryhmän ominaisuuksiin liittyvien tietojen myöhemmän käsittelyn vuoksi. |
(24) |
Unionin oikeuden mukaisesti tekoälyn, robotiikan ja niihin liittyvän teknologian käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa olisi pidettävä syrjivinä, jos ne tuottavat tuloksia, joilla on suhteettoman kielteisiä vaikutuksia, ja johtavat henkilön tai henkilöryhmän erilaiseen kohteluun muun muassa asettamalla tämän muihin verrattuna epäedulliseen asemaan esimerkiksi henkilökohtaisten ominaisuuksien perusteella ilman objektiivista tai kohtuullista perustetta ja huolimatta mahdollisista väitteistä, joiden mukaan teknologia on neutraalia. |
(25) |
Unionin oikeuden mukaisesti oikeutettuja tavoitteita, joilla voitaisiin tämän asetuksen nojalla objektiivisesti perustella henkilöiden tai henkilöryhmien erilliskohtelu, ovat yleisen järjestyksen ja turvallisuuden ja kansanterveyden suojelu, rikosten ehkäiseminen, perusoikeuksien ja -vapauksien suojelu, tasapuolinen edustus ja ammatinharjoittamista koskevat objektiiviset vaatimukset. |
(26) |
Tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisten teknologioiden käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, olisi myötävaikutettava kestävään edistykseen. Nämä teknologiat eivät saisi olla ristiriidassa ympäristön suojelemista tai vihreää siirtymää koskevan tavoitteen kanssa. Niillä voisi olla merkittävä rooli Yhdistyneiden kansakuntien asettamien kestävän kehityksen tavoitteiden saavuttamisessa, jotta tulevat sukupolvet voivat kukoistaa. Näillä teknologioilla voidaan tukea riittävän edistymisen seurantaa kestävyyttä ja sosiaalista yhteenkuuluvuutta koskevien indikaattoreiden perusteella ja käyttämällä vastuullisia tutkimus- ja innovointivälineitä, jotka edellyttävät unionin ja sen jäsenvaltioiden resurssien käyttöönottoa, jotta voidaan tukea näihin tavoitteisiin tähtääviä hankkeita ja investoida niihin. |
(27) |
Tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisten teknologioiden käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, kehittäminen, käyttöönotto ja käyttö eivät saisi tarkoituksellisesti aiheuttaa minkäänlaista vahinkoa tai haittaa yksittäisille ihmisille tai yhteiskunnalle eikä sitä saisi tietoisesti hyväksyä. Siksi varsinkin suuririskisiä teknologioita olisi kehitettävä, ne olisi otettava käyttöön ja niitä olisi käytettävä yhteiskuntavastuullisella tavalla. |
(28) |
Kehittäjiä, käyttöönottajia ja käyttäjiä olisi näin ollen pidettävä vastuullisina yksilöille ja yhteiskunnalle aiheutuneesta vahingosta tai haitasta, siinä määrin kuin nämä osallistuvat tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämiseen, käyttöönottoon ja käyttöön, unionin ja kansallisten korvausvastuuta koskevien sääntöjen mukaisesti. |
(29) |
Erityisesti kehittäjien, jotka tekevät päätöksiä, joilla määrätään tekoälyn, robotiikan ja niihin liittyvän teknologian kehityssuunta tai -tapa tai ohjataan sitä, sekä käyttöönottajien, jotka osallistuvat valvonta- tai johtotehtävissä niiden käyttöönottoon tekemällä käyttöönottoa koskevia päätöksiä sekä vastaamalla niihin liittyvien riskien valvonnasta tai hyötymällä käyttöönotosta, olisi yleisesti katsottava olevan vastuussa tällaisen vahingon tai haitan välttämisestä ottamalla käyttöön asianmukaiset toimenpiteet kehittämisprosessin aikana ja noudattamalla näitä toimenpiteitä tinkimättä käyttöönottovaiheen aikana. |
(30) |
Yhteiskuntavastuullinen tekoäly, robotiikka ja niihin liittyvä teknologia, myös tällaisten teknologioiden käyttämät tai tuottamat ohjelmistot, algoritmit ja data, voidaan määritellä teknologiaksi, jonka avulla voidaan löytää ratkaisuja, joilla turvataan ja edistetään erilaisia tavoitteita, jotka koskevat yhteiskuntaa, varsinkin demokratiaa, terveyttä ja taloudellista vaurautta, yhtäläisiä mahdollisuuksia, työntekijöiden oikeuksia ja sosiaalisia oikeuksia, monimuotoisia ja riippumattomia tiedotusvälineitä sekä objektiivista ja vapaasti saatavilla olevaa tietoa, mikä mahdollistaa julkisen keskustelun, laadukkaan koulutuksen, kulttuurisen ja kielellisen monimuotoisuuden, sukupuolten välisen tasapainon, digitaalisen lukutaidon, innovoinnin ja luovuuden. Sosiaalisesti vastuullista teknologiaa kehitettäessä, käyttöön otettaessa ja käytettäessä myös otetaan asianmukaisesti huomioon sen perimmäinen vaikutus kansalaisten fyysiseen ja henkiseen hyvinvointiin, eikä se edistä vihapuhetta tai väkivaltaa. Erityisesti suuririskisten teknologioiden avulla olisi saavutettava nämä tavoitteet. |
(31) |
Tekoälyä, robotiikkaa ja siihen liittyvää teknologiaa kehitettäessä, käyttöön otettaessa ja käytettäessä olisi myös toimittava siten, että tuetaan sosiaalista osallisuutta, demokratiaa, moniarvoisuutta, yhteisvastuuta, oikeudenmukaisuutta, tasa-arvoa ja yhteistyötä, ja niiden mahdollisuudet tähän olisi maksimoitava ja niitä olisi tutkittava tutkimus- ja innovointihankkeiden avulla. Unionin ja sen jäsenvaltioiden olisi sen vuoksi otettava käyttöön viestintä- ja hallintoresurssejaan sekä taloudellisia resurssejaan tällaisten hankkeiden tukemiseksi ja niihin investoimiseksi. |
(32) |
Hankkeet, jotka liittyvät tekoälyn, robotiikan ja niihin liittyvän teknologian mahdollisuuksiin käsitellä sosiaalisen hyvinvoinnin kysymystä, olisi toteutettava vastuullisten tutkimus- ja innovointivälineiden pohjalta, jotta voidaan taata alusta alkaen, että hankkeissa noudatetaan eettisiä periaatteita. |
(33) |
Tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisten teknologioiden käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, kehittämisessä, käyttöönotossa ja käytössä olisi otettava huomioon niiden ympäristöjalanjälki. Sovellettavassa unionin oikeudessa vahvistettujen velvoitteiden mukaisesti tällaiset teknologiat eivät saisi aiheuttaa haittaa ympäristölle elinkaarensa aikana ja koko toimitusketjussa ja niitä olisi kehitettävä, ne olisi otettava käyttöön ja niitä olisi käytettävä siten, että suojellaan ympäristöä, lievennetään ja korjataan niiden ympäristöjalanjälkeä, edistetään vihreää siirtymää ja tuetaan ilmastoneutraaliutta ja kiertotaloutta koskevien tavoitteiden saavuttamista. |
(34) |
Tätä asetusta sovellettaessa kehittäjiä, käyttöönottajia ja käyttäjiä olisi pidettävä vastuullisina ympäristölle aiheutuneista haitoista sovellettavien ympäristövastuuta koskevien sääntöjen mukaisesti, siinä määrin kuin nämä osallistuvat suuririskisenä pidettävän tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämiseen, käyttöönottoon ja käyttöön. |
(35) |
Näitä teknologioita kehitettäessä, käyttöön otettaessa ja käytettäessä olisi myös toimittava siten, että tuetaan sovellettavassa unionin oikeudessa vahvistettujen velvoitteiden mukaisten ympäristötavoitteiden saavuttamista, esimerkiksi jätteiden syntymisen vähentämistä, hiilijalanjäljen pienentämistä, ilmastonmuutoksen torjuntaa ja ympäristön suojelemista, ja niiden mahdollisuudet tähän olisi maksimoitava ja niitä olisi tutkittava tutkimus- ja innovointihankkeiden avulla. Unionin ja jäsenvaltioiden olisi sen vuoksi otettava käyttöön viestintä- ja hallintoresurssejaan sekä taloudellisia resurssejaan tällaisten hankkeiden tukemiseksi ja niihin investoimiseksi. |
(36) |
Hankkeet, jotka liittyvät tekoälyn, robotiikan ja niihin liittyvän teknologian mahdollisuuksiin käsitellä ympäristöön liittyviä huolenaiheita, olisi toteutettava vastuullisten tutkimus- ja innovointivälineiden pohjalta, jotta voidaan taata alusta alkaen, että hankkeissa noudatetaan eettisiä periaatteita. |
(37) |
Kaikessa unionissa kehitetyssä, käyttöön otetussa ja käytetyssä tekoälyssä, robotiikassa ja niihin liittyvässä teknologiassa, myös tällaisten teknologioiden käyttämissä tai tuottamissa ohjelmistoissa, algoritmeissa ja datassa, olisi kunnioitettava kaikilta osin unionin kansalaisten oikeutta yksityisyyteen ja henkilötietojen suojaan. Niiden kehittämisen, käyttöönoton ja käytön olisi erityisesti oltava Euroopan parlamentin ja neuvoston asetuksen (EU) 2016/679 (2) ja Euroopan parlamentin ja neuvoston direktiivin 2002/58/EY (3) mukaista. |
(38) |
Tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisten teknologioiden käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, käytön eettiset rajat olisi otettava asianmukaisesti huomioon etenkin käytettäessä henkilöiden automaattiseen tunnistamiseen etätunnistusteknologioita, kuten biometristen ominaisuuksien, erityisesti kasvojen, tunnistamista. Kun viranomaiset käyttävät näitä teknologioita tärkeää yleistä etua koskevasta syystä eli henkilöiden turvallisuuden takaamiseksi ja kansallisiin hätätilanteisiin puuttumiseksi eivätkä kiinteistöjen turvallisuuden takaamiseksi, käytöstä olisi aina ilmoitettava ja sen olisi oltava oikeasuhteista, kohdennettua ja tiettyihin tavoitteisiin rajattua sekä ajallisesti rajoitettua unionin oikeuden mukaisesti ja ottaen asianmukaisesti huomioon ihmisarvo ja yksilön autonomia sekä perusoikeuskirjassa vahvistetut perusoikeudet. Tällaisen käytön kriteereihin ja rajoituksiin olisi sovellettava laillisuusvalvontaa, ja ne edellyttävät demokraattista valvontaa ja keskustelua, johon myös kansalaisyhteiskunta osallistuu. |
(39) |
Asiaankuuluviin vaatimuksiin ja normeihin perustuva hallinto parantaa turvallisuutta ja lisää kansalaisten luottamusta tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisten teknologioiden käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, kehittämiseen, käyttöönottoon ja käyttöön. |
(40) |
Viranomaisten olisi tehtävä perusoikeuksia koskeva vaikutustenarviointi ennen sellaisten suuririskisten teknologioiden käyttöönottoa, joilla tuetaan julkisella sektorilla tehtäviä päätöksiä ja joilla on suora ja merkittävä vaikutus kansalaisten oikeuksiin ja velvollisuuksiin. |
(41) |
Asiaankuuluvia olemassa olevia hallintostandardeja ovat esimerkiksi komission perustaman tekoälyä käsittelevän korkean tason asiantuntijaryhmän laatima asiakirja ”Luotettavaa tekoälyä koskevat eettiset ohjeet” ja muut tekniset standardit, joita esimerkiksi Euroopan standardointikomitea (CEN), Euroopan sähkötekniikan standardointikomitea (CENELEC) ja Euroopan telealan standardointilaitos (ETSI) ovat hyväksyneet Euroopan tasolla ja Kansainvälinen standardisoimisjärjestö (ISO) ja kansainvälinen sähkö- ja elektroniikkainsinöörien järjestö (IEEE) kansainvälisellä tasolla. |
(42) |
Datan jakaminen ja käyttö usean osallistujan kesken on arkaluonteista toimintaa, minkä vuoksi tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämiseen, käyttöönottoon ja käyttöön olisi sovellettava asiaankuuluvia sääntöjä, vaatimuksia, normeja ja protokollia, joissa otetaan huomioon laatua, eheyttä, turvallisuutta, luotettavuutta, yksityisyyttä ja valvontaa koskevat vaatimukset. Datahallintostrategiassa olisi keskityttävä tällaisen datan käsittelyyn, jakamiseen ja saatavuuteen, mukaan lukien sen asianmukainen hallinta, tarkastettavuus ja jäljitettävyys, ja taattava haavoittuville ryhmille, kuten vammaisille henkilöille, potilaille, lapsille, vähemmistöille ja maahanmuuttajille, tai muille syrjäytymisvaarassa oleville ryhmille kuuluvan datan riittävä suoja. Lisäksi kehittäjien, käyttöönottajien ja käyttäjien olisi tarvittaessa voitava käyttää keskeisiä suorituskykyindikaattoreita käyttämiensä datajoukkojen arvioinnissa kehittämiensä, käyttöön ottamiensa ja käyttämiensä teknologioiden luotettavuuden parantamiseksi. |
(43) |
Jäsenvaltioiden olisi nimitettävä riippumaton hallintoviranomainen toimimaan valvontaviranomaisena. Kunkin kansallisen valvontaviranomaisen olisi erityisesti vastattava suuririskisenä pidettävän tekoälyn, robotiikan ja niihin liittyvän teknologian yksilöimisestä tässä asetuksessa säädettyjen riskinarviointikriteerien perusteella sekä sen arvioinnista ja seurannasta, noudattavatko nämä teknologiat tässä asetuksessa säädettyjä velvoitteita. |
(44) |
Kunkin kansallisen valvontaviranomaisen olisi myös vastattava näiden teknologioiden hyvästä hallinnosta komission ja/tai tähän tarkoitukseen mahdollisesti nimettävien asiaankuuluvien unionin toimielinten, elinten, toimistojen tai virastojen koordinoimana. Niillä on näin ollen tärkeä rooli unionin kansalaisten luottamuksen ja turvallisuuden edistämisessä sekä demokraattisen, moniarvoisen ja tasa-arvoisen yhteiskunnan mahdollistamisessa. |
(45) |
Arvioidessaan teknologioita, jotka ovat tämän asetuksen mukaisesti suuririskisiä, ja seuratessaan, noudattavatko ne tämän asetuksen vaatimuksia, kansallisten valvontaviranomaisten olisi tarvittaessa tehtävä yhteistyötä niiden viranomaisten kanssa, jotka vastaavat näiden teknologioiden arvioinnista ja seurannasta ja alakohtaisen lainsäädännön noudattamisen valvonnasta. |
(46) |
Kansallisten valvontaviranomaisten olisi tehtävä laajaa ja säännöllistä yhteistyötä keskenään sekä komission ja muiden asiaankuuluvien unionin toimielinten, elinten, toimistojen ja virastojen kanssa, jotta voidaan taata johdonmukaiset rajatylittävät toimet ja mahdollistaa näiden teknologioiden johdonmukainen kehittäminen, käyttöönotto ja käyttö unionissa tässä asetuksessa säädettyjen eettisten periaatteiden ja oikeudellisten velvoitteiden mukaisesti. |
(47) |
Tällaisen yhteistyön puitteissa ja täyden yhdenmukaistamisen saavuttamiseksi unionin tasolla kansallisten valvontaviranomaisten olisi avustettava komissiota yhteisen ja tyhjentävän luettelon laatimisessa suuririskisestä tekoälystä, robotiikasta ja niihin liittyvästä teknologiasta tässä asetuksessa ja sen liitteessä säädettyjen kriteerien mukaisesti. Lisäksi olisi kehitettävä myöntämisprosessi, jota noudatetaan annettaessa eettisten periaatteiden noudattamista koskeva eurooppalainen todistus ja johon sisältyy vapaaehtoinen hakuprosessi kehittäjälle, käyttöönottajalle tai käyttäjälle, joka haluaa saada todistuksen siitä, että teknologia, jota ei pidetä suuririskisenä, on tämän asetuksen mukainen. |
(48) |
Kansallisten valvontaviranomaisten olisi varmistettava, että voidaan koota yhteen mahdollisimman monta sidosryhmää, kuten teollisuus, yritykset, työmarkkinaosapuolet, tutkijat, kuluttajat ja kansalaisyhteiskunnan järjestöt, ja tarjota moniarvoinen foorumi pohdintoja ja näkemystenvaihtoa varten niin, että voidaan tehdä ymmärrettäviä ja tarkkoja päätelmiä, joiden perusteella voidaan antaa ohjeistusta siitä, miten hallintoa säännellään. |
(49) |
Kansallisten valvontaviranomaisten olisi varmistettava, että voidaan koota yhteen mahdollisimman monta sidosryhmää, kuten teollisuus, yritykset, työmarkkinaosapuolet, tutkijat, kuluttajat ja kansalaisyhteiskunnan järjestöt, ja tarjota moniarvoinen foorumi pohdintoja ja näkemystenvaihtoa varten, jotta helpotetaan yhteistyötä erityisesti tiede- ja tutkimusyhteisöä, teollisuutta ja kansalaisyhteiskuntaa edustavien sidosryhmien ja yksittäisten asiantuntijoiden kanssa ja näiden välillä niin, että voidaan tehdä ymmärrettäviä ja tarkkoja päätelmiä, joiden perusteella voidaan antaa ohjeistusta siitä, miten hallintoa säännellään. |
(50) |
Lisäksi näiden kansallisten valvontaviranomaisten olisi tarjottava ammatillista hallinnollista ohjeistusta ja tukea kehittäjille, käyttöönottajille ja käyttäjille, erityisesti pienille ja keskisuurille yrityksille tai startup-yrityksille, jotka kohtaavat haasteita tässä asetuksessa säädettyjen eettisten periaatteiden ja oikeudellisten velvoitteiden noudattamisessa. |
(51) |
Komission ja/tai tähän tarkoitukseen mahdollisesti nimettävien asiaankuuluvien unionin toimielinten, elinten, toimistojen ja virastojen olisi laadittava sitovat ohjeet menetelmistä, joita kansallisten valvontaviranomaisten on määrä käyttää suorittaessaan vaatimustenmukaisuuden arviointia. |
(52) |
Väärinkäytösten paljastaminen saattaa unionin oikeuden mahdolliset ja tosiasialliset rikkomiset viranomaisten tietoon, jotta voidaan estää muutoin tapahtuvat haitat tai vahingot. Lisäksi ilmoitusmenettelyt parantavat tiedonkulkua yritysten ja organisaatioiden sisällä ja vähentävät siten riskiä siitä, että kehitetään vikoja tai virheitä sisältäviä tuotteita tai palveluja. Yritysten ja organisaatioiden, jotka kehittävät, ottavat käyttöön tai käyttävät tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa, myös tällaisten teknologioiden käyttämää tai tuottamaa dataa, olisi perustettava ilmoituskanavia, ja rikkomuksista ilmoittavia henkilöitä olisi suojeltava vastatoimilta. |
(53) |
Tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisten teknologioiden käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, nopea kehitys on ennakoimatonta, ja sama koskee myös teknistä koneoppimista, päättelyprosesseja ja muuta teknologiaa, johon tämä kehitys pohjautuu. Sen vuoksi on aiheellista ja tarpeellista perustaa uudelleentarkastelumekanismi, jonka mukaisesti komissio antaa tämän asetuksen soveltamista koskevan kertomuksen lisäksi säännöllisesti kertomuksen tämän asetuksen soveltamisalan mahdollisesta muuttamisesta. |
(54) |
Jäsenvaltiot eivät voi riittävällä tavalla saavuttaa tämän asetuksen tavoitetta eli vahvistaa tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä, käyttöönottoa ja käyttöä unionissa koskevien eettisten periaatteiden ja oikeudellisten velvoitteiden yhteistä sääntelykehystä, vaan se voidaan sen laajuuden ja vaikutusten vuoksi saavuttaa paremmin unionin tasolla. Sen vuoksi unioni voi toteuttaa toimenpiteitä Euroopan unionista tehdyn sopimuksen 5 artiklassa vahvistetun toissijaisuusperiaatteen mukaisesti. Mainitussa artiklassa vahvistetun suhteellisuusperiaatteen mukaisesti tässä asetuksessa ei ylitetä sitä, mikä on tarpeen tämän tavoitteen saavuttamiseksi. |
(55) |
Jotta vältetään hajanaisuus ja varmistetaan tämän asetuksen johdonmukainen soveltaminen, tässä asetuksessa säädetty unionin tason koordinointi olisi parasta antaa komission ja/tai tätä varten mahdollisesti nimettävien asiaankuuluvien unionin toimielinten, elinten, toimistojen ja virastojen tehtäväksi. Komission tehtäväksi olisi siksi annettava löytää asianmukainen ratkaisu tällaisen koordinoinnin järjestämiseen unionin tasolla, jotta voidaan koordinoida eri jäsenvaltioiden kansallisten valvontaviranomaisten toimeksiantoja ja toimia suoritettaessa tekoälyn, robotiikan ja niihin liittyvän teknologian riskinarviointia, vahvistettaessa näiden teknologioiden kehittämistä, käyttöönottoa ja käyttöä koskeva yhteinen hallintokehys, kehitettäessä tässä asetuksessa säädettyjen eettisten periaatteiden ja oikeudellisten velvoitteiden noudattamisen sertifiointia ja myönnettäessä sitä koskevia todistuksia, tuettaessa säännöllistä näkemystenvaihtoa asianomaisten sidosryhmien ja kansalaisyhteiskunnan kanssa sekä perustettaessa asiantuntijakeskus, jossa on mukana tiede- ja tutkimusyhteisö, teollisuus ja yksittäisiä asiantuntijoita unionin tasolla, jotta voidaan edistää tietämyksen ja teknisen asiantuntemuksen vaihtoa, sekä edistettäessä unionin lähestymistapaa kansainvälisen yhteistyön avulla ja varmistettaessa, että näihin teknologioihin liittyviin mahdollisuuksiin ja riskeihin vastataan maailmanlaajuisesti johdonmukaisella tavalla, |
OVAT HYVÄKSYNEET TÄMÄN ASETUKSEN:
I luku
Yleiset säännökset
1 artikla
Kohde
Tämän asetuksen tarkoituksena on vahvistaa kattava ja tulevaisuudenkestävä eettisiä periaatteita ja oikeudellisia velvoitteita koskeva unionin sääntelykehys tekoälyn, robotiikan ja niihin liittyvän teknologian unionissa tapahtuvaa kehittämistä, käyttöönottoa ja käyttöä varten.
2 artikla
Soveltamisala
Tätä asetusta sovelletaan unionissa kehitettyyn, käyttöön otettuun tai käytettyyn tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan, myös tällaisten teknologioiden käyttämiin tai tuottamiin ohjelmistoihin, algoritmeihin ja dataan.
3 artikla
Maantieteellinen soveltamisala
Jos mikä tahansa tekoälyn osa kehitetään tai otetaan käyttöön tai sitä käytetään unionissa, myös silloin, kun tällaisten teknologioiden käyttämät tai tuottamat ohjelmistot, algoritmit tai data sijaitsevat unionin ulkopuolella tai niillä ei ole tiettyä maantieteellistä sijaintipaikkaa, siihen sovelletaan tätä asetusta.
4 artikla
Määritelmät
Tässä asetuksessa tarkoitetaan:
a) |
”tekoälyllä” joko ohjelmistopohjaista tai laitteisiin upotettua järjestelmää, joka pyrkii älykästä käyttäytymistä ilmentäen saavuttamaan asetettuja tavoitteita muun muassa keräämällä, käsittelemällä, analysoimalla ja tulkitsemalla tietoa ympäristöstään ja toimimalla tietyssä määrin autonomisesti (4); |
b) |
”autonomisuudella” sitä, että tekoälyjärjestelmä toimii tulkiten tiettyjä syötteitä ja muun muassa muttei yksinomaan soveltaen ennalta määrättyjä ohjeita samalla kun sen käyttäytymistä säätelevät sille asetettu tavoite, jonka saavuttamiseen kyseinen käyttäytyminen tähtää, ja muut sen kehittäjän tekemät suunnitteluun liittyvät valinnat; |
c) |
”robotiikalla” automaattisesti ohjattavia, uudelleenohjelmoitavia ja monikäyttöisiä koneita (5), jotka suorittavat fyysisessä maailmassa ihmisen perinteisesti suorittamia tai alulle panemia tehtäviä muun muassa tekoälyn tai siihen liittyvän teknologian avulla; |
d) |
”niihin liittyvällä teknologialla” teknologiaa, jonka avulla ohjelmisto voi ohjata osittain tai täysin autonomisesti fyysistä tai virtuaalista prosessia, teknologiaa, joka kykenee havaitsemaan biometristä, geneettistä tai muuta dataa, sekä teknologiaa, joka jäljittelee ihmisen ominaisuuksia tai muutoin hyödyntää niitä; |
e) |
”suurella riskillä” tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämiseen, käyttöönottoon ja käyttöön liittyvää merkittävää riskiä vahingon tai haitan aiheuttamisesta yksittäisille ihmisille tai yhteiskunnalle unionin oikeudessa vahvistettujen perusoikeuksien ja turvallisuussääntöjen vastaisesti, kun otetaan huomioon niiden erityinen käyttötarkoitus, ala, jolla niitä kehitetään, otetaan käyttöön tai käytetään, sekä odotettavissa olevan vahingon tai haitan vakavuus; |
f) |
”kehittämisellä” algoritmien rakentamista ja suunnittelua, ohjelmistojen kirjoittamista ja suunnittelua tai datan keräämistä, tallentamista ja hallintaa tekoälyn, robotiikan ja niihin liittyvän teknologian luomiseksi tai kouluttamiseksi taikka uuden sovelluksen luomiseksi olemassa olevaa tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa varten; |
g) |
”kehittäjällä” luonnollista henkilöä tai oikeushenkilöä, joka tekee päätöksiä, joilla määrätään tekoälyn, robotiikan ja niihin liittyvän teknologian kehityssuunta tai -tapa tai ohjataan sitä; |
h) |
”käyttöönotolla” tekoälyn, robotiikan ja niihin liittyvän teknologian käyttöä ja hallintaa sekä niiden markkinoille saattamista tai asettamista muulla tavoin käyttäjien saataville; |
i) |
”käyttöönottajalla” luonnollista henkilöä tai oikeushenkilöä, joka osallistuu tekoälyn, robotiikan ja niihin liittyvän teknologian konkreettiseen käyttöönottoon valvonta- tai johtotehtävässä tekemällä päätöksiä, valvomalla riskejä ja hyötymällä käyttöönotosta; |
j) |
”käytöllä” muuta tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan liittyvää toimea kuin kehittämistä tai käyttöönottoa; |
k) |
”käyttäjällä” luonnollista henkilöä tai oikeushenkilöä, joka käyttää tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa muihin tarkoituksiin kuin kehittämiseen tai käyttöönottoon; |
l) |
”puolueellisuudella” henkilöstä tai henkilöryhmästä tämän henkilökohtaisten ominaisuuksien perusteella muodostettua ennakkoasenteisiin perustuvaa henkilökäsitystä tai sosiaalista käsitystä; |
m) |
”syrjinnällä” henkilön tai henkilöryhmän erilliskohtelua, joka perustuu seikkaan, jolle ei ole objektiivista tai kohtuullista perustetta, ja joka sen vuoksi kielletään unionin oikeudessa; |
n) |
”vahingolla tai haitalla” muun muassa vihapuheen, puolueellisuuden, syrjinnän tai leimaamisen aiheuttamaa fyysistä tai psyykkistä vammaa, aineellista tai aineetonta vahinkoa, kuten taloudellisia menetyksiä, työpaikan tai koulutusmahdollisuuden menettämistä, aiheetonta valinnanvapauden tai sananvapauden rajoittamista tai yksityisyyden menetystä, ja mitä tahansa unionin oikeuden rikkomista, joka vaikuttaa haitallisesti johonkin henkilöön; |
o) |
”hyvällä hallinnolla” tapaa, jolla varmistetaan, että kehittäjät, käyttöönottajat ja käyttäjät ottavat käyttöön ja noudattavat virallisiin sääntöihin, menettelyihin ja arvoihin perustuvia asianmukaisia ja kohtuullisia vaatimuksia, normeja ja käyttäytymisprotokollia, ja jonka avulla nämä voivat käsitellä eettisiä kysymyksiä asianmukaisesti sitä mukaa tai ennen kuin niitä ilmenee. |
5 artikla
Tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevat eettiset periaatteet
1. Kehitettäessä, otettaessa käyttöön ja käytettäessä unionissa tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa, myös tällaisten teknologioiden käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa, on noudatettava unionin oikeutta sekä kunnioitettava kaikilta osin ihmisarvoa, yksilön autonomiaa ja ihmisten turvallisuutta ja muita perusoikeuskirjassa vahvistettuja perusoikeuksia.
2. Tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämiseen, käyttöönottoon ja käyttöön liittyvässä henkilötietojen, myös muista kuin henkilötiedoista sekä biometrisistä tiedoista saatujen henkilötietojen, käsittelyssä on noudatettava asetusta (EU) 2016/679 ja direktiiviä 2002/58/EY.
3. Unioni ja sen jäsenvaltiot kannustavat tutkimushankkeita, joiden tarkoituksena on tarjota tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan perustuvia ratkaisuja, joilla pyritään edistämään sosiaalista osallisuutta, demokratiaa, moniarvoisuutta, yhteisvastuuta, oikeudenmukaisuutta, tasa-arvoa ja yhteistyötä.
II luku
Suuririskisiin teknologioihin liittyvät velvoitteet
6 artikla
Suuririskisiin teknologioihin liittyvät velvoitteet
1. Tämän luvun säännöksiä sovelletaan ainoastaan unionissa kehitettyyn, käyttöön otettuun tai käytettyyn tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan, myös tällaisten teknologioiden käyttämiin tai tuottamiin ohjelmistoihin, algoritmeihin ja dataan, joita pidetään suuririskisinä.
2. Suuririskistä tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa, myös tällaisten teknologioiden käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa, on kehitettävä, ne on otettava käyttöön ja niitä on käytettävä tavalla, jolla varmistetaan, että ne eivät riko tässä asetuksessa vahvistettuja eettisiä periaatteita.
7 artikla
Ihmiskeskeinen ja ihmisen luoma tekoäly
1. Suuririskisiä teknologioita, myös tällaisten teknologioiden käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa, on kehitettävä, ne on otettava käyttöön ja niitä on käytettävä tavalla, joka takaa ihmisen suorittaman täydellisen valvonnan kaikkina aikoina.
2. Edellä 1 kohdassa tarkoitettuja teknologioita on kehitettävä, ne on otettava käyttöön ja niitä on käytettävä tavalla, joka mahdollistaa teknologian saamisen takaisin tarvittaessa ihmisen valvontaan muun muassa muuttamalla sitä tai pysäyttämällä se.
8 artikla
Turvallisuus, läpinäkyvyys ja vastuuvelvollisuus
1. Suuririskistä tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa, myös tällaisten teknologioiden käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa, on kehitettävä, ne on otettava käyttöön ja niitä on käytettävä tavalla, jolla varmistetaan, että
a) |
niitä kehitetään, ne otetaan käyttöön ja niitä käytetään häiriönsietokykyisellä tavalla siten, että varmistetaan riittävä turvallisuustaso noudattamalla kyberturvallisuuden vähimmäisperustasoja, jotka ovat oikeasuhteisia havaittuun riskiin nähden, ja estetään teknisten haavoittuvuuksien hyväksikäyttö vihamielisiin tai laittomiin tarkoituksiin; |
b) |
niitä kehitetään, ne otetaan käyttöön ja niitä käytetään turvallisella tavalla, jolla varmistetaan, että käytössä on suojatoimia, joihin sisältyy varasuunnitelma ja toimet siltä varalta, että on olemassa turvallisuusriski; |
c) |
niitä kehitetään, ne otetaan käyttöön ja niitä käytetään tavalla, jolla varmistetaan käyttäjän kohtuullisten odotusten mukainen luotettava toiminta siten, että ne saavuttavat tavoitteet ja suorittavat toiminnot, joita varten ne on suunniteltu, muun muassa varmistamalla, että kaikki operaatiot ovat toistettavissa; |
d) |
niitä kehitetään, ne otetaan käyttöön ja niitä käytetään tavalla, jolla varmistetaan, että tietyn teknologian tavoitteet ja toiminnot toteutuvat tarkasti; jos satunnaisia epätarkkuuksia ei voida välttää, järjestelmän on mahdollisuuksien mukaan ilmoitettava käyttöönottajille ja käyttäjille asianmukaisella tavalla virheiden ja epätarkkuuksien todennäköisyydestä; |
e) |
niitä kehitetään, ne otetaan käyttöön ja niitä käytetään helposti selitettävissä olevalla tavalla sen varmistamiseksi, että teknologian teknisiä prosesseja voidaan tarkastella; |
f) |
niitä kehitetään, ne otetaan käyttöön ja niitä käytetään siten, että ne ilmoittavat käyttäjille siitä, että he ovat vuorovaikutuksessa tekoälyjärjestelmien kanssa, ja paljastavat asianmukaisesti ja tyhjentävästi kykynsä, tarkkuutensa ja rajoituksensa tekoälyn kehittäjille, käyttöönottajille ja käyttäjille; |
g) |
niitä kehitetään, ne otetaan käyttöön ja niitä käytetään 6 artiklan mukaisesti siten, että jos teknologia ei noudata a–g alakohdassa vahvistettuja turvallisuusvaatimuksia, on mahdollista poistaa kyseiset toiminnot tilapäisesti käytöstä ja palata käyttämään aiempaa tilaa turvallisten toimintojen palauttamiseksi. |
2. Tämän artiklan 1 kohdassa mainittuja teknologioita, myös tällaisten teknologioiden käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa, on 6 artiklan 1 kohdan mukaisesti kehitettävä, ne on otettava käyttöön ja niitä on käytettävä avoimella ja jäljitettävissä olevalla tavalla siten, että niiden osatekijät, prosessit ja vaiheet dokumentoidaan tiukimpien mahdollisten sovellettavien vaatimusten ja 18 artiklassa tarkoitettujen kansallisten valvontaviranomaisten on mahdollista arvioida, onko teknologia tässä asetuksessa säädettyjen velvoitteiden mukaista. Erityisesti näiden teknologioiden kehittäjän, käyttöönottajan tai käyttäjän on vastattava 1 kohdassa vahvistettujen turvallisuusvaatimusten noudattamisesta ja pystyttävä osoittamaan niiden noudattaminen.
3. Edellä 1 kohdassa mainittujen teknologioiden kehittäjän, käyttöönottajan tai käyttäjän on varmistettava, että 18 artiklassa tarkoitetut kansalliset valvontaviranomaiset tai tarvittaessa muut kansalliset tai eurooppalaiset alakohtaiset valvontaviranomaiset voivat tarkastaa toimenpiteet, jotka on toteutettu 1 kohdassa asetettujen turvallisuusvaatimusten noudattamisen varmistamiseksi.
9 artikla
Puolueettomuus ja syrjimättömyys
1. Unionissa kehitetyn, käyttöön otetun tai käytetyn suuririskisen tekoälyn, robotiikan ja niihin liittyvän teknologian käyttämien tai tuottamien ohjelmistojen, algoritmien tai datan on oltava puolueettomia, eivätkä ne saa syrjiä rodun, sukupuolen, seksuaalisen suuntautumisen, raskauden, vammaisuuden, fyysisten tai geneettisten ominaisuuksien, iän, kansalliseen vähemmistöön kuulumisen, etnisen tai sosiaalisen alkuperän, kielen, uskonnon tai vakaumuksen, poliittisten näkemysten tai kansalaisvaikuttamisen, kansalaisuuden, siviilisäädyn, taloudellisen aseman, koulutuksen, rikosrekisterin tai muun sellaisen seikan perusteella, sanotun kuitenkaan rajoittamatta 2 kohdan soveltamista.
2. Poiketen siitä, mitä 1 kohdassa säädetään, henkilöiden tai henkilöryhmien erilliskohtelu voi olla perusteltua ainoastaan, jos sillä on objektiivinen, kohtuullinen ja oikeutettu tavoite, joka on sekä oikeasuhteinen että välttämätön sikäli kuin ei ole olemassa vaihtoehtoja, jotka vaikuttaisivat vähäisemmässä määrin yhdenvertaisen kohtelun periaatteeseen, sanotun kuitenkaan rajoittamatta laitonta syrjintää koskevan unionin lainsäädännön soveltamista.
10 artikla
Sosiaalinen vastuu ja sukupuolten tasa-arvo
Unionissa kehitettyä, käyttöön otettua ja käytettyä suuririskistä tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa, myös tällaisten teknologioiden käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa, on kehitettävä, ne on otettava käyttöön ja niitä on käytettävä asiaa koskevan unionin oikeuden, periaatteiden ja arvojen mukaisesti tavalla, jolla ei puututa vaaleihin tai myötävaikuteta disinformaation levittämiseen, jolla kunnioitetaan työntekijöiden oikeuksia sekä edistetään laadukasta koulutusta ja digitaalista lukutaitoa, jolla ei pahenneta sukupuolten välistä kuilua estämällä yhtäläisten mahdollisuuksien tarjoaminen kaikille ja joka ei ole teollis- ja tekijänoikeuksien ja niiden mahdollisten rajoitusten tai poikkeusten vastainen.
11 artikla
Ympäristökestävyys
Jäljempänä 18 artiklassa tarkoitettujen kansallisten valvontaviranomaisten tai tarvittaessa muiden kansallisten tai Euroopan alakohtaisten valvontaviranomaisten on arvioitava suuririskisen tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisten teknologioiden käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, ympäristökestävyys ja varmistettava, että otetaan käyttöön toimenpiteitä niiden luonnonvaroihin, energiankulutukseen, jätteiden syntymiseen, hiilijalanjälkeen, ilmastohätätilaan ja ympäristön tilan heikkenemiseen liittyvän yleisen vaikutuksen lieventämiseksi ja korjaamiseksi, jotta varmistetaan sovellettavan unionin oikeuden tai kansallisen lainsäädännön sekä unionin muiden kansainvälisten ympäristösitoumusten noudattaminen.
12 artikla
Yksityisyyden kunnioittaminen ja henkilötietojen suoja
Biometristen tietojen käyttö ja kerääminen biometriseen tunnistukseen tai kasvontunnistukseen perustuvaan etätunnistukseen julkisilla alueilla aiheuttaa erityisiä riskejä perusoikeuksille, ja tällainen käyttöönotto tai käyttö sallitaan ainoastaan jäsenvaltioiden viranomaisille tärkeään yleiseen etuun liittyvissä tarkoituksissa. Näiden viranomaisten on varmistettava, että tällaisesta käyttöönotosta tai käytöstä ilmoitetaan yleisölle ja se on oikeasuhteista, kohdennettua ja tiettyihin tavoitteisiin ja tiettyyn paikkaan rajattua sekä ajallisesti rajoitettua unionin ja kansallisen lainsäädännön, erityisesti asetuksen (EU) 2016/679 ja direktiivin 2002/58/EY, mukaisesti ja siinä otetaan asianmukaisesti huomioon ihmisarvo ja yksilön autonomia sekä perusoikeuskirjassa vahvistetut perusoikeudet, erityisesti oikeus yksityisyyteen ja henkilötietojen suojaan.
13 artikla
Oikeus hyvitykseen
Jokaisella luonnollisella henkilöllä tai oikeushenkilöllä on oikeus hakea hyvitystä vahingosta tai haitasta, joka on aiheutunut suuririskisen tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisten teknologioiden käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, unionin oikeuden ja tässä asetuksessa asetettujen velvoitteiden vastaisesta kehittämisestä, käyttöönotosta ja käytöstä.
14 artikla
Riskinarviointi
1. Tätä asetusta sovellettaessa tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa, myös tällaisten teknologioiden käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa, pidetään suuririskisinä teknologioina, kun objektiivisiin kriteereihin, kuten niiden erityiseen käyttötarkoitukseen, alaan, jolla niitä kehitetään, ne otetaan käyttöön tai niitä käytetään, sekä mahdollisesti aiheutettavan vahingon tai haitan vakavuuteen, perustuvan riskinarvioinnin mukaan niiden kehittämiseen, käyttöönottoon tai käyttöön liittyy merkittävä riski siitä, että niiden voidaan odottaa aiheuttavan vahinkoa tai haittaa yksittäisille ihmisille tai yhteiskunnalle unionin oikeudessa vahvistettujen perusoikeuksien ja turvallisuussääntöjen vastaisesti.
2. Rajoittamatta sovellettavan alakohtaisen lainsäädännön soveltamista 18 artiklassa tarkoitettujen kansallisten valvontaviranomaisten on suoritettava tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisten teknologioiden käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, riskinarviointi tämän artiklan 1 kohdassa ja tämän asetuksen liitteenä olevassa tyhjentävässä ja kumulatiivisessa luettelossa säädettyjen objektiivisten kriteerien mukaisesti komission ja/tai muiden tähän tarkoitukseen mahdollisesti nimettävien asiaankuuluvien unionin toimielinten, elinten, toimistojen ja virastojen koordinoidessa niiden yhteistyötä.
3. Komissio laatii yhteisen luettelon unionissa yksilöidyistä suuririskisistä teknologioista ja pitää sitä ajan tasalla delegoiduilla säädöksillä 20 artiklan mukaisesti yhteistyössä 2 kohdassa tarkoitettujen kansallisten valvontaviranomaisten kanssa.
4. Komissio myös saattaa tämän asetuksen liitteenä olevan luettelon säännöllisesti ajan tasalle delegoiduilla säädöksillä 20 artiklan mukaisesti.
15 artikla
Vaatimustenmukaisuuden arviointi
1. Suuririskisestä tekoälystä, robotiikasta ja niihin liittyvästä teknologiasta on tehtävä tämän asetuksen 6–12 artiklassa asetettujen velvoitteiden noudattamista koskeva arviointi ja niitä on myöhemmin seurattava, ja 18 artiklassa tarkoitettujen kansallisten valvontaviranomaisten on toteutettava arviointi ja seuranta komission ja/tai muiden tähän tarkoitukseen mahdollisesti nimettävien unionin toimielinten, elinten, toimistojen ja virastojen koordinoimina.
2. Sellaisten suuririskisten teknologioiden, joiden on 1 kohdan mukaisesti arvioitu noudattavan tässä asetuksessa asetettuja velvoitteita, käyttämät tai tuottamat ohjelmistot, algoritmit ja data on myös katsottava kyseisten velvoitteiden mukaisiksi, jollei asiaankuuluva kansallinen valvontaviranomainen päätä suorittaa arviointia omasta aloitteestaan tai kehittäjän, käyttöönottajan tai käyttäjän pyynnöstä.
3. Komissio ja/tai tähän tarkoitukseen mahdollisesti erikseen nimettävät asiaankuuluvat unionin toimielimet, elimet, toimistot ja virastot laativat tämän asetuksen voimaantulopäivään mennessä sitovat ohjeet menetelmistä, joita kansallisten valvontaviranomaisten on määrä käyttää 1 kohdassa tarkoitetussa vaatimustenmukaisuuden arvioinnissa, sanotun kuitenkaan rajoittamatta alakohtaisen lainsäädännön soveltamista.
16 artikla
Eettisten periaatteiden noudattamista koskeva eurooppalainen todistus
1. Jos 15 artiklan mukaisesti tehty suuririskisen tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisten teknologioiden käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, vaatimustenmukaisuuden arviointi on ollut myönteinen, asianomaisen kansallisen valvontaviranomaisen on annettava eettisten periaatteiden noudattamista koskeva eurooppalainen todistus.
2. Jos tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa, myös tällaisten teknologioiden käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa, ei pidetä suuririskisinä, jolloin niihin ei sovelleta 6–12 artiklassa säädettyjä velvoitteita eikä 14 artiklassa säädettyä riskinarviointia ja 15 artiklassa säädettyä vaatimustenmukaisuuden arviointia, näiden teknologioiden kehittäjä, käyttöönottaja tai käyttäjä voi myös pyytää antamaan todistuksen tässä asetuksessa säädettyjen velvoitteiden noudattamisesta teknologioille tai osalle niistä, jos kansalliset valvontaviranomaiset päättävät tämän olevan perusteltua kyseessä olevan teknologian luonteen vuoksi. Todistus voidaan myöntää ainoastaan, jos asiaankuuluva kansallinen valvontaviranomainen on suorittanut vaatimustenmukaisuuden arvioinnin ja kyseinen arviointi on myönteinen.
3. Komissio ja/tai tähän tarkoitukseen mahdollisesti nimettävät muut asiaankuuluvat unionin toimielimet, elimet, toimistot ja virastot kehittävät hakuprosessin 2 kohdassa tarkoitetun todistuksen myöntämistä varten.
III luku
Institutionaalinen valvonta
17 artikla
Hallintostandardit ja täytäntöönpano-ohjeet
1. Unionissa kehitetyn, käyttöön otetun tai käytetyn tekoälyn, robotiikan ja niihin liittyvän teknologian on noudatettava asiaankuuluvia hallintostandardeja, jotka 18 artiklassa tarkoitetut kansalliset valvontaviranomaiset ovat vahvistaneet unionin oikeuden, periaatteiden ja arvojen mukaisesti komission ja/tai tähän tarkoitukseen mahdollisesti nimettävien asiaankuuluvien unionin toimielinten, elinten, toimistojen ja virastojen koordinoimina ja asiaankuuluvia sidosryhmiä kuullen.
2. Edellä 1 kohdassa tarkoitettuihin standardeihin on sisällyttävä ei-sitovat täytäntöönpano-ohjeet kehittäjille, käyttöönottajille ja käyttäjille menetelmistä tämän asetuksen noudattamiseksi, ja ne on julkaistava tämän asetuksen voimaantulopäivään mennessä.
3. Kehittäjien, käyttöönottajien ja käyttäjien on noudatettava unionissa kehitetyn, käyttöön otetun tai käytetyn tekoälyn, robotiikan ja niihin liittyvän teknologian käyttämän tai tuottaman datan hallinnassa asiaankuuluvia kansallisia, unionin, muiden eurooppalaisten organisaatioiden ja kansainvälisiä sääntöjä ja standardeja sekä asiaankuuluvia teollisuus- ja toimintaprotokollia. Kehittäjien ja käyttöönottajien on erityisesti suoritettava mahdollisuuksien mukaan tekoälyn, robotiikan ja niihin liittyvän teknologian käyttämien ulkoisten datalähteiden laaduntarkastuksia ja otettava käyttöön tällaisen datan keräämistä, säilyttämistä, käsittelyä ja käyttöä koskevia valvontamekanismeja.
4. Unionissa kehitetyn, käyttöön otetun tai käytetyn tekoälyn, robotiikan ja niihin liittyvän teknologian käyttämän tai tuottaman datan keräämisessä, säilyttämisessä, käsittelyssä ja jakamisessa sekä siihen pääsyssä on noudatettava asiaankuuluvia kansallisia, unionin, muiden eurooppalaisten organisaatioiden ja kansainvälisiä sääntöjä ja standardeja sekä asiaankuuluvia teollisuus- ja toimintaprotokollia, sanotun kuitenkaan rajoittamatta siirrettävyysoikeuksia ja niiden henkilöiden oikeuksia, joiden tekoälyn, robotiikan ja siihen liittyvän teknologian käyttö on tuottanut dataa. Kehittäjien ja käyttöönottajien on erityisesti varmistettava, että kyseisiä protokollia sovelletaan tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämisen ja käyttöönoton aikana, määrittelemällä selkeästi vaatimukset, jotka koskevat näiden teknologioiden käyttämän tai tuottaman datan käsittelyä ja pääsyn antamista siihen, sekä tällaisen datan käsittelyn ja siihen pääsyn antamisen tarkoitus, laajuus ja vastaanottajat siten, että näiden kaikkien on aina oltava tarkastettavissa ja jäljitettävissä.
18 artikla
Valvontaviranomaiset
1. Kunkin jäsenvaltion on nimettävä riippumaton viranomainen, joka vastaa tämän asetuksen soveltamisen seurannasta, jäljempänä ”valvontaviranomainen”, sekä 14, 15 ja 16 artiklassa säädetyn riskinarvioinnin, vaatimustenmukaisuuden arvioinnin ja sertifioinnin suorittamisesta, sanotun kuitenkaan rajoittamatta alakohtaisen lainsäädännön soveltamista.
2. Kunkin kansallisen valvontaviranomaisen on myötävaikutettava tämän asetuksen johdonmukaiseen soveltamiseen kaikkialla unionissa. Eri jäsenvaltioiden valvontaviranomaisten on tätä varten tehtävä yhteistyötä keskenään sekä komission ja/tai tähän tarkoitukseen mahdollisesti nimettävien muiden asiaankuuluvien unionin toimielinten, elinten, toimistojen ja virastojen kanssa.
3. Kunkin kansallisen valvontaviranomaisen on toimittava ensimmäisenä yhteyspisteenä tapauksissa, joissa epäillään, että tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämisen, käyttöönoton tai käytön tuloksena on rikottu tässä asetuksessa säädettyjä eettisiä periaatteita ja oikeudellisia velvoitteita, mukaan lukien syrjivä kohtelu tai muiden oikeuksien loukkaaminen. Tällaisissa tapauksissa asianomaisen kansallisen valvontaviranomaisen on suoritettava vaatimustenmukaisuuden arviointi, jotta voidaan tukea kansalaisten riitautus- ja hyvitysoikeutta.
4. Kunkin kansallisen valvontaviranomaisen vastuulla on valvoa 17 artiklassa tarkoitettujen asiaankuuluvien kansallisten, unionin ja kansainvälisten hallintosääntöjen ja -standardien soveltamista tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan muun muassa pitämällä yhteyttä mahdollisimman moneen asiaankuuluvaan sidosryhmään. Tätä varten kunkin jäsenvaltion valvontaviranomaisen on tarjottava foorumi säännölliselle näkemystenvaihdolle tiede- ja tutkimusyhteisön, teollisuuden ja kansalaisyhteiskunnan sidosryhmien kanssa ja niiden kesken.
5. Kunkin kansallisen valvontaviranomaisen on annettava tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan sovellettavan unionin lainsäädännön ja tässä asetuksessa vahvistettujen eettisten periaatteiden yleistä täytäntöönpanoa koskevaa ammatillista ja hallinnollista ohjeistusta ja tukea etenkin asiaankuuluville tutkimus- ja kehittämisorganisaatioille sekä pienille ja keskisuurille yrityksille tai startup-yrityksille.
6. Kunkin jäsenvaltion on ilmoitettava tämän artiklan nojalla antamansa säännökset komissiolle viimeistään … päivänä …kuuta … [Virallinen lehti: lisätään päivämäärä, joka on vuoden kuluttua voimaantulosta] sekä ilmoitettava komissiolle kaikki niitä koskevat myöhemmät muutokset viipymättä.
7. Jäsenvaltioiden on toteutettava kaikki tarvittavat toimenpiteet tässä asetuksessa säädettyjen eettisten periaatteiden ja oikeudellisten velvoitteiden täytäntöönpanon varmistamiseksi. Jäsenvaltioiden on tuettava sekä unionin että kansallisella tasolla asiaankuuluvia sidosryhmiä ja kansalaisyhteiskuntaa niiden pyrkimyksissä varmistaa oikea-aikaiset, eettiset ja tietoon perustuvat toimet tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevan teknologisen kehityksen myötä syntyvien uusien ja erityisesti rajatylittävien mahdollisuuksien ja haasteiden johdosta.
19 artikla
Rikkomisista ilmoittaminen ja niistä ilmoittavien henkilöiden suojelu
Tämän asetuksen rikkomisesta ilmoittamiseen ja rikkomisesta ilmoittavien henkilöiden suojeluun sovelletaan Euroopan parlamentin ja neuvoston direktiiviä (EU) 2019/1937 (6).
20 artikla
Koordinointi unionin tasolla
1. Komissiolla ja/tai tätä varten mahdollisesti nimettävillä asiaankuuluvilla unionin toimielimillä, elimillä, toimistoilla ja virastoilla on seuraavat tehtävät:
— |
varmistaa, että 18 artiklassa tarkoitetut kansalliset valvontaviranomaiset toteuttavat 14 artiklassa tarkoitetun tekoälyn, robotiikan ja niihin liittyvän teknologian riskinarvioinnin johdonmukaisesti 8 artiklan 1 kohdassa ja tämän asetuksen liitteenä olevassa suuririskisten alojen ja käyttötarkoitusten luettelossa säädettyjen yhteisten objektiivisten kriteerien perusteella; |
— |
panna merkille 15 artiklassa tarkoitettu suuririskisen tekoälyn, robotiikan ja niihin liittyvän teknologian vaatimustenmukaisuuden arviointi ja myöhempi seuranta, jotka 18 artiklassa tarkoitettujen kansallisten valvontaviranomaisten on määrä suorittaa; |
— |
kehittää hakuprosessi, jota 18 artiklassa tarkoitettujen kansallisten valvontaviranomaisten on määrä noudattaa myöntäessään 16 artiklassa tarkoitetun todistuksen; |
— |
laatia 17 artiklan 4 kohdassa tarkoitetut sitovat ohjeet menetelmistä, joita 18 artiklassa tarkoitettujen kansallisten valvontaviranomaisten on määrä käyttää, sanotun kuitenkaan rajoittamatta alakohtaisen lainsäädännön soveltamista; |
— |
koordinoida 18 artiklassa tarkoitettujen kansallisten valvontaviranomaisten toimintaa vahvistettaessa 17 artiklassa tarkoitetut asiaankuuluvat hallintostandardit, mukaan lukien ei-sitovat täytäntöönpano-ohjeet kehittäjille, käyttöönottajille ja käyttäjille menetelmistä tämän asetuksen noudattamiseksi; |
— |
tehdä yhteistyötä 18 artiklassa tarkoitettujen kansallisten valvontaviranomaisten kanssa, kun ne myötävaikuttavat tämän asetuksen johdonmukaiseen soveltamiseen kaikkialla unionissa 18 artiklan 2 kohdan mukaisesti; |
— |
toimia asiantuntijakeskuksena edistämällä tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan liittyvää tietojenvaihtoa ja tukemalla yhteisymmärryksen kehittymistä sisämarkkinoilla, antamalla lisäohjeita, lausuntoja ja asiantuntijaneuvoja 18 artiklassa tarkoitetuille kansallisille valvontaviranomaisille, seuraamalla asiaa koskevan unionin lainsäädännön täytäntöönpanoa, yksilöimällä parhaita käytäntöjä koskevia standardeja ja antamalla tarvittaessa suosituksia sääntelytoimenpiteiksi; näin tehdessään sen olisi oltava yhteydessä mahdollisimman moneen asiaankuuluvaan sidosryhmään ja varmistettava, että sen kokoonpano eri päätöksentekotasoilla on monimuotoinen ja varmistaa sukupuolten tasa-arvon; |
— |
isännöidä turvallisuutta ja puolustusta käsittelevää työryhmää, joka tarkastelee politiikka- ja investointikysymyksiä, jotka liittyvät nimenomaisesti tekoälyn, robotiikan ja niihin liittyvän teknologian eettiseen käyttöön turvallisuuden ja puolustuksen alalla. |
21 artikla
Siirretyn säädösvallan käyttäminen
1. Komissiolle siirrettyä valtaa antaa delegoituja säädöksiä koskevat tässä artiklassa säädetyt edellytykset.
2. Siirretään komissiolle … päivästä …kuuta … [tämän asetuksen voimaantulopäivä] viiden vuoden ajaksi 14 artiklan 3 ja 4 kohdassa tarkoitettu valta antaa delegoituja säädöksiä.
3. Euroopan parlamentti tai neuvosto voi milloin tahansa peruuttaa 14 artiklan 3 ja 4 kohdassa tarkoitetun säädösvallan siirron. Peruuttamispäätöksellä lopetetaan tuossa päätöksessä mainittu säädösvallan siirto. Peruuttaminen tulee voimaan sitä päivää seuraavana päivänä, jona sitä koskeva päätös julkaistaan Euroopan unionin virallisessa lehdessä, tai jonakin myöhempänä, kyseisessä päätöksessä mainittuna päivänä. Peruuttamispäätös ei vaikuta jo voimassa olevien delegoitujen säädösten pätevyyteen.
4. Ennen kuin komissio hyväksyy delegoidun säädöksen, se kuulee kunkin jäsenvaltion nimeämiä asiantuntijoita paremmasta lainsäädännöstä 13 päivänä huhtikuuta 2016 tehdyssä toimielinten välisessä sopimuksessa vahvistettujen periaatteiden mukaisesti.
5. Heti kun komissio on antanut delegoidun säädöksen, komissio antaa sen tiedoksi yhtäaikaisesti Euroopan parlamentille ja neuvostolle.
6. Edellä olevan 14 artiklan 3 tai 4 kohdan nojalla annettu delegoitu säädös tulee voimaan ainoastaan, jos Euroopan parlamentti tai neuvosto ei ole kolmen kuukauden kuluessa siitä, kun asianomainen säädös on annettu tiedoksi Euroopan parlamentille ja neuvostolle, ilmaissut vastustavansa sitä tai jos sekä Euroopan parlamentti että neuvosto ovat ennen mainitun määräajan päättymistä ilmoittaneet komissiolle, että ne eivät vastusta säädöstä. Euroopan parlamentin tai neuvoston aloitteesta tätä määräaikaa jatketaan kolmella kuukaudella.
22 artikla
Direktiivin (EU) 2019/1937 muuttaminen
Muutetaan direktiivi (EU) 2019/1937 seuraavasti:
1) |
Lisätään 2 artiklan 1 kohdan a alakohtaan alakohta seuraavasti:
|
2) |
Lisätään liitteessä olevaan I osaan kohta seuraavasti:
|
23 artikla
Uudelleentarkastelu
Komissio tarkastelee säännöllisesti tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisten teknologioiden käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, kehitystä ja toimittaa viimeistään … päivänä …kuuta … [Virallinen lehti: lisätään päivämäärä, joka on kolme vuotta voimaantulosta] ja sen jälkeen joka kolmas vuosi Euroopan parlamentille, neuvostolle ja Euroopan talous- ja sosiaalikomitealle tämän asetuksen soveltamisesta kertomuksen, johon sisältyy arvio tämän asetuksen soveltamisalan mahdollisesta muuttamisesta.
24 artikla
Voimaantulo
Tämä asetus tulee voimaan kahdentenakymmenentenä päivänä sen jälkeen, kun se on julkaistu Euroopan unionin virallisessa lehdessä.
Sitä sovelletaan … päivästä …kuuta … .
Tämä asetus on kaikilta osiltaan velvoittava, ja sitä sovelletaan sellaisenaan kaikissa jäsenvaltioissa.
Tehty …,
Euroopan parlamentin puolesta
Puhemies
Neuvoston puolesta
Puheenjohtaja
LIITE
Tyhjentävä ja kumulatiivinen luettelo suuririskisistä aloista ja käyttötarkoituksista, joihin liittyy riski perusoikeuksien ja turvallisuussääntöjen rikkomisesta
Suuririskiset alat |
|
||||||||||||||||||||||||||||
Suuririskiset käyttötarkoitukset |
|
(1) Kansainvälisessä standardissa SAE J3016, joka on viimeksi päivitetty vuonna 2018 standardiin J3016_201806, on ehdotettu kuutta automaation tasoa ajoneuvojen automatisoituun ajoon. https://www.sae.org/standards/content/j3016_201806/
(2) Euroopan parlamentin ja neuvoston asetus (EU) 2016/679, annettu 27 päivänä huhtikuuta 2016, luonnollisten henkilöiden suojelusta henkilötietojen käsittelyssä sekä näiden tietojen vapaasta liikkuvuudesta ja direktiivin 95/46/EY kumoamisesta (yleinen tietosuoja-asetus) (EUVL L 119, 4.5.2016, s. 1).
(3) Euroopan parlamentin ja neuvoston direktiivi 2002/58/EY, annettu 12 päivänä heinäkuuta 2002, henkilötietojen käsittelystä ja yksityisyyden suojasta sähköisen viestinnän alalla (sähköisen viestinnän tietosuojadirektiivi) (EYVL L 201, 31.7.2002, s. 37).
(4) Määritelmä mukautettuna Euroopan komission tiedonannosta COM(2018)0237, 25.4.2018, s. 1.
(5) ISO 8373 -standardin teollisuusrobottien määritelmästä.
(6) Euroopan parlamentin ja neuvoston direktiivi (EU) 2019/1937, annettu 23 päivänä lokakuuta 2019, unionin oikeuden rikkomisesta ilmoittavien henkilöiden suojelusta (EUVL L 305, 26.11.2019, s. 17).