Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52020AE1110

    Euroopan talous- ja sosiaalikomitean lausunto aiheesta: ”Valkoinen kirja tekoälystä – Eurooppalainen lähestymistapa huippuosaamiseen ja luottamukseen” (COM(2020) 65 final)

    EESC 2020/01110

    EUVL C 364, 28.10.2020, p. 87–93 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    28.10.2020   

    FI

    Euroopan unionin virallinen lehti

    C 364/87


    Euroopan talous- ja sosiaalikomitean lausunto aiheesta: ”Valkoinen kirja tekoälystä – Eurooppalainen lähestymistapa huippuosaamiseen ja luottamukseen”

    (COM(2020) 65 final)

    (2020/C 364/12)

    Esittelijä:

    Catelijne MULLER

    Lausuntopyyntö

    komissio, 9.3.2020

    Oikeusperusta

    Euroopan unionin toiminnasta tehdyn sopimuksen 304 artikla

    Vastaava jaosto

    yhtenäismarkkinat, tuotanto ja kulutus

    Hyväksyminen jaostossa

    25.6.2020

    Hyväksyminen täysistunnossa

    16.7.2020

    Täysistunnon nro

    553

    Äänestystulos

    (puolesta / vastaan / pidättyi äänestämästä)

    207/0/6

    1.   Päätelmät ja suositukset

    1.1

    ETSK onnittelee komissiota tekoälyä koskevassa valkoisessa kirjassa esitetystä strategiasta, jolla edistetään tekoälyteknologioiden käyttöönottoa ja varmistetaan samalla, että ne ovat eurooppalaisten eettisten normien, oikeudellisten vaatimusten ja sosiaalisten arvojen mukaisia.

    1.2

    ETSK suhtautuu myönteisesti myös pyrkimykseen hyödyntää Euroopan vahvuuksia teollisilla ja ammatillisilla markkinoilla ja korostaa, että on tärkeää tehostaa investointeja, infrastruktuuria, innovointia ja osaamista, jotta yritykset, pk-yritykset mukaan luettuina, ja koko yhteiskunta voivat tarttua tekoälyn tarjoamiin mahdollisuuksiin. Tekoälyyn liittyvää innovointia olisi edistettävä tekoälyjärjestelmien hyötyjen maksimoimiseksi ja samalla olisi ehkäistävä ja minimoitava niiden riskit.

    1.3

    Komitea pitää kuitenkin keskittymistä pelkästään datavetoiseen tekoälyyn liian kapea-alaisena lähestymistapana, jotta EU voisi ottaa todellisen johtoaseman huipputasoisen, luotettavan ja kilpailukykyisen tekoälyn alalla. ETSK kehottaa komissiota myös edistämään uuden sukupolven tekoälyjärjestelmiä, jotka perustuvat tietoon ja päättelyyn ja joilla vaalitaan inhimillisiä arvoja ja periaatteita.

    1.4

    ETSK kehottaa komissiota i) edistämään monitieteisyyttä tutkimuksessa sisällyttämällä mukaan muita tieteenaloja, kuten oikeustiede, etiikka, filosofia, psykologia, työelämän tutkimus, humanistiset tieteet ja taloustiede; ii) ottamaan keskeiset sidosryhmät (ammattiliitot, toimialajärjestöt, elinkeinoelämän järjestöt, kuluttajajärjestöt, valtiovallasta riippumattomat organisaatiot) mukaan tekoälystä käytävään keskusteluun ja tasavertaisina kumppaneina EU:n rahoittamiin tutkimushankkeisiin ja muihin hankkeisiin, joita ovat esimerkiksi tekoälyä koskeva julkisen ja yksityisen sektorin kumppanuus, alakohtaiset vuoropuhelut ja tekoälyteknologian käyttöönottoa julkisella sektorilla edistävä Adopt AI-ohjelma ja eurooppalainen tekoälyn tutkimuksen ja innovoinnin kärkikeskus, ja iii) jatkamaan suuren yleisön valistamista ja sille tiedottamista tekoälyn mahdollisuuksista ja haasteista.

    1.5

    ETSK kehottaa komissiota tarkastelemaan seikkaperäisemmin tekoälyn vaikutusta kaikkiin perusoikeuksiin ja -vapauksiin, muun muassa – mutta ei pelkästään – oikeudenmukaista oikeudenkäyntiä koskevaan oikeuteen, oikeudenmukaisia ja avoimia vaaleja koskevaan oikeuteen, kokoontumis- ja mielenosoitusoikeuteen sekä oikeuteen olla tulematta syrjityksi.

    1.6

    ETSK vastustaa edelleen tekoälyn määrittämistä jonkin muotoiseksi oikeushenkilöksi. Tämä tekisi tyhjäksi vastuulainsäädännön ennaltaehkäisevän korjaavan vaikutuksen ja aiheuttaisi vakavan moraalikadon riskin sekä tekoälyn kehittämisessä että sen käytössä, mikä loisi mahdollisuuksia väärinkäytöksiin.

    1.7

    ETSK peräänkuuluttaa jatkuvaa ja järjestelmällistä sosioteknistä lähestymistapaa, jossa teknologiaa tarkastellaan kaikista näkökulmista ja eri kriteerien pohjalta, sen sijaan, että suoritetaan kertaluonteinen (tai jopa säännöllisesti toistuva) suuririskisen tekoälyn vaatimustenmukaisuuden ennakkoarviointi.

    1.8

    ETSK varoittaa, että ”suuririskisille” aloille asetetut vaatimukset voisivat sulkea pois monet tekoälysovellukset ja tekoälyn käyttötarkoitukset, jotka ovat luonnostaan suuririskisiä, biometrisen tunnistamisen ja työhönotossa käytettävän tekoälyn lisäksi. ETSK suosittaa, että komissio laatii luettelon sellaisten tekoälysovellusten tai tekoälyn käyttötarkoitusten yleisistä ominaispiirteistä, joiden katsotaan olevan luontaisesti suuririskisiä alasta riippumatta.

    1.9

    ETSK esittää painokkaasti, että kaikenlainen biometrisen tunnistamisen käyttö sallitaan vain, i) jos sen vaikutus on tieteellisesti todistettu, ii) valvotuissa ympäristöissä ja iii) tiukoin ehdoin. Tekoälyyn perustuvan biometrisen tunnistamisen laajamittainen käyttö ihmisten, ihmisten käyttäytymisen tai tunteiden valvontaan, jäljittämiseen, arviointiin tai luokitteluun olisi kiellettävä.

    1.10

    ETSK kannattaa työmarkkinaosapuolten varhaista ja tiivistä osallistamista sovellettavien kansallisten sääntöjen ja käytäntöjen mukaisesti, kun tekoälyjärjestelmiä otetaan käyttöön työpaikoilla, jotta varmistetaan, että järjestelmät ovat käyttökelpoisia ja työntekijöiden oikeuksien ja työehtojen mukaisia.

    1.11

    ETSK kannattaa myös sitä, että ne työntekijät, jotka tulevat lopulta työskentelemään tekoälyn parissa, sekä ne, joilla on oikeudellista, eettistä ja humanistista asiantuntemusta, otetaan varhaisessa vaiheessa ja tiiviisti mukaan tekoälyjärjestelmiä käyttöön otettaessa, jotta varmistetaan, että järjestelmät ovat lainsäädännön ja eettisten vaatimusten mukaisia mutta myös vastaavat työntekijöiden tarpeita, niin että työntekijät säilyttävät mahdollisuuden määrätä itsenäisesti työstään ja tekoälyjärjestelmät parantavat työntekijöiden taitoja ja työtyytyväisyyttä.

    1.12

    Koronaviruspandemian torjumiseen käytettävien tekoälytekniikoiden ja -lähestymistapojen tulisi olla vakaita, tehokkaita, avoimia ja selitettäviä. Niissä olisi myös noudatettava ihmisoikeuksia, eettisiä periaatteita ja voimassa olevaa lainsäädäntöä, ja niiden olisi oltava oikeudenmukaisia, osallistavia ja vapaaehtoisia.

    1.13

    ETSK kehottaa komissiota omaksumaan johtavan roolin, jotta voidaan varmistaa koronaviruspandemian torjunnassa käytettävien sovellettavien tekoälyratkaisujen ja -lähestymistapojen parempi koordinointi Euroopassa.

    2.   EU:n valkoinen kirja tekoälystä

    2.1

    ETSK panee tyytyväisenä merkille, että Euroopan komissio on ottanut huomioon monet ETSK:n aiemmissa lausunnoissa esitetyistä ja tekoälyä käsittelevä korkean tason asiantuntijaryhmän antamista suosituksista ja kannustaa tekoälyteknologioiden käyttöönottoon samalla kun myös varmistetaan, että ne ovat eurooppalaisten eettisten normien, oikeudellisten vaatimusten ja sosiaalisten arvojen mukaisia. Lähtökohtana tässä on komission määrittelemä ”huippuosaamisen ja luottamuksen ekosysteemi”.

    2.2

    ETSK suhtautuu myönteisesti ehdotuksiin, jotka koskevat yrityksiä, myös pk-yrityksiä, ja koko yhteiskuntaa ja joissa hyödynnetään tekoälyn kehittämisen ja käytön tarjoamia mahdollisuuksia. ETSK korostaa, että on tärkeää tehostaa investointeja, infrastruktuuria, innovointia ja osaamista, jotta voidaan parantaa EU:n kilpailukykyistä menestystä maailmanlaajuisesti.

    Ihminen määrää -periaate

    2.3

    Valkoinen kirja on kuitenkin myös sävyltään hieman ”fatalistinen”, sillä sen mukaan tekoäly ”hallitsee meitä”, mikä ei jätä meille muuta vaihtoehtoa kuin säännellä sen käyttöä. ETSK:lla on vahva usko EU:n sitoumukseen varmistaa, että unioni hyväksyy ainoastaan luotettavan tekoälyn, ja siksi sen olisi rohjettava ottaa paljon tiukempi kanta asiaan. ETSK kehottaakin komissiota pitämään aina avoimena mahdollisuuden olla ollenkaan hyväksymättä tietyntyyppistä tekoälyä (tai tekoälyn käyttöä). Tätä ETSK on kutsunut tekoälyä koskevaksi ”ihminen määrää” -periaatteeksi, jota meidän on edistettävä.

    Tekoälyn hyödyntäminen Euroopassa – tulevaisuuteen suuntautuva määritelmä

    2.4

    Tekoälyn käytännön määritelmä valkoisessa kirjassa on ”joukko teknologioita, joissa yhdistetään dataa, algoritmeja ja laskentatehoa”. Myöhemmin tekstissä data ja algoritmit määritellään tekoälyn keskeisiksi osatekijöiksi. Tämä määritelmä kattaisi kuitenkin minkä tahansa koskaan kirjoitetun ohjelmiston, ei pelkästään tekoälyä. Tekoälylle ei ole vieläkään yleisesti hyväksyttyä määritelmää, sillä tekoäly on yleistermi monenlaisille tietokonesovelluksille.

    2.5

    Valkoisessa kirjassa keskitytään pelkästään datavetoiseen tekoälyyn, toisin sanoen liian suppeaan alaan, jotta EU voisi ottaa todellisen johtoaseman huipputason, luotettavan ja kilpailukykyisen tekoälyn alalla. Valkoisessa kirjassa jätetään monet lupaavat tekoälyjärjestelmät tarkastelun ja näin ollen hallinnan ja sääntelyn ulkopuolelle. ETSK kehottaa komissiota myös edistämään uuden sukupolven tekoälyjärjestelmiä, joissa datavetoiset lähestymistavat yhdistetään tietoon ja päättelyyn perustuviin lähestymistapoihin (niin kutsuttuja hybridijärjestelmiä). Valkoisessa kirjassa tunnustetaan hybridijärjestelmien tarve selitettävyyden kannalta, mutta tällaisten järjestelmien edut ulottuvat selitettävyyttä pidemmälle: ne voivat nopeuttaa ja/tai rajoittaa oppimista sekä validoida ja todentaa koneoppimismallin.

    2.6

    Valkoisessa kirjassa keskitytään ainoastaan dataan liittyviin vinoutumiin, mutta kaikki vinoutumat eivät johdu huonolaatuisesta tai rajallisesta datasta. Minkä tahansa artefaktin suunnittelu on itsessään kasautuma arvotettuja valintoja, jotka ulottuvat huomioon otetuista panoksista aina tavoitteisiin, jotka on asetettu optimaalista käyttöä ajatellen. Kaikkiin näihin valintoihin vaikuttavat tavalla tai toisella niitä tekevän henkilön (tai niitä tekevien henkilöiden) ominaiset ennakkoluulot.

    2.7

    Mikä tärkeintä, tekoälyjärjestelmät ovat kuitenkin enemmän kuin vain ohjelmistokomponenttiensa summa. Tekoälyjärjestelmät käsittävät myös niiden ympärillä olevan sosioteknisen järjestelmän. Tarkasteltaessa tekoälyn hallintaa ja sääntelyä olisi näin ollen keskityttävä myös tekoälyä ympäröiviin sosiaalisiin rakenteisiin: tekoälyä luovat, kehittävät, käyttöön ottavat, hyödyntävät ja valvovat organisaatiot ja yritykset, eri ammattilaiset, ihmiset ja instituutiot sekä ihmiset, joihin tekoäly vaikuttaa, kuten kansalaiset yhteyksissään viranomaisiin, yrityksiin, kuluttajiin, työntekijöihin ja jopa koko yhteiskuntaan.

    2.8

    On myös pantava merkille, että oikeudelliset määritelmät (hallintaa ja sääntelyä varten) eroavat puhtaasti tieteellisistä määritelmistä, koska tiettyjen edellytysten, esimerkiksi osallistavuuden, täsmällisyyden, pysyvyyden, kattavuuden ja käytännöllisyyden, on täytyttävä. Eräät näistä vaatimuksista ovat oikeudellisesti sitovia, ja toisia pidetään hyvänä sääntelykäytäntönä.

    Kaikkien voimien yhdistäminen

    2.9

    ETSK suhtautuu myönteisesti pyrkimykseen puuttua tekoälyalan hajanaisuuteen EU:ssa keräämällä yhteen tekoälyn tutkijoita, keskittymällä pk-yrityksiin ja perustamalla kumppanuuksia yksityisen ja julkisen sektorin kanssa. Lisäksi ETSK suosittaa, että i) edistetään monitieteisyyttä tutkimuksessa sisällyttämällä mukaan muita tieteenaloja, kuten oikeustiede, etiikka, filosofia, psykologia, työelämän tutkimus, humanistiset tieteet ja taloustiede; ii) otetaan keskeiset sidosryhmät (ammattiliitot, elinkeinoelämän järjestöt, kuluttajajärjestöt, valtiovallasta riippumattomat organisaatiot) mukaan tekoälystä käytävään keskusteluun ja myös tasavertaisina kumppaneina EU:n rahoittamiin tutkimushankkeisiin ja muihin hankkeisiin, joita ovat esimerkiksi tekoälyä koskeva julkisen ja yksityisen sektorin kumppanuus, alakohtaiset vuoropuhelut ja tekoälyteknologian käyttöönottoa julkisella sektorilla edistävä Adopt AI -ohjelma ja eurooppalainen tekoälyn tutkimuksen ja innovoinnin kärkikeskus, ja iii) jatketaan suuren yleisön valistamista ja sille tiedottamista tekoälyn mahdollisuuksista ja haasteista.

    Tekoäly ja lainsäädäntö

    2.10

    Valkoisessa kirjassa todetaan, ettei tekoäly toimi sääntelemättömässä maailmassa. ETSK on erityisen tyytyväinen siihen, että painotetaan tekoälyn vaikutuksia perusoikeuksiin, ja suosittaa, että komissio tarkastelee perusteellisemmin tekoälyn vaikutuksia laajaan joukkoon perusoikeuksia ja -vapauksia, kuten sananvapauteen ja ilmaisunvapauteen, oikeuteen nauttia yksityiselämän kunnioitusta (joka menee paljon pidemmälle kuin kansalaisten tietojen suojeleminen), oikeudenmukaista oikeudenkäyntiä koskevaan oikeuteen, oikeudenmukaisia ja avoimia vaaleja koskevaan oikeuteen, kokoontumis- ja mielenosoitusoikeuteen sekä oikeuteen olla tulematta syrjityksi.

    2.11

    ETSK suhtautuu myönteisesti valkoisessa kirjassa esitettyyn selkeään kantaan, joka koskee nykyisten vastuujärjestelyiden sovellettavuutta tekoälyyn, sekä pyrkimyksiin hyödyntää näitä järjestelyitä, jotta voidaan puuttua tekoälyn mahdollisesti aiheuttamiin uusiin riskeihin, korjata puutteita täytäntöönpanossa, kun todellista vastuussa olevaa talouden toimijaa on vaikea määrittää, ja mukauttaa järjestelyitä tekoälyjärjestelmien muuttuviin toimintoihin.

    2.12

    Komission olisi myös tunnustettava, että tekoäly ei tunne rajoja ja ettei toimia voida eikä pitäisi rajata koskemaan pelkästään EU:ta. Asiassa olisi päästävä keskustelujen ja oikeusalan asiantuntijoiden tutkimusten pohjalta yleiseen maailmanlaajuiseen yhteisymmärrykseen yhteisen kansainvälisen oikeudellisen kehyksen vahvistamiseksi.

    2.13

    Joka tapauksessa ETSK vastustaa edelleen tiukasti tekoälyn määrittämistä jonkin muotoiseksi oikeushenkilöksi. Tämä tekisi tyhjäksi vastuulainsäädännön ennaltaehkäisevän korjaavan vaikutuksen ja aiheuttaisi vakavan moraalikadon riskin sekä tekoälyn kehittämisessä että sen käytössä, mikä loisi mahdollisuuksia väärinkäytöksiin.

    Suuririskisen tekoälyn sääntely

    2.14

    ETSK suhtautuu myönteisesti riskiperusteiseen lähestymistapaan tekoälyn vaikutusten hallinnassa. Komissio ilmoittaa ”suuririskistä tekoälyä” koskevasta sääntelykehyksestä, jonka olisi täytettävä varmuutta, tarkkuutta, toistettavuutta, läpinäkyvyyttä, ihmisen suorittamaa valvontaa ja datan hallintaa koskevat vaatimukset. Valkoisen kirjan mukaan kaksi kumulatiivista tekijää muodostavat suuririskisen tekoälyn: i) suuririskinen ala ja ii) tekoälysovelluksen suuririskinen käyttö. Valkoisessa kirjassa mainitaan kaksi esimerkkiä tekoälysovelluksista tai tekoälyn käyttötarkoituksista, joiden voitaisiin katsoa olevan luontaisesti suuririskisiä, toisin sanoen alasta riippumatta. Siinä myös luokitellaan biometrinen tunnistus luontaisesti suuririskiseksi sovellukseksi. Suuririskisten alojen kattava luettelo (jota tarkistetaan säännöllisesti) sisältää nyt seuraavat alat potentiaalisesti suuririskisinä: terveydenhuolto, liikenne, energia ja osia julkisesta sektorista.

    2.15

    Toinen kriteeri, jonka mukaan tekoälysovellusta käytetään riskialttiilla tavalla, on löyhempi, mikä viittaa siihen, että voitaisiin harkita erilaisia riskitasoja. ETSK ehdottaa, että yhteiskunta ja ympäristö lisättäisiin vaikutusalueiksi tässä yhteydessä.

    2.16

    Valkoisen kirjan logiikan mukaisesti vähäriskisellä alalla käytettyyn suuririskiseen tekoälysovellukseen ei periaatteessa sovelleta sääntelykehystä. ETSK korostaa, että suuririskisen tekoälyn ei-toivotut haittavaikutukset vähäriskisellä alalla voisivat sulkea tekoälysovellukset tai niiden käyttötarkoitukset sääntelyn ulkopuolelle ja tarjota ”ikkunan” sääntöjen kiertämiseksi: otettakoon esimerkiksi kohdennettu mainonta (vähäriskinen ala), jolla on osoitettu olevan mahdollisesti erottelevia, syrjiviä ja jakavia vaikutuksia esimerkiksi vaalien aikana tai yksilölliseen hinnoitteluun (suuririskinen käyttö tai vaikutus). ETSK suosittaa, että kartoitetaan sellaisten tekoälysovellusten tai tekoälyn käyttötarkoitusten yhteiset ominaispiirteet, joiden katsotaan olevan luontaisesti suuririskisiä riippumatta alasta, jolla niitä käytetään.

    2.17

    ETSK myöntää, että tekoälyn vaatimustenmukaisuus on testattava, mutta pelkää, että kertaluonteinen (tai edes säännöllisesti toistuva) vaatimustenmukaisuuden ennakkoarviointi ei riitä takaamaan tekoälyn luotettavaa ja ihmiskeskeistä kehittämistä, käyttöönottoa ja käyttöä kestävällä tavalla. Luotettava tekoäly edellyttää jatkuvaa ja systemaattista sosioteknistä lähestymistapaa, jossa teknologiaa tarkastellaan kaikista näkökulmista ja eri kriteerein. Poliittisen päätöksenteon kannalta tämä edellyttää monialaista lähestymistapaa, jossa poliittiset päättäjät, eri alojen tutkijat, työmarkkinaosapuolet, toimialajärjestöt, ammattilaiset, yritykset ja valtiovallasta riippumattomat organisaatiot tekevät jatkuvasti yhteistyötä. Erityisesti kun on kyse ihmisten terveyteen, turvallisuuteen ja hyvinvointiin liittyvistä yleisen edun mukaisista palveluista, jotka perustuvat luottamukseen, on varmistettava, että tekoälyjärjestelmät mukautetaan käytännön vaatimuksiin ja ettei niillä voida kumota ihmisen vastuuta.

    Biometrinen tunnistus

    2.18

    ETSK suhtautuu myönteisesti komission kehotukseen käynnistää julkinen keskustelu tekoälypohjaisen biometrisen tunnistamisen käytöstä. Esimerkiksi mikroilmeiden, askelluksen, äänen(sävyn), sydämen lyöntitiheyden ja lämpötilan biometristä tunnistamista käytetään jo käyttäytymisen, henkisen tilan ja tunteiden arviointiin tai jopa ennustamiseen, myös työhönottoprosesseissa. Todettakoon tässä yhteydessä selkeästi, ettei ole olemassa vankkaa tieteellistä näyttöä siitä, että henkilön sisäisiä tunteita tai henkistä tilaa voitaisiin ”lukea” tarkasti hänen kasvojensa ilmeen, askelluksen, sydämen lyöntitiheyden, äänensävyn tai lämpötilan perusteella, puhumattakaan siitä, että näin voitaisiin ennustaa tulevaa käyttäytymistä.

    2.19

    Tulisi myös panna merkille, että yleisessä tietosuoja-asetuksessa rajoitetaan biometristen tietojen käsittelyä vain jossain määrin. Yleisessä tietosuoja-asetuksessa biometrisillä tiedoilla tarkoitetaan ”luonnollisen henkilön fyysisiin ja fysiologisiin ominaisuuksiin tai käyttäytymiseen liittyvällä teknisellä käsittelyllä saatuja henkilötietoja, [– –] joiden perusteella kyseinen luonnollinen henkilö voidaan tunnistaa tai kyseisen henkilön tunnistaminen voidaan varmistaa.” Monia biometrisen tunnistuksen tekniikoita ei kuitenkaan ole suunniteltu henkilön yksilölliseen tunnistamiseen vaan ainoastaan henkilön käyttäytymisen tai tunteiden arvioimiseen. Nämä käyttötarkoitukset eivät mahdollisesti kuulu yleisen tietosuoja-asetuksen mukaisen biometristen tietojen (käsittelyn) määritelmän piiriin.

    2.20

    Tekoälypohjainen biometrinen tunnistaminen vaikuttaa myös laajempaan oikeuteemme nauttia yksityiselämän, identiteetin, itsenäisyyden ja henkisen koskemattomuuden kunnioitusta luomalla tilanteen, jossa meitä tarkkaillaan, seurataan ja tunnistetaan (lakkaamatta). Tällä voisi olla psykologinen ”tukahduttava vaikutus”, jossa ihmiset saattavat tuntea olevansa halukkaita mukauttamaan käyttäytymistään tiettyyn normiin. Tämä loukkaa perusoikeuttamme yksityisyyteen (moraalinen ja henkinen koskemattomuus). Lisäksi tekoälypohjainen biometrinen tunnistaminen voisi vaikuttaa muihin perusoikeuksiin ja -vapauksiin, kuten kokoontumisvapauteen ja oikeuteen olla joutumatta syrjityksi.

    2.21

    ETSK suosittaa, että kaikenlainen biometrisen tunnistamisen käyttö sallitaan vain, jos sen vaikutus on tieteellisesti todistettu, valvotuissa ympäristöissä ja tiukoin ehdoin. Tekoälyyn perustuvan biometrisen tunnistamisen laajamittaista käyttöä ihmisten tai ihmisten käyttäytymisen tai tunteiden valvontaan, jäljittämiseen, arviointiin tai luokitteluun ei tulisi sallia.

    Tekoälyn vaikutus työelämään ja osaamiseen

    2.22

    ETSK toteaa, että valkoiseen kirjaan ei sisälly strategiaa siitä, miten tekoälyn työelämävaikutuksiin puututaan, vaikka tämä oli nimenomainen osa vuonna 2018 julkistettua ”Tekoäly Euroopassa” -strategiaa.

    2.23

    ETSK kannattaa kaikentyyppisten työntekijöiden ja palveluntarjoajien, myös freelance-työntekijöiden, itsenäisten ammatinharjoittajien ja keikkatyöntekijöiden varhaista ja tiivistä osallistamista – ei ainoastaan tekoälyä suunnittelevien tai kehittävien henkilöiden vaan myös niiden, jotka ostavat ja ottavat käyttöön tekoälyjärjestelmiä, työskentelevät niiden parissa tai joihin tekoälyjärjestelmät vaikuttavat. Työmarkkinaosapuolten on käytävä vuoropuhelua sovellettavien kansallisten sääntöjen ja käytäntöjen mukaisesti ennen kuin tekoälyteknologioita otetaan käyttöön työpaikoilla. Työpaikalla työntekijöitä koskevien tietojen saatavuuden ja hallinnoinnin olisi perustuttava työmarkkinaosapuolten neuvottelemiin periaatteisiin ja sääntöihin.

    2.24

    ETSK kiinnittää erityistä huomiota työhönotossa, irtisanomisessa ja työntekijöiden arviointiprosesseissa käytettyyn tekoälyyn. Valkoisessa kirjassa mainitaan työhönotossa käytetty tekoäly esimerkkinä suuririskisestä sovelluksesta, jota säänneltäisiin alasta riippumatta. ETSK suosittaa, että tätä käyttöalaa laajennetaan käsittämään myös irtisanomisessa ja työntekijöiden arviointiprosesseissa käytettävä tekoäly mutta että tarkastellaan myös sellaisten tekoälysovellusten yhteisiä piirteitä, joihin liittyisi suuririskinen käyttö työpaikalla toimialasta riippumatta. Vailla tieteellistä perustaa olevia tekoälysovelluksia, kuten tunteiden havaitsemista biometrisen tunnistuksen avulla, ei pitäisi sallia työympäristöissä.

    2.25

    Tekoälytaitojen ylläpitäminen tai hankkiminen on välttämätöntä, jotta ihmiset kykenevät mukautumaan tekoälyn alalla tapahtuvaan nopeaan kehitykseen. Poliittisia ja taloudellisia resursseja on kuitenkin suunnattava myös koulutukseen ja taitojen kehittämiseen aloilla, joita tekoälyjärjestelmät eivät uhkaa (toisin sanoen tehtävät, joissa ihmisen vuorovaikutus on olennaisen tärkeää, kuten ihmisten terveyteen, turvallisuuteen ja hyvinvointiin liittyvät yleisen edun mukaiset palvelut, jotka perustuvat luottamukseen ja joissa ihmiset ja koneet tekevät yhteistyötä, tai tehtävät, joita ihminen haluaisi tehdä jatkossakin).

    3.   Tekoäly ja koronavirus

    3.1

    Tekoäly voi osaltaan edistää paremman käsityksen hankkimista koronaviruksesta ja covid-19:sta sekä suojella ihmisiä altistumiselta ja auttaa rokotteen löytämisessä ja hoitovaihtoehtojen tutkimisessa. Siitä huolimatta on kuitenkin tärkeää tehdä avoimesti ja selkeästi ero sen välillä, mitä tekoäly voi tehdä ja ei voi tehdä.

    3.2

    Varmuus ja tehokkuus: Datavetoinen tekoäly koronaviruksen leviämisen ennustamiseksi saattaa olla ongelmallinen, koska koronaviruksesta on liian vähän tietoa, jotta tekoälyllä saataisiin luotettavia tuloksia. Lisäksi saatavilla olevat vähäiset tiedot ovat epätäydellisiä ja vinoutuneita. Näiden tietojen käyttäminen koneoppimiseen perustuvissa lähestymistavoissa voisi johtaa moniin vääriin negatiivisiin ja vääriin positiivisiin tuloksiin.

    3.3

    Käytettyjä tietoja ja malleja koskeva avoimuus sekä tulosten selitettävyys ovat ensiarvoisen tärkeitä. Erityisesti tällä hetkellä maailmalla ei ole varaa tehdä päätöksiä ”mustien laatikoiden” perusteella.

    3.4

    Kun tekoälyä käytetään nykyisen pandemian torjumiseen, ihmisoikeuksien, eettisten periaatteiden ja voimassa olevan lainsäädännön kunnioittaminen on tärkeämpää kuin koskaan. Erityisesti silloin, kun tekoälyvälineet mahdollisesti loukkaavat ihmisoikeuksia, on oltava olemassa oikeutettu intressi niiden käytölle, jonka on oltava ehdottoman välttämätöntä, oikeasuhteista ja ennen kaikkea ajallisesti rajoitettua.

    3.5

    On myös varmistettava oikeudenmukaisuus ja osallisuus. Pandemian torjumista varten kehitteillä olevien tekoälyjärjestelmien tulisi olla vailla vääristymiä ja syrjimättömiä. Lisäksi niiden tulisi olla kaikkien saatavilla, ja niissä olisi otettava huomioon asianomaisten eri maiden yhteiskunnalliset ja kulttuuriset erot.

    Jäljitys- ja seuranta- sekä terveysvalvontasovellukset

    3.6

    Virologien ja epidemiologien mukaan yhteiskunnan ja talouden avaaminen sulkutoimien jälkeen edellyttää tehokasta seurantaa, jäljittämistä, valvontaa ja ihmisten terveyden suojelua. Parhaillaan on kehitteillä monia sovelluksia seurantaa, jäljitystä ja terveystarkastusten suorittamista varten – nämä kaikki ovat toimintoja, joista yleensä (ja perinteisesti) ovat huolehtineet alan ammattilaiset. Monet valtiot ovat maailmanlaajuisesti panneet toivonsa jäljitys- ja seurantasovelluksiin keinona avata jälleen yhteiskuntia.

    3.7

    Tällaisten sovellusten käyttöönotto on hyvin radikaali askel. Siksi on tärkeää tarkastella kriittisesti sovellusten hyödyllisyyttä, tarpeellisuutta ja tehokkuutta sekä niiden yhteiskunnallisia ja oikeudellisia vaikutuksia ennen kuin päätetään niiden käytöstä. Sovellusten käyttämättä jättämisen on oltava jatkossakin vaihtoehto, ja etusijalle olisi asetettava vähemmän invasiiviset ratkaisut.

    3.8

    Seuranta- ja jäljityssovellusten tehokkuus ja luotettavuus on äärimmäisen tärkeää, sillä tehottomuus ja epäluotettavuus voivat johtaa moniin vääriin positiivisiin ja vääriin negatiivisiin tuloksiin, väärään turvallisuudentunteeseen ja siten suurempaan tartuntavaaraan. Alustavat tieteelliset simulaatiot herättävät vakavia epäilyjä siitä, onko seurantasovelluksella lainkaan myönteisiä vaikutuksia viruksen leviämiseen edes silloin, kun sitä käyttäisi 80 tai 90 prosenttia väestöstä. Sovellus ei myöskään pysty havaitsemaan erityisiä olosuhteita, kuten pleksilaseja ja ikkunoita tai henkilönsuojainten käyttöä.

    3.9

    Lisäksi nämä sovellukset johtavat useiden ihmisoikeuksien ja -vapauksien (osittaiseen) sivuuttamiseen, sillä ne vaikuttavat yhdistymisvapauteen sekä turvallisuutta, syrjimättömyyttä ja yksityisyyttä koskevaan oikeuteen.

    3.10

    Vaikka yksityisyys on hyvin tärkeää, siinä on kyse paljon muustakin kuin henkilötiedoista ja anonymiteetistä. Yksityisyys tarkoittaa myös oikeutta siihen, ettei seurata, jäljitetä ja aseteta valvonnan alaiseksi. On todistettu tieteellisesti, että kun ihmiset tietävät, että heitä seurataan, he alkavat käyttäytyä eri tavalla. Euroopan ihmisoikeustuomioistuimen mukaan tässä ”tukahduttavassa vaikutuksessa” on kyse yksityisyyden loukkaamisesta. Sama laaja yksityisyyden käsite olisi sisällytettävä tekoälystä käytävään keskusteluun.

    3.11

    Vaarana on, että (nyt tai tulevaisuudessa) kerättyjä tietoja ei käytetä ainoastaan nykyisen pandemian taltuttamiseen vaan myös ihmisten profilointiin, luokitteluun ja pisteytykseen eri tarkoituksia varten. Kauempana tulevaisuudessa on jopa mahdollista kuvitella, että tietojen käyttö muuhun kuin alkuperäiseen tarkoitukseen voisi johtaa ei-toivottuihin profiloinnin muotoihin valvonnassa ja tarkkailussa, vakuutus- tai sosiaalietuuksien hyväksymisessä, palkkaamisessa tai irtisanomisessa jne. Tällaisten sovellusten avulla kerättyjä tietoja ei näin ollen pidä käyttää missään tapauksessa profilointiin, riskipisteytykseen, luokitteluun tai ennustamiseen.

    3.12

    Lisäksi mikä tahansa näissä poikkeuksellisissa olosuhteissa käytettävä tekoälyratkaisu muodostaa – vaikka aikomukset olisivat mitä parhaimmat – ennakkotapauksen, haluttiinpa sitä tai ei. Aiemmat kriisit ovat osoittaneet, että kaikista hyvistä aikeista huolimatta tällaiset toimenpiteet eivät käytännössä koskaan katoa.

    3.13

    Tekoälyn käyttöä tämän pandemian aikana olisi näin ollen aina mitattava ja arvioitava ottamalla huomioon useita eri näkökohtia, kuten: i) Onko se tehokas ja luotettava? ii) Onko olemassa vähemmän invasiivisia ratkaisuja? iii) Ovatko sen hyödyt yhteiskunnallisia, eettisiä ja perusoikeuksiin liittyviä huolenaiheita merkittävämmät? ja iv) Voidaanko keskenään ristiriitaisten perusoikeuksien ja -vapauksien välillä saavuttaa vastuullinen kompromissi? Tällaisten järjestelmien käyttöönoton ei myöskään pidä perustua minkäänlaiseen velvollisuuteen tai pakkoon.

    3.14

    ETSK kehottaa poliittisia päättäjiä olemaan hyväksymättä liian helposti ajatusta siitä, että tekniikka on ratkaisu kaikkeen. Tilanteen vakavuuden vuoksi komitea suosittaa, että sovellukset, jotka liittyvät hankkeisiin, joilla pyritään edistämään pandemian hallintaa, perustuvat epidemiologian, sosiologian, psykologian, oikeustieteen, etiikan ja järjestelmätieteiden alan luotettavaan tutkimukseen. Ennen kuin päätetään näiden järjestelmien käytöstä, on suoritettava niiden tehokkuutta, tarpeellisuutta ja herkkyyttä koskeva analyysi sekä simulaatioita.

    Bryssel 16. heinäkuuta 2020.

    Euroopan talous- ja sosiaalikomitean puheenjohtaja

    Luca JAHIER


    Top