This document is an excerpt from the EUR-Lex website
Document 52019AE1830
Opinion of the European Economic and Social Committee on ‘Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions — Building trust in human-centric artificial intelligence’ (COM(2019) 168 final)
Euroopa Majandus- ja Sotsiaalkomitee arvamus teemal „Komisjoni teatis Euroopa Parlamendile, nõukogule, Euroopa Majandus- ja Sotsiaalkomiteele ning Regioonide Komiteele „Usalduse loomine inimkeskse tehisintellekti vastu““ [COM(2019) 168 final]
Euroopa Majandus- ja Sotsiaalkomitee arvamus teemal „Komisjoni teatis Euroopa Parlamendile, nõukogule, Euroopa Majandus- ja Sotsiaalkomiteele ning Regioonide Komiteele „Usalduse loomine inimkeskse tehisintellekti vastu““ [COM(2019) 168 final]
EESC 2019/01830
ELT C 47, 11.2.2020, p. 64–68
(BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)
11.2.2020 |
ET |
Euroopa Liidu Teataja |
C 47/64 |
Euroopa Majandus- ja Sotsiaalkomitee arvamus teemal „Komisjoni teatis Euroopa Parlamendile, nõukogule, Euroopa Majandus- ja Sotsiaalkomiteele ning Regioonide Komiteele „Usalduse loomine inimkeskse tehisintellekti vastu““
[COM(2019) 168 final]
(2020/C 47/09)
Raportöör: Franca SALIS-MADINIER
Konsulteerimistaotlus |
Euroopa Komisjon, 3.6.2019 |
Õiguslik alus |
Euroopa Liidu toimimise lepingu artikkel 304 |
Vastutav sektsioon |
ühtse turu, tootmise ja tarbimise sektsioon |
Vastuvõtmine sektsioonis |
18.10.2019 |
Vastuvõtmine täiskogus |
30.10.2019 |
Täiskogu istungjärk nr |
547 |
Hääletuse tulemus (poolt/vastu/erapooletuid) |
198/1/4 |
1. Järeldused ja soovitused
1.1. |
Tehisintellekt ei ole eesmärk omaette, vaid vahend, mis võib tuua tohutuid positiivseid muutusi, kuid millega võivad kaasneda ka riskid. Seetõttu tuleb selle kasutamist suunata. |
1.2. |
Komisjon peaks võtma meetmeid tehisintellekti ja masinõppe pahatahtliku kasutamise prognoosimiseks, ennetamiseks ja keelustamiseks ning paremini reguleerima pahatahtlikul eesmärgil toodetud kaupade turule toomist. |
1.3. |
Eelkõige peaks EL edendama selliste tehisintellekti süsteemide arendamist, mis on suunatud konkreetsetele rakendustele, et kiirendada ökoloogilist ja kliimaalast üleminekut. |
1.4. |
Tarvis on määratleda, milliseid probleeme saab lahendada eetikakoodeksite, iseregulatsiooni ja vabatahtlike kohustuste võtmise abil ning milliste probleemidega tuleb tegeleda regulatiivsete ja seadusandlike vahendite ning neile järgneva järelevalve ja eeskirjade rikkumise korral karistuste määramise abil. Igal juhul peavad tehisintellekti süsteemid olema kooskõlas kehtivate õigusaktidega. |
1.5. |
Tehisintellekt nõuab lähenemisviisi, mis hõlmaks tehnilisi ja ka sotsiaalseid ja eetilisi aspekte. Komitee tervitab ELi valmisolekut töötada välja inimkeskset tehisintellekti edendav lähenemisviis, mis toetab liidu alusväärtusi: inimväärikuse, vabaduse, demokraatia, võrdõiguslikkuse ja mittediskrimineerimise, õigusriigi põhimõtte ja inimõiguste austamine. |
1.6. |
Komitee rõhutab (1) vajadust konsulteerida töötajatega ja nende esindajatega ning neid teavitada selliste tehisintellekti süsteemide juurutamisel, mis toovad muudatusi töökorraldusse, järelevalvesse ja kontrollimisse, samuti töötajate hindamis- ja värbamissüsteemidesse. Komisjon peab edendama sotsiaaldialoogi, et kaasata töötajad tehisintellekti süsteemide kasutamisse. |
1.7. |
Komitee toonitab, (2) et usaldusväärne tehisintellekt eeldab inimese järelevalvet masina üle ning kodanike teadlikkust tehisintellekti kasutamise kohta. Tehisintellekti süsteeme tuleb selgitada, või kui see ei ole võimalik, siis tuleb kodanikele ja tarbijatele anda teavet nende piirangute ja riskide kohta. |
1.8. |
EL peab leidma lahenduse tekkivatele riskidele (3) tervishoiu ja tööohutuse valdkonnas. Selleks, et autonoomsed süsteemid ei piiraks inimtegevust ega põhjustaks inimestele kahju, tuleb kehtestada standardid. Töötajaid tuleb koolitada masinatega töötama ja neid hädaolukorras peatama. |
1.9. |
Komitee kutsub üles töötama välja testimisel põhineva töökindla sertifitseerimissüsteemi, mis võimaldaks ettevõtjatel veenduda oma tehisintellekti süsteemide usaldusväärsuses ja turvalisuses. Läbipaistvad, jälgitavad ja sõnaselged algoritmilised otsustusprotsessid kujutavad endast tehnilist probleemi, mille lahendamiseks on tarvis kasutada ELi vahendite abi (nt programm „Euroopa horisont“). |
1.10. |
Eraelu puutumatus ja andmekaitse on määrava tähtsusega kodanike ja tarbijate usalduse kujunemisel tehisintellekti vastu. Küsimused, kellele andmed kuuluvad, kes neid kontrollib ning kuidas ettevõtjad ja organisatsioonid neid kasutavad, on veel suuresti reguleerimata (eeskätt seoses asjade internetiga). Komitee kutsub komisjoni üles korrapäraselt läbi vaatama isikuandmete kaitse üldmäärust (4) ja sellega seonduvaid õigusnorme, võttes arvesse tehnoloogilist arengut. |
1.11. |
Komitee peab oluliseks mõelda panusele, mida tehisintellekti süsteemid võivad anda kasvuhoonegaaside heitkoguste vähendamisse eeskätt tööstuses, transpordis, energeetikas, ehituses ja põllumajanduses. Ta nõuab, et kliimamuutused ja digiüleminek oleksid omavahel seotud. |
1.12. |
Komitee on seisukohal, et kontroll tehisintellekti süsteemide üle ei pruugi olla piisav, et määrata vastutusalad ja võita inimeste usaldust. Ta soovitab prioriteedina kehtestada selged eeskirjad, pannes nende rikkumise korral vastutuse füüsilistele või juriidilistele isikutele. Komitee kutsub komisjoni samuti üles esmajärjekorras uurima tehisintellekti süsteemide kindlustatavuse äärmiselt olulist küsimust. |
1.13. |
Komitee teeb ettepaneku töötada standardeid järgivatele ettevõtjatele välja Euroopa usaldusväärse tehisintellektiettevõtte sertifikaat, mis põhineb muu hulgas kõrgetasemelise tehisintellekti eksperdirühma esitatud kontrollnimekirjal. |
1.14. |
Edendades asjakohast tööd G7, G20 ja kahepoolsete dialoogide raames, peaks EL tegema jõupingutusi selleks, et tehisintellekti reguleeritakse ka Euroopa piiridest kaugemal. Tarvis on usaldusväärset tehisintellekti käsitlevat rahvusvahelist kokkulepet, mis võimaldaks välja töötada rahvusvahelised standardid ja nende korrapärast kontrollimist. |
2. Komisjoni ettepaneku kokkuvõte
2.1. |
Kõnealuses teatises toetutakse 2018. aasta juunis komisjoni loodud kõrgetasemelise eksperdirühma töödele. Teatises kehtestab komisjon seitse põhinõuet usaldusväärse tehisintellekti saavutamiseks. Need on loetletud punktis 4. |
2.2. |
Komisjon on käivitanud katseetapi, hõlmates sellesse palju sidusrühmi. Selle käigus keskendutakse eelkõige kontrollnimekirjale, mille kõrgetasemeline eksperdirühm on koostanud iga põhinõude kohta. 2020. aasta alguses vaatab kõrgetasemeline eksperdirühm kontrollnimekirja läbi ja ajakohastab seda ning komisjon teeb vajadusel ettepaneku uute meetmete kohta. |
2.3. |
Komisjon soovib tuua oma tehisintellekti käsitluse rahvusvahelisele tasandile ning jätkab aktiivset osalemist, sh G7 ja G20 raames. |
3. Üldised märkused
3.1. |
Inimkeskne tehisintellekt vajab toimimiseks lähenemisviisi, mis hõlmaks tehnilisi, aga ka sotsiaalseid ja eetilisi aspekte. Komitee tervitab ELi institutsioonide valmisolekut töötada välja tehisintellekti käsitlus, mis toetab liidu alusväärtusi: inimväärikuse, vabaduse, demokraatia, võrdõiguslikkuse ja mittediskrimineerimise, õigusriigi põhimõtte ja inimõiguste austamist. Komisjoni sõnul (5) ei ole tehisintellekt eesmärk omaette, vaid vahend, millega võivad kaasneda tohutud positiivsed muutused. Sarnaselt muudele vahenditele tekitab see samaaegselt võimalusi ja riske. Seetõttu peab EL suunama selle kasutamist ja määrama selgelt kindlaks kohustused. |
3.2. |
Usaldus inimkeskse tehisintellekti vastu saab alguse väärtuste ja põhimõtete heakskiitmisest tugevas õigusraamistikus ja eetikaalastes suunistes, mis sisaldavad põhinõudeid. |
3.3. |
Paljude tehisintellektist tulenevate probleemide hulgas tuleb koostöös sidusrühmadega määratleda need, millega tuleb tegeleda regulatiivsete ja seadusandlike vahendite ning neile järgnevate järelevalvemehhanismide ja eeskirjade rikkumise korral karistuste määramise abil, ning probleemid, mida saab lahendada eetikakoodeksite, iseregulatsiooni ja vabatahtlike kohustuste võtmise abil. Komitee tunneb heameelt, et komisjon on arvestanud mõningaid algselt komitee käsitletud põhimõtteid, kuid tunneb siiski kahetsust, et selles etapis ei paku komisjon välja konkreetseid meetmeid õiguslike probleemide lahendamiseks (tarbijate õiguste, süsteemide ohutuse ja vastutuse vallas). |
3.4. |
Tehisintellekti süsteemid peavad vastama olemasolevale õigusraamistikule, eeskätt seoses sellega, mis puudutab isikuandmete kaitset, tootjavastutust, tarbijakaitset, mittediskrimineerimist, kutsekvalifikatsioone ning töötajate nõustamist ja nendega konsulteerimist töökohal. Tuleb tagada, et kõnealuseid õigusakte kohandatakse digiteerimise ja tehisintellekti uute väljakutsetega. |
3.5. |
Komisjoni sõnul tuleks kehtestada eri rakendusvaldkondades tehisintellekti süsteemide kasutamisega seotud võimalike riskide selgitamise ja hindamise kord (6). Komitee peab sellise hindamise tulevast korda väga oluliseks, samuti omistab suurt tähtsust selliste näitajate väljatöötamisele, mida võiks nimetatud hindamisel arvesse võtta. Kõrgetasemelise töörühma koostatud kontrollnimekirja projekt on lähtepunkt nimetatud protsesside rakendamisel. |
3.6. |
See puudutab ka tehisintellekti süsteemidest oodatava lisaväärtuse õiglase jaotamise küsimust. Komitee on seisukohal, et tehisintellektiga kaasnevad positiivsed muutused majandusarengu, tootmis- ja tarbimisprotsesside (eelkõige energia valdkonnas) jätkusuutlikkuse ja parema ressursside kasutamise vallas peavad tooma kasu kõigile riikidele ja riikides kõigile kodanikele. |
4. Konkreetsed märkused
4.1. Inimese toimevõime ja järelevalve
4.1.1. |
Komisjon soovib tagada, et tehisintellekti süsteemide kasutamine ei takistaks mingil juhul inimeste sõltumatust ega põhjustaks kahjulikku mõju. Nagu on juba osutatud varasemates arvamustes, nõustub komitee sellise lähenemisviisiga, mille järgi on inimesel kontroll masina üle. |
4.1.2. |
See tähendab ka, et inimesed peavad olema nõuetekohaselt teavitatud nende süsteemide kasutamisest, nimetatud süsteemid peavad olema seletatavad või kui see ei ole võimalik (nt süvaõppe puhul), siis tuleb kasutajale anda teavet süsteemi piirangute ja riskide kohta. Igal juhul peab inimestel olema vaba valik tehisintellekti süsteemi kasutamise osas. |
4.1.3. |
Ettevõtetes ja riigiasutustes tuleb töötajaid ja nende esindajaid nõuetekohaselt teavitada ja nendega konsulteerida selliste tehisintellekti süsteemide kasutuselevõtmisel, mis toovad tõenäoliselt muudatusi töökorraldusse ning mõjutavad neid kontrolli, järelevalve, hindamise ja värbamise osas. Komisjon peab edendama sotsiaaldialoogi, et kaasata töötajad tehisintellekti süsteemide kasutamisse. |
4.1.4. |
Inimressurssidest rääkides tuleb erilist tähelepanu pöörata tehisintellekti süsteemide väärkasutamise riskidele, nagu nt piiranguteta järelevalve, isikuandmete ja terviseandmete kogumine, nende andmete jagamine kolmandate isikutega, ning samuti riskidele, mis ilmnevad töötervishoius ja tööohutuses (7). Selleks, et tehisintellekti võimaldatud inimese ja masina koostöö ei põhjustaks inimestele kahju, tuleb kehtestada selged standardid. Rahvusvahelise Standardiorganisatsiooni (ISO) kehtestatud standardis koostöövõimeliste robotite kohta, (8) mis on suunatud tootjatele, süsteemiintegraatoritele ja kasutajatele, on esitatud suunised töökeskkonna projekteerimiseks ja korraldamiseks ning inimestele avalduvate riskide vähendamiseks. Töötajaid tuleb tehisintellekti ja robootika kasutamiseks ja nendega töötamiseks koolitada, eeskätt selleks, et nad oleksid võimelised neid hädaolukorras peatama (nn hädapiduri põhimõte). |
4.2. Tehniline töökindlus ja ohutus
4.2.1. |
Komitee kutsub üles kehtestama Euroopa ohutusstandardid ja töötama välja testimisel põhineva töökindla sertifitseerimissüsteemi, mis võimaldaks ettevõtjatel veenduda oma tehisintellekti süsteemide usaldusväärsuses. Komitee viitab ka sellele, et kui oluline on tehisintellekti süsteemide kindlustatavuse küsimus. |
4.2.2. |
Komisjon on liiga vähe käsitlenud tehisintellekti ja masinõppe pahatahtliku kasutamise, prognoosimise, ennetamise ja keelustamise aspekte, mille eest hoiatavad paljud teadlased (9). Teadlaste soovitusi tasub arvestada, eriti neid, mis puudutavad nimetatud tehnoloogiate kahesugust kasutust, mis võib mõjutada digitaalset ohutust (küberrünnete sagenemine, inimeste ja tehisintellekti nõrkade kohtade ärakasutamine, andmete rikkumine (data poisoning)), füüsilist julgeolekut (autonoomsete süsteemide, sh isejuhtivate sõidukite, droonide, automaattulirelvade häkkimine) või poliitilist julgeolekut (isikuandmete massiline kogumine, suunatud propaganda, videomanipulatsioon jne). Teadlased, insenerid ja riigiasutused peavad nende ohtude vältimiseks tegema tihedat koostööd. Neid probleeme käsitlevatesse aruteludesse tuleb kaasata eksperdid ja muud sidusrühmad, nagu nt kasutajad ja tarbijad. |
4.3. Privaatsus ja andmehaldus
4.3.1. |
Komisjon on seisukohal, et juurdepääsu andmetele tuleb nõuetekohaselt hallata ja kontrollida (10). Komitee arvates tuleb minna üldistest avaldustest kaugemale. Kodanike usaldus tehisintellekti süsteemide vastu on määrava tähtsusega nende süsteemide arengule. Andmete kuuluvus ning nende kontrollimine ja kasutamine, millega tegelevad ettevõtjad ja organisatsioonid, on küsimused, mis on veel suuresti reguleerimata. Andmemaht, mis edastatakse näiteks sõidukitelt autotootjatele, ning samuti edastatavate andmete liik on muret tekitavad teemad (11). Vaatamata lõimprivaatsuse põhimõttele, millele ühendatud seadmed isikuandmete üldmääruse kohaselt vastama peavad, võib tõdeda, et tarbijatel on selle teema kohta väga vähe või üldse mitte teavet ning neil puuduvad igasugused vahendid nende andmete kontrollimiseks. Seetõttu kutsub komitee komisjoni üles vaatama läbi isikuandmete kaitse üldmääruse ja sellega seonduvad õigusnormid, võttes arvesse tehnoloogilist arengut (12). |
4.4. Läbipaistvus
4.4.1. |
Komitee on seisukohal, et algoritmilise otsustusprotsessi sõnaselgus on oluline, et mõista mitte mehhanisme kui sellised, vaid otsustamisprotsesside alusloogikat ning viisi, kuidas tehisintellekti süsteemid neid mõjutavad. Masinõppe süsteemide tarbeks standardtestide menetluste väljatöötamine tekitab endiselt tehnilisi probleeme ja seda tuleks toetada ELi vahenditega (nt programm „Euroopa horisont“). |
4.4.2. |
Komitee pooldab komisjoni lähenemisviisi, mille kohaselt peab tehisintellekti süsteemide puhul olema selge, millega tegemist on, ning kasutajad peavad teadma, et nad suhtlevad tehisintellekti süsteemiga, (13) sh patsiendi ja tervishoiutöötaja suhtes ning kodanike tervisele ja heaolule suunatud tervishoiualaste kutseteenuste osutamisel. Komitee rõhutab samuti asjaolu, et kasutaja või tarbija peaks ka saama teavet teenuste kohta, mida osutavad inimesed. Tegelikkuses nõuavad paljud tehisintellekti süsteemid suurt hulka inimtööd, mida lõppkasutajad sageli ei näe (14). Antud küsimusega on seotud läbipaistvuse puudumine kasutajate ja teenuste tarbijate ees, kuid esile tooma peab ka probleemi, mis on seotud varjatud ja tunnustamata töö kasutamisega. |
4.4.3. |
Komitee on samuti seisukohal, et tarbijat tuleb alati teavitada, kui tema ostetavatesse toodetesse on kaasatud tehisintellekti süsteemid, ning tarbijal peab alati olema juurdepääs oma andmetele ja võimalus neid kontrollida. |
4.5. Mitmekesisus, mittediskrimineerimine ja õiglus
4.5.1. |
Diskrimineerimisoht avaldub eelkõige teatud tehisintellekti rakenduste korral, mis on mõeldud kodanike, kasutajate ja tarbijate profiilide loomiseks (nt tööle värbamisel, kinnisvara üürimisel, inimestele teatud teenuste osutamisel). Euroopa Liit on vastu võtnud õigusaktide kogumi, milles käsitletakse võrdset kohtlemist ja mittediskrimineerimist (15). Tehisintellekti süsteemid peavad sellega vastavuses olema. Aga selliseid õigusakte tuleb ka kohandada ja vajadusel tugevdada (sh nende järelevalve tasandil), et arvestada uute tavadega. On olemas reaalne oht, et algoritmilisest profileerimisest saab uus võimas diskrimineerimisvahend. Seda tuleb ELil ennetada. |
4.5.2. |
Rassismivastase direktiivi (16) ning direktiiviga meeste ja naiste võrdse kohtlemise põhimõtte rakendamise kohta väljaspool tööturgu (17) nähakse ette asjaomaste ja pädevate soolise võrdõiguslikkuse edendamise asutuste loomine. Komitee kutsub nimetatud asutusi üles seoses otsese või kaudse diskrimineerimisohuga tegelema aktiivselt tehisintellekti süsteemide järelevalve ja kontrolliga. |
4.6. Ühiskondlik ja keskkonnaalane heaolu
4.6.1. |
Komisjon ei ole esitanud konkreetseid juhiseid seoses küsimusega, kuidas siduda omavahel kliimaalane üleminek ja digiüleminek, eelkõige tehisintellekti süsteemide kasutamisel. Oluline on mõelda panusele, mida tehisintellekti süsteemid võivad anda kasvuhoonegaaside heitkoguste vähendamisse eeskätt tööstuses, transpordis, energeetikas, ehituses ja põllumajanduses. |
4.6.2. |
Komisjon kinnitab, et tehisintellekti süsteeme võib kasutada sotsiaalsete oskuste parandamiseks, kuid need süsteemid võivad kaasa aidata ka nimetatud oskuste halvenemisele. Komitee leiab, et EL peab teatud ühiskondlike probleemide valdkonnas rohkem jõupingutusi tegema. Näiteks on uuringutest selgunud, et teatud rakendused, mille puhul kasutatakse tehisintellekti süsteeme, on välja töötatud nii, et hoida veebipõhiste teenuste (sotsiaalvõrgustikud, mängud, videod jne) kasutajaid võimalikult kaua võrgus. Eesmärk on koguda võimalikult palju andmeid nende käitumise kohta. Kasutatud strateegiad ulatuvad lõpututest algoritmilistest soovitustest kuni meeldetuletuste ja teadeteni, hõlmates mänge jne. Uuritud (18) on ka seda, kuidas mõjutavad lapsi liigne veebis olemine ja sealsed ahvatlused. Tulemustest selgub, et selle tagajärjel suurenevad ärevus, agressiivsus ja unepuudus ning see avaldab mõju haridusele, sotsiaalsetele suhetele, tervisele ja heaolule. Usaldusväärse tehisintellekti saavutamiseks tuleb selliseid mõjutusi arvestada ja ennetada. |
4.6.3. |
Üks sotsiaalset heaolu tagav tegur on seotud kindlasti turvatundega töökohal. Kuid digiteerimise mõjud võivad tekitada ebakindlust ja stressi (19). Seetõttu tuleks välja töötada muutuste prognoosimise strateegiad, enne kui tehakse võimalikke ümberkorraldusi, ning täiendusõppe strateegiad kõigile töötajatele. See eeldab ettevõtetes kvaliteetset sotsiaaldialoogi tööandjate ja töötajate esindajate vahel, võimaldades eelkõige uute tehnoloogiate, eriti tehisintellekti ja robootika kaasavat kasutuselevõttu. Juhtkonna ja töötajate vahelise usalduse tugevdamiseks peavad juhtimise, hindamiste ja töötajate kontrolliga seotud tehisintellekti süsteemid olema arusaadavad, nende parameetrid teada ning nende toimimine läbipaistev. |
4.7. Vastutuse võtmine
4.7.1. |
Masinõppe süsteemide võetud otsused ei ole lihtsasti seletatavad ning pealegi neid ajakohastatakse korrapäraselt. Komitee on seisukohal, et kontroll tehisintellekti süsteemide üle ei pruugi olla piisav, et määrata vastutusalad ja võita inimeste usaldust. Seetõttu teeb komitee ettepaneku kehtestada eeskirjad, pannes nende rikkumise korral vastutuse füüsilistele või juriidilistele isikutele. Komitee soovitab rohkem toetuda usaldusväärsetele ettevõtjatele või professionaalidele kui algoritmidele ning teeb ettepaneku töötada kõigist standarditest kinni pidavate ettevõtjate tarvis välja Euroopa usaldusväärse tehisintellektiettevõtte sertifikaat, mis põhineb muu hulgas kõrgetasemelise töörühma esitatud kontrollnimekirjal. |
4.7.2. |
Tootevastutust käsitlevas direktiivis (20) kehtestatakse süüst sõltumatu vastutuse põhimõte, mida kohaldatakse Euroopa tootjate suhtes: kui defektiga toode põhjustab tarbijale kahju, võib rakendada tootjavastutust ka siis, kui tegemist ei ole tootja enda vea ega hoolimatusega. Tehisintellekti süsteemide aina levinum tuntus ning üha sagedasem juurutamine ja kasutamine eeldab seda, et EL peab vastu võtma vastutust käsitlevad kohandatud eeskirjad olukordade tarbeks, kui tooted sisaldavad digitaalset sisu või kui tarbijatele osutatavad teenused võivad osutuda ohtlikuks ja kahjulikuks. Tarbijatel peaks tehisintellekti süsteemi põhjustatud kahju korral olema juurdepääs õiguskaitsele. |
5. Vajadus Euroopast väljapoole ulatuvate õigusaktide järele
5.1. |
Globaliseerumise tõttu tuleb tehisintellekti reguleerida ka Euroopa piiridest väljaspool. Euroopa peaks G7 ja G20 raames edendama laialdast kokkulepet tehisintellekti valdkonnas ning jätkama kahepoolseid dialooge, et enamikul riikidel oleks võimalik saada osa tehisintellekti standardimise protsessist ning et nad saaksid regulaarselt kontrollida selle asjakohasust. |
Brüssel, 30. oktoober 2019
Euroopa Majandus- ja Sotsiaalkomitee
president
Luca JAHIER
(1) ELT C 440, 6.12.2018, lk 1.
(2) ELT C 288, 31.8.2017, lk 1; ELT C 440, 6.12.2018, lk 1.
(3) https://osha.europa.eu/et/emerging-risks.
(4) Euroopa Parlamendi ja nõukogu 27. aprilli 2016. aasta määrus (EL) 2016/679 füüsiliste isikute kaitse kohta isikuandmete töötlemisel ja selliste andmete vaba liikumise ning direktiivi 95/46/EÜ kehtetuks tunnistamise kohta (isikuandmete kaitse üldmäärus) (ELT L 119, 4.5.2016, lk 1).
(5) COM(2019) 168 final.
(6) COM(2019) 168 final, lk 5.
(7) Vt eeskätt „OSH and the future of work: benefits and risks of artificial intelligence tools in workplaces“.
(8) ISO/TS 15066, 2016.
(9) Vt aruanne „The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation“, veebruar 2018.
(10) COM(2019) 168 final, lk 6.
(11) „Your car knows when you gain weight“, The New York Times (International Edition), 22.5.2019.
(12) ELT C 190, 5.6.2019, lk 17.
(13) COM(2019) 168 final, lk 6.
(14) Vt nt „A white-collar sweatshop’: Google Assistant contractors allege wage theft“, The Guardian, 29.5.2019 ja „Bot technology impressive, except when it’s not the bot“, The New York Times (International Edition), 24.5.2019.
(15) EÜT L 180, 19.7.2000, lk 22; EÜT L 303, 2.12.2000, lk 16; ELT L 373, 21.12.2004, lk 37; ELT L 204, 26.7.2006, lk 23.
(16) Nõukogu 29. juuni 2000. aasta direktiiv 2000/43/EÜ, millega rakendatakse võrdse kohtlemise põhimõte sõltumata isikute rassilisest või etnilisest päritolust (EÜT L 180, 19.7.2000, lk 22).
(17) Nõukogu 13. detsembri 2004. aasta direktiiv 2004/113/EÜ meeste ja naiste võrdse kohtlemise põhimõtte rakendamise kohta seoses kaupade ja teenuste kättesaadavuse ja pakkumisega (ELT L 373, 21.12.2004, lk 37).
(18) Vt eelkõige: Kidron, Evans, Afia (2018) „Disrupted Childhood – The Cost of Persuasive Design“, 5Rights Foundation.
(19) Kõrgetasemelise töörühma aruanne digiülemineku mõjust ELi tööturgudele, 2019.
(20) Nõukogu 25. juuli 1985. aasta direktiiv 85/374/EMÜ liikmesriikide tootevastutust käsitlevate õigus- ja haldusnormide ühtlustamise kohta (EÜT L 210, 7.8.1985, lk 29).