This document is an excerpt from the EUR-Lex website
Document 52019AE1830
Opinion of the European Economic and Social Committee on ‘Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions — Building trust in human-centric artificial intelligence’ (COM(2019) 168 final)
Europos ekonomikos ir socialinių reikalų komiteto nuomonė. Komisijos komunikatas Europos Parlamentui, Tarybai, Europos ekonomikos ir socialinių reikalų komitetui ir Regionų komitetui „Pasitikėjimo į žmogų orientuotu dirbtiniu intelektu didinimas“ [COM(2019) 168 final]
Europos ekonomikos ir socialinių reikalų komiteto nuomonė. Komisijos komunikatas Europos Parlamentui, Tarybai, Europos ekonomikos ir socialinių reikalų komitetui ir Regionų komitetui „Pasitikėjimo į žmogų orientuotu dirbtiniu intelektu didinimas“ [COM(2019) 168 final]
EESC 2019/01830
OL C 47, 2020 2 11, p. 64–68
(BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)
11.2.2020 |
LT |
Europos Sąjungos oficialusis leidinys |
C 47/64 |
Europos ekonomikos ir socialinių reikalų komiteto nuomonė. Komisijos komunikatas Europos Parlamentui, Tarybai, Europos ekonomikos ir socialinių reikalų komitetui ir Regionų komitetui „Pasitikėjimo į žmogų orientuotu dirbtiniu intelektu didinimas“
[COM(2019) 168 final]
(2020/C 47/09)
Pranešėja Franca SALIS-MADINIER
Konsultavimasis |
Europos Komisija, 2019 6 3 |
Teisinis pagrindas |
Sutarties dėl Europos Sąjungos veikimo 304 straipsnis |
Atsakingas skyrius |
Bendrosios rinkos, gamybos ir vartojimo skyrius |
Priimta skyriuje |
2019 10 18 |
Priimta plenarinėje sesijoje |
2019 10 30 |
Plenarinė sesija Nr. |
547 |
Balsavimo rezultatai (už / prieš / susilaikė) |
198/1/4 |
1. Išvados ir rekomendacijos
1.1. |
Dirbtinis intelektas nėra savitikslis: jis yra priemonė, galinti paskatinti esminius teigiamus pokyčius, tačiau taip pat gali kelti riziką. Todėl dirbtinio intelekto naudojimą būtina reglamentuoti. |
1.2. |
Komisija turėtų imtis priemonių, susijusių su dirbtinio intelekto ir mašinų mokymosi kenkimo tikslais naudojimo numatymu, prevencija ir draudimu, ir geriau reguliuoti kenkimo produktų pateikimą rinkai. |
1.3. |
ES visų pirma turi skatinti plėtoti dirbtinio intelekto sistemas, orientuotas į konkrečias taikomąsias programas, sudarančias galimybę paspartinti su klimatu susijusią ir skaitmeninę pertvarkas. |
1.4. |
Reikia nustatyti, kokius uždavinius bus galima spręsti laikantis etikos kodeksų, savireguliacijos ir savanoriškų įsipareigojimų ir kokius – reglamentavimo ir teisėkūros priemonėmis užtikrinant stebėseną, o nesilaikymo atveju taikant sankcijas. Bet kuriuo atveju dirbtinio intelekto sistemos turi atitikti galiojančius teisės aktus. |
1.5. |
Dirbtinio intelekto srityje būtina laikytis požiūrio, apimančio ne tik techninius, bet ir su visuomene ir etika susijusius aspektus. EESRK palankiai vertina ES siekį kurti į žmogų orientuotą požiūrį į dirbtinį intelektą, atitinkantį pagrindines jos vertybes: pagarba žmogaus orumui, laisvė, demokratija, lygybė nediskriminavimas, teisinė valstybė ir pagarba žmogaus teisėms. |
1.6. |
EESRK pakartoja (1), kad diegiant dirbtinio intelekto sistemas, galinčias lemti pokyčius, susijusius su darbo organizavimu, jo stebėsena ir kontrole, taip pat su darbuotojų vertinimo ir įdarbinimo sistemomis, reikia konsultuotis su darbuotojais ir jų atstovais ir juos informuoti. Komisija turėtų skatinti socialinį dialogą, siekdama užtikrinti darbuotojų dalyvavimą naudojant dirbtinio intelekto sistemas. |
1.7. |
EESRK pabrėžia (2), kad siekiant patikimo dirbtinio intelekto būtina, kad mašiną kontroliuotų žmogus ir piliečiai būtų informuojami apie dirbtinio intelekto sistemų naudojimą. Dirbtinio intelekto sistemos turi būti paaiškinamos arba, kai tai neįmanoma, piliečiams ir vartotojams turi būti suteikta informacija apie sistemų trūkumus ir keliamą riziką. |
1.8. |
ES turi spręsti su galima rizika (3) sveikatai ir saugai susijusius klausimus. Būtina nustatyti standartus, kad autonominės sistemos nepakenktų ar nebūtų žalingos asmenims. Darbuotojai turi būti išmokyti dirbti su mašina ir prireikus ją sustabdyti. |
1.9. |
EESRK ragina sukurti tvirtą sertifikavimo sistemą, pagrįstą bandymų procedūromis, leidžiančiomis įmonėms patvirtinti jų dirbtinio intelekto sistemų patikimumą ir saugumą. Algoritminio sprendimų priėmimo procesų skaidrumas, atsekamumas ir paaiškinamumas yra techninis uždavinys, kurio sprendimas turėtų būti remiamas tokiomis ES priemonėmis kaip „Europos horizontas“. |
1.10. |
Nuo privatumo ir duomenų apsaugos užtikrinimo priklausys piliečių ir vartotojų pasitikėjimo laipsnis dirbtiniu intelektu. Duomenų nuosavybės, įmonių ir organizacijų vykdomos duomenų kontrolės ir naudojimo klausimai (visų pirma susiję su daiktų internetu) lieka iš esmės neišspręsti. EESRK ragina Komisiją reguliariai peržiūrėti Bendrąjį duomenų apsaugos reglamentą (angl. GDPR) (4)ir susijusius teisės aktus atsižvelgiant į technologinę plėtrą. |
1.11. |
EESRK mano, kad labai svarbu apsvarstyti dirbtinio intelekto sistemų indėlį mažinant šiltnamio efektą sukeliančių dujų kiekį, ypač pramonės, transporto, energetikos, statybos ir žemės ūkio sektoriuose. Komitetas ragina su klimatu susijusias ir skaitmenines pertvarkas susieti tarpusavyje. |
1.12. |
EESRK mano, kad dirbtinio intelekto sistemų kontrolės gali nepakakti, kad būtų galima nustatyti atsakomybės sritis ir didinti pasitikėjimą. EESRK rekomenduoja aiškių taisyklių apibrėžimą laikyti didžiausiu prioritetu ir nustatyti fizinių ir juridinių asmenų atsakomybę jų nesilaikant. EESRK taip pat ragina Komisiją prioritetine tvarka išnagrinėti esminį, t. y. dirbtinio intelekto sistemų draustumo, klausimą. |
1.13. |
EESRK siūlo parengti Europos patikimos DI įmonės pažymėjimą standartų besilaikančioms įmonėms, grindžiamą, inter alia, aukšto lygio ekspertų grupės dirbtinio intelekto klausimais pasiūlytu vertinimo sąrašu. |
1.14. |
ES, pristatydama šioje srityje atliktą darbą G 7, G 20 ir dvišaliuose dialoguose, turi siekti, kad dirbtinis intelektas būtų reguliuojamas ir už Europos ribų. Būtina siekti tarptautinio susitarimo dėl patikimo dirbtinio intelekto, kuriuo remiantis būtų galima parengti tarptautinius standartus ir reguliariai tikrinti jų aktualumą. |
2. Komisijos pasiūlymo santrauka
2.1. |
Šis komunikatas grindžiamas Aukšto lygio ekspertų grupės, kurią Komisija paskyrė 2018 m. birželio mėn., darbais. Šiame komunikate Komisija nustatė septynis pagrindinius patikimam dirbtiniam intelektui keliamus reikalavimus, kurie pateikiami 4 punkte. |
2.2. |
Komisija pradėjo bandymo etapą, kuriame dalyvauja labai įvairūs suinteresuotieji subjektai. Ypač daug dėmesio skiriama Aukšto lygio ekspertų grupės parengtam vertinimo klausimų dėl kiekvieno pagrindinio reikalavimo sąrašui. 2020 m. pradžioje Aukšto lygio ekspertų grupė peržiūrės ir atnaujins vertinimo klausimų sąrašą, ir prireikus Komisija pasiūlys naujų priemonių. |
2.3. |
Savo požiūrį į dirbtinį intelektą Komisija nori pristatyti tarptautiniu mastu ir ji toliau atliks aktyvų vaidmenį, įskaitant G 7 ir G 20 susitikimuose. |
3. Bendrosios pastabos
3.1. |
Į žmogų orientuotam dirbtiniam intelektui būtinas požiūris, apimantis ne tik techninius, bet ir su visuomene ir etika susijusius aspektus. EESRK palankiai vertina ES institucijų siekį kurti į žmogų orientuotą požiūrį į dirbtinį intelektą, atitinkantį ES vertybes, t. y.: pagarba žmogaus orumui, laisvė, demokratija, lygybė, nediskriminavimas, teisinė valstybė ir pagarba žmogaus teisėms. Kaip pabrėžia Komisija (5), dirbtinis intelektas nėra savitikslis; jis yra priemonė, galinti paskatinti esminius teigiamus pokyčius. Kaip ir bet kokia priemonė, jis tuo pat metu ir atveria galimybes, ir kelia riziką. Todėl ES turi reglamentuoti jo naudojimą ir aiškiai apibrėžti atsakomybę. |
3.2. |
Šis pasitikėjimas į žmogų orientuotu dirbtiniu intelektu bus įgytas laikantis vertybių ir principų, nustačius tinkamai apibrėžtą reguliavimo sistemą ir etikos gaires, kuriose išdėstyti esminiai reikalavimai. |
3.3. |
Vienas iš daugelio su dirbtiniu intelektu susijusių uždavinių – tai kartu su suinteresuotaisiais subjektais nustatyti, kuriuos iš jų reikia spręsti taikant reguliavimo ir teisėkūros priemones, kartu užtikrinant stebėsenos mechanizmą, o reikalavimų nesilaikymo atveju taikant sankcijas, ir kurie uždaviniai bus sprendžiami laikantis etikos kodeksų, savireguliacijos ir savanoriškų įsipareigojimų. EESRK palankiai vertina tai, kad Komisija laikosi EESRK anksčiau nurodytų principų, tačiau apgailestauja, kad šiuo etapu ji nesiūlo jokių konkrečių priemonių, kurios padėtų spręsti teisėtus klausimus (vartotojų teisių, sistemų saugumo ir atsakomybės). |
3.4. |
Dirbtinės intelekto sistemos turi atitikti galiojančią reguliavimo sistemą, visų pirma kiek tai susiję su asmens duomenų apsauga, atsakomybe už produktus, vartotojų apsauga, nediskriminavimu, profesine kvalifikacija, taip pat darbuotojų informavimu bei konsultavimusi su jais darbo vietoje. Turi būti užtikrinta, kad šie teisės aktai atitiktų naujus skaitmeninimo ir dirbtinio intelekto keliamus uždavinius. |
3.5. |
Kaip nurodo Komisija, turėtų būti „nustatyti galimos rizikos, susijusios su dirbtinio intelekto sistemų naudojimu įvairiose srityse, išaiškinimo ir vertinimo procesai“ (6). EESRK mano, kad daugiausia dėmesio reikia skirti būsimam šio vertinimo mechanizmui ir rodikliams, į kuriuos būtų galima atsižvelgti atliekant šį vertinimą, nustatyti. Aukšto lygio grupės (ALG) parengtas vertinimo klausimų sąrašo projektas yra šio proceso įgyvendinimo pradžia. |
3.6. |
Tai taip pat susiję su tikėtinos dirbtinio intelekto sistemų pridėtinės vertės sąžiningo paskirstymo klausimu. EESRK mano, kad teigiami dirbtinio intelekto lemiami pokyčiai ekonominio vystymosi, gamybos procesų tvarumo ir vartojimo (visų pirma energijos), geresnio išteklių panaudojimo požiūriu turi būti naudingi visoms šalims ir visiems jų piliečiams. |
4. Konkrečios pastabos
4.1. Žmogiškasis veiksnys ir žmogaus atliekama priežiūra
4.1.1. |
Komisija nori būti tikra, kad dirbtinio intelekto sistemų naudojimas jokiu būdu nepakenks žmogaus savarankiškumui ir nesukels neigiamo poveikio. EESRK pritaria šiam požiūriui, kad mašinos kontrolę turi vykdyti žmogus, kaip jau nurodė ankstesnėse savo nuomonėse. |
4.1.2. |
Tam reikia, kad piliečiai būtų tinkamai informuojami apie šių sistemų naudojimą, kad jos būtų paaiškinamos arba, kai tai neįmanoma (pvz., „giliojo mokymosi“ atveju), naudotojui būtų pateikiama informacija apie sistemos trūkumus ir riziką. Bet kuriuo atveju piliečiai privalo išsaugoti laisvę priimti kitokį nei dirbtinio intelekto sistemos sprendimą. |
4.1.3. |
Įmonėse ir viešojo administravimo įstaigose darbuotojai ir jų atstovai turi būti tinkamai informuojami ir su jais turi būti konsultuojamasi diegiant dirbtinio intelekto sistemas, galinčias pakeisti darbo organizavimą ir jiems turėti įtakos kontrolės, priežiūros, vertinimo, įdarbinimo atvejais. Komisija turėtų skatinti socialinį dialogą, siekdama įtraukti darbuotojus į dirbtinio intelekto sistemų naudojimą. |
4.1.4. |
Žmogiškųjų išteklių srityje ypatingą dėmesį riekia skirti dirbtinio intelekto sistemos netinkamo naudojimo rizikai, pavyzdžiui, neribota priežiūra, asmens duomenų, sveikatos duomenų rinkimas, dalijimasis šiais duomenimis su trečiosiomis šalimis, taip pat sveikatai ir saugai darbo vietoje keliamai rizikai (7). Turi būti nustatyti aiškūs standartai, kad žmogaus ir mašinos bendradarbiavimas nepadarytų žalos asmenims. Tarptautinės standartizacijos organizacijos (ISO) standarte dėl paramos robotų (8), skirtame gamintojams, integratoriams ir naudotojams, pateikiamos darbo vietos kūrimo ir organizavimo bei žmonėms galinčios kilti rizikos mažinimo gairės. Darbuotojai turi būti apmokyti naudoti dirbtinį intelektą ir robotiką, dirbti su jais ir, visų pirma, prireikus juos sustabdyti („avarinio stabdymo“ principas). |
4.2. Techninis patvarumas ir saugumas
4.2.1. |
EESRK ragina nustatyti Europos saugumo standartus ir sukurti tvirtą sertifikavimo sistemą, pagrįstą bandymų procedūromis, pagal kurias įmonės galėtų patvirtinti savo dirbtinio intelekto sistemų patikimumą. EESRK taip pat nori atkreipti dėmesį į dirbtinio intelekto sistemų draustumo klausimo svarbą. |
4.2.2. |
Komisija mažai nagrinėja su dirbtinio intelekto ir mašinų mokymosi kenkimo tikslais naudojimo numatymu, prevencija ir draudimu susijusį aspektą, apie kurį įspėja daug mokslininkų (9). Reikėtų atsižvelgti į mokslininkų rekomendacijas, visų pirma dėl dvejopo šių technologijų naudojimo, kuris gali būti susijęs su skaitmeniniu saugumu (kibernetinių išpuolių plitimu, žmogaus ir dirbtinio intelekto pažeidžiamumu, „data poisoning“), fiziniu saugumu (įsilaužimas į autonomines sistemas, įskaitant autonominių transporto priemonių, bepiločių orlaivių, automatinių ginklų) ar politiniu saugumu (masinis asmens duomenų rinkimas, tikslinė propaganda, vaizdo įrašų manipuliavimas ir kt.). Mokslininkai, inžinieriai ir valdžios institucijos turi glaudžiai bendradarbiauti, kad užkirstų kelią šiai rizikai; ekspertams ir kitiems suinteresuotiesiems subjektams, pavyzdžiui, naudotojams ir vartotojams, turėtų būti suteikta galimybė dalyvauti su šiais uždaviniais susijusiose diskusijose. |
4.3. Privatumas ir duomenų valdymas
4.3.1. |
Komisija reikalauja, kad prieiga prie duomenų būtų „tinkamai valdoma ir kontroliuojama“ (10). EESRK mano, kad reikia neapsiriboti bendro pobūdžio pareiškimais. Piliečių pasitikėjimo dirbtinio intelekto sistemomis laipsnis taip pat turės lemiamos įtakos jo kūrimui. Dar lieka iš esmės neišspręsti duomenų nuosavybės, jų kontrolės ir įmonių bei organizacijų naudojimosi jais klausimai. Nemažą susirūpinimą kelia, pavyzdžiui, automobilių gamintojams automobilių perduodami duomenys ir perduodamų duomenų pobūdis (11). Nepaisant pritaikytosios privatumo apsaugos (angl. Privacy by design) koncepcijos, kurią pagal Bendrąjį duomenų apsaugos reglamentą turi atitikti susietieji daiktai, konstatuojama, kad šiuo klausimu vartotojas turi tik labai mažai arba visai neturi informacijos ir neturi jokių galimybių šiuos duomenis kontroliuoti. Todėl EESRK primygtinai ragina Komisiją peržiūrėti Bendrąjį duomenų apsaugos reglamentą ir susijusius teisės aktus atsižvelgiant į technologinę plėtrą (12). |
4.4. Skaidrumas
4.4.1. |
EESRK mano, kad algoritminio sprendimų priėmimo proceso paaiškinamumas yra būtinas siekiant suprasti ne pačius mechanizmus, o sprendimų priėmimo procesų loginį pagrindą ir tai, kokį poveikį jiems daro dirbtinio intelekto sistemos. Standartinių bandymų procedūrų, skirtų mašinų mokymosi sistemoms, kūrimas ir toliau yra techninis uždavinys, kurio sprendimas turėtų būti remiamas tokiomis ES priemonėmis kaip programa „Europos horizontas“. |
4.4.2. |
EESRK pritaria Komisijai, kad dirbtinio intelekto sistemos turi būti atpažįstamos, „kad naudotojai suvoktų, jog sąveikauja su dirbtinio intelekto sistema“ (13), įskaitant paciento santykius su sveikatos priežiūros darbuotoju, profesionalias pasaugas, susijusias su piliečių sveikata ir gerove. EESRK taip pat pabrėžia, kad naudotojas arba vartotojas taip pat turi būti informuojami apie žmogaus teikiamas paslaugas. Daugelyje dirbtinio intelekto sistemų žmogus atlieka didelį kiekį darbų, apie kuri galutinis vartotojas dažnai nežino (14). Šis klausimas susijęs ne tik su skaidrumo trūkumo paslaugų naudotojų ir vartotojų atžvilgiu problema, bet ir paslėpto ir nepripažinto darbo forma. |
4.4.3. |
Be to, EESRK mano, kad vartotojai visada turėtų būti informuojami apie dirbtinio intelekto sistemų integravimą į jų perkamus produktus ir visada turėtų turėti prieigą prie savo duomenų ir galimybę juos kontroliuoti. |
4.5. Įvairovė, nediskriminavimas ir teisingumas
4.5.1. |
Diskriminavimo rizika būdinga tam tikroms dirbtinio intelekto prietaikoms, sudarančioms galimybę profiliuoti piliečius, naudotojus ir vartotojus (pvz., įdarbinant, nuomojant nekilnojamąjį turtą, teikiant tam tikras asmenines paslaugas). ES yra priėmusi teisės aktus dėl vienodo požiūrio ir nediskriminavimo (15). Dirbtinio intelekto sistemos turi juos atitikti. Tačiau tokie teisės aktai taip pat turi būti pritaikyti ir prireikus sugriežtinti (taip pat ir vykdymo užtikrinimo lygmeniu), kad būtų galima spręsti su nauja praktika susijusius klausimus. Yra reali rizika, kad algoritminis profiliavimas taps nauja galinga diskriminavimo priemone. ES turi užkirsti kelią šiai rizikai. |
4.5.2. |
Kovos su rasizmu direktyvoje (16) ir Direktyvoje dėl lyčių lygybės ne užimtumo srityje (17) numatyta sukurti specialias lyčių lygybės užtikrinimo institucijas. EESRK ragina šias institucijas aktyviai dalyvauti stebint ir kontroliuojant, ar dirbtinio intelekto sistemos nesusijusios su tiesioginiu ar netiesioginiu diskriminavimu. |
4.6. Visuomenės ir aplinkos gerovė
4.6.1. |
Komisija tiksliai nenurodo, kaip susieti su klimatu susijusią ir skaitmeninę pertvarkas, ypač naudojant dirbtinio intelekto sistemas. Labai svarbu apsvarstyti, koks galėtų būti dirbtinio intelekto sistemų indėlis mažinant šiltnamio efektą sukeliančių dujų kiekį, ypač pramonės, transporto, energetikos, statybos ir žemės ūkio sektoriuose. |
4.6.2. |
Komisija nurodo, kad dirbtinio intelekto sistemos gali būti naudojamos socialiniams įgūdžiams stiprinti, tačiau dėl jų šie įgūdžiai gali ir pablogėti. EESRK mano, kad ES turėtų geriau įvertinti tam tikrus visuomenės iššūkius. Tyrimai parodė, kad, pavyzdžiui, kai kurios prietaikos su integruotomis dirbtinio intelekto sistemomis sukurtos taip, kad kuo ilgiau išlaikytų paslaugų vartotojus prisijungusius (socialiniai tinklai, žaidimai, vaizdo įrašai ir t. t.). Tikslas – surinkti kuo daugiau duomenų apie jų elgesį; taikomos tiek nuolatinio algoritminių rekomendacijų atnaujinimo, tiek priminimų ir pranešimų ir pan. strategijos. Buvo tiriamas nesaikingo prisijungimo ir naudojimosi poveikis vaikams (18), ir rezultatai parodė padidėjusį nerimą, agresiją, miego trūkumą ir poveikį mokymuisi, socialiniams santykiams, sveikatai ir gerovei. ES, norėdama sukurti patikimą dirbtinį intelektą, turėtų į tokį poveikį atsižvelgti ir užkirsti jam kelią. |
4.6.3. |
Galiausiai vienas iš visuomenės gerovės veiksnių yra susijęs su darbo sauga. Tačiau skaitmeninimas gali sukelti nesaugumo jausmą ir tapti streso šaltiniu (19). Todėl prieš pradedant galimą restruktūrizaciją tikslinga parengti pokyčių numatymo strategijas ir užtikrinti visų darbuotojų tęstinį profesinį mokymą. Šiuo tikslu įmonėse turi būti palaikomas kokybiškas darbdavių ir darbuotojų atstovų socialinis dialogas, be kita ko leidžiantis įtraukiai diegti naujas technologijas, visų pirma dirbtinio intelekto ir robotikos. Siekiant didinti vadovų ir darbuotojų tarpusavio pasitikėjimą, su darbuotojų valdymu, vertinimais ir stebėsena susijusios dirbtinio intelekto sistemos turi būti paaiškinamos, jų parametrai žinomi, o jų veikimas skaidrus. |
4.7. Atskaitomybė
4.7.1. |
Mašinų mokymosi sistemų priimti sprendimai nėra lengvai paaiškinami, be to, jos nuolat atnaujinamos. EESRK mano, kad dirbtinio intelekto sistemų kontrolės gali nepakakti, kad būtų galima nustatyti atsakomybės sritis ir didinti pasitikėjimą. Todėl rekomenduoja apibrėžti taisykles ir nustatyti fizinių ir juridinių asmenų atsakomybę jų nesilaikant. EESRK rekomenduoja labiau pasikliauti patikimomis bendrovėmis ar profesionalais, o ne algoritmais, ir siūlo parengti „Europos patikimos DI įmonės pažymėjimą“ standartų besilaikančioms įmonėms, grindžiamą, inter alia, Aukšto lygio ekspertų grupės dirbtinio intelekto klausimais pasiūlytu vertinimo sąrašu. |
4.7.2. |
Direktyvoje dėl atsakomybės už gaminius (20) nustatytas Europos gamintojams taikomas atsakomybės be kaltės principas, pagal kurį, jei gaminys su trūkumu padarė žalą vartotojui, už tai atsako gamintojas net nesant jo kaltės ar aplaidumo. Vis plačiau kuriant, diegiant ir naudojant dirbtinio intelekto sistemas Sąjunga turi nustatyti modernias atsakomybės taisykles, taikomas tais atvejais, kai vartotojams siūlomi skaitmeninio turinio produktai ir paslaugos gali būti pavojingi ir žalingi. Vartotojams turi būti sudaryta galimybė kreiptis į teismą dėl dirbtinio intelekto sistemos padarytos žalos. |
5. Reglamentavimo už Europos ribų būtinybė
5.1. |
Globalizuotame pasaulyje dirbtinis intelektas turi būti reguliuojamas ir už Europos ribų. Europa turėtų skatinti plataus masto sutarimą dėl dirbtinio intelekto G 7 ir G 20 susitikimuose ir tęsti dvišalius dialogus, kad dauguma šalių galėtų dalyvauti dirbtinio intelekto standartizacijos procesuose ir reguliariai tikrinti jo aktualumą. |
2019 m. spalio 30 d., Briuselis
Europos ekonomikos ir socialinių reikalų komiteto
pirmininkas
Luca JAHIER
(1) OL C 440, 2018 12 6, p. 1.
(2) OL C 288, 2017 8 31, p. 1, OL C 440, 2018 12 6, p. 1.
(3) https://osha.europa.eu/fr/emerging-risks.
(4) 2016 m. balandžio 27 d. Europos Parlamento ir Tarybos reglamentas (ES) 2016/679 dėl fizinių asmenų apsaugos tvarkant asmens duomenis ir dėl laisvo tokių duomenų judėjimo ir kuriuo panaikinama Direktyva 95/46/EB (Bendrasis duomenų apsaugos reglamentas) (OL L 119, 2016 5 4, p. 1).
(5) COM(2019) 168 final.
(6) COM(2019) 168 final, p. 5.
(7) Žr. OSH and the future of work: benefits and risks of artificial intelligence tools in workplaces.
(8) ISO/TS 15066, 2016.
(9) Žr. ataskaitą The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation“, 2018 m. vasaris.
(10) COM(2019) 168 final, p. 6.
(11) „Your car knows when you gain weight“, The New York Times (International Edition), 2019 5 22.
(12) OL C 190, 2019 6 5, p. 17.
(13) COM(2019) 168 final, p. 6.
(14) Žr., pvz., „A white-collar sweatshop’: Google Assistant contractors allege wage theft“, The Guardian, 2019 5 29 ir Bot technology impressive, except when it’s not the bot“, The New York Times (International Edition), 2019 5 24.
(15) OL L 180, 2000 7 19, p. 22; OL L 303, 2000 12 2, p. 16; OL L 373, 2004 12 21, p. 37; OL L 204, 2006 7 26, p. 23..
(16) 2000 m. birželio 29 d. Tarybos Direktyva 2000/43/EB įgyvendinanti vienodo požiūrio principą asmenims nepriklausomai nuo jų rasės arba etninės priklausomybės (OL L 180, 2000 7 19, p. 22).
(17) 2004 m. gruodžio 13 d. Tarybos direktyva 2004/113/EB, įgyvendinanti vienodo požiūrio į moteris ir vyrus principą dėl galimybės naudotis prekėmis bei paslaugomis ir prekių tiekimo bei paslaugų teikimo (OL L 373, 2004 12 21, p. 37).
(18) Žr., Kidron, Evans, Afia (2018), „Disrupted Childhood – The COST of Persuasive Design“, 5Rights Foundation.
(19) Aukšto lygio darbo grupės ataskaita dėl skaitmeninės transformacijos poveikio ES darbo rinkoms, 2019 m.
(20) 1985 m. liepos 25 d. Tarybos direktyva 85/374/EBB dėl valstybių narių įstatymų ir kitų teisės aktų, reglamentuojančių atsakomybę už gaminius su trūkumais, derinimo (OL L 210, 1985 8 7 p. 29).