28.10.2020   

LT

Europos Sąjungos oficialusis leidinys

C 364/87


Europos ekonomikos ir socialinių reikalų komiteto nuomonė dėl Baltosios knygos „Dirbtinis intelektas. Europos požiūris į kompetenciją ir pasitikėjimą“

(COM (2020) 65 final)

(2020/C 364/12)

Pranešėja

Catelijne MULLER

Konsultavimasis

Europos Komisija, 2020 3 9

Teisinis pagrindas

Sutarties dėl Europos Sąjungos veikimo 304 straipsnis

Atsakingas skyrius

Bendrosios rinkos, gamybos ir vartojimo skyrius

Priimta skyriuje

2020 6 25

Priimta plenarinėje sesijoje

2020 7 16

Plenarinė sesija Nr.

553

Balsavimo rezultatai

(už / prieš / susilaikė)

207/0/6

1.   Išvados ir rekomendacijos

1.1.

EESRK palankiai vertina Baltojoje knygoje dėl dirbtinio intelekto (DI) išdėstytą Komisijos strategiją, kuria siekiama skatinti DI technologijų diegimą, kartu užtikrinant jų atitiktį Europos etikos normoms, teisiniams reikalavimams ir socialinėms vertybėms.

1.2.

EESRK taip pat palankiai vertina tikslą išnaudoti Europos pramonės ir profesionalių rinkų pranašumus ir pabrėžia, kad svarbu stiprinti investicijas, infrastruktūrą, inovacijas ir įgūdžius, kad verslas, įskaitant MVĮ, ir plačioji visuomenė galėtų naudotis DI galimybėmis. DI inovacijos turėtų būti skatinamos siekiant kuo labiau padidinti DI sistemų naudą, kartu užkirsti kelią jų keliamai rizikai ir ją kuo labiau sumažinti.

1.3.

Tačiau Komitetas mano, kad siekiant ES tikros lyderystės pažangiausio, patikimo ir konkurencingo DI srityje nepakanka dėmesį sutelkti į vien duomenimis grindžiamą DI. EESRK ragina Komisiją taip pat skatinti naujos kartos DI sistemas, kurios būtų grindžiamos žiniomis ir argumentais, ir kuriomis būtų puoselėjamos žmogiškosios vertybės ir principai.

1.4.

EESRK ragina Komisiją: i) skatinti mokslinių tyrimų daugiadiscipliniškumą, įtraukiant kitas disciplinas, tokias kaip teisė, etika, filosofija, psichologija, darbo srities mokslai, humanitariniai mokslai, ekonomika ir kt.; ii) įtraukti atitinkamus suinteresuotuosius subjektus (profesines sąjungas, profesines organizacijas, įmonių organizacijas, vartotojų organizacijas, NVO) į diskusijas DI klausimais ir kaip lygiaverčius partnerius į ES finansuojamus mokslinius tyrimus ir kitus projektus, pavyzdžiui, viešojo ir privačiojo sektorių partnerystę dėl dirbtinio intelekto, sektorių dialogus, DI diegimo programą viešajame sektoriuje ir į kelrodį centrą; ir iii) toliau šviesti ir informuoti plačiąją visuomenę apie DI galimybes ir keliamus iššūkius.

1.5.

EESRK ragina Komisiją išsamiau apsvarstyti dirbtinio intelekto poveikį visoms pagrindinėms teisėms ir laisvėms, įskaitant, pavyzdžiui, teisę į teisingą bylos nagrinėjimą, į sąžiningus ir atvirus rinkimus, į susirinkimus ir demonstracijas, taip pat teisę nebūti diskriminuojamam.

1.6.

EESRK ir toliau nepritaria jokiam DI teisiniam subjektiškumui. Tokiu būdu civilinę atsakomybę reglamentuojanti teisė prarastų prevencinį taisomąjį poveikį, dėl to gali kilti neatsakingo elgesio rizika tiek plėtojant DI, tiek ir jį naudojant, nes taip sudaromos galimybės piktnaudžiauti.

1.7.

EESRK prašo taikyti nuolatinį, sistemingą socialinį ir techninį požiūrį, pagal kurį technologija būtų vertinama iš visų perspektyvų ir įvairiais aspektais, o ne vienkartinį (ar net reguliariai kartojamą) išankstinį didelės rizikos dirbtinio intelekto atitikties vertinimą.

1.8.

EESRK atkreipia dėmesį į tai, kad kriterijai, pagal kuriuos dirbtinio intelekto prietaikos klasifikuojamos kaip „labai rizikingos“, neapima daugybės prietaikų ir naudojimo būdų, kurie iš esmės yra rizikingi (pvz., biometrinis identifikavimas ir įdarbinimo procese naudojamas dirbtinis intelektas). EESRK rekomenduoja Komisijai parengti DI prietaikų arba naudojimo būdų, kurie laikomi iš esmės labai rizikingi, bendrų ypatybių sąrašą, neatsižvelgiant į sektorių.

1.9.

EESRK primygtinai siūlo, kad biometrinį atpažinimą būtų leidžiama naudoti tik i) esant moksliškai įrodytam poveikiui; ii) kontroliuojamoje aplinkoje ir iii) laikantis griežtų sąlygų. Turėtų būti uždrausta plačiai naudoti DI pagrįstą biometrinį atpažinimą stebėjimo tikslais arba žmonėms, žmogaus elgesiui ar emocijoms sekti, vertinti ar klasifikuoti.

1.10.

EESRK pasisako už ankstyvą ir glaudų socialinių partnerių dalyvavimą darbo vietose diegiant DI sistemas, atsižvelgiant į taikomas nacionalines taisykles ir praktiką, siekiant užtikrinti, kad sistemos būtų tinkamos naudoti ir atitiktų darbuotojų teises ir darbo sąlygas.

1.11.

EESRK taip pat pasisako už ankstyvą ir glaudų darbuotojų, kurie galiausiai dirbs su DI sistema, taip pat turinčių teisinių, etinių ir humanitarinių žinių dalyvavimą diegiant DI sistemas, siekiant užtikrinti, kad sistemos atitiktų teisinius ir etikos reikalavimus, taip pat darbuotojų poreikius, kad darbuotojai išlaikytų savarankiškumą savo darbo srityje, o DI sistemos prisidėtų prie darbuotojų įgūdžių gerinimo ir pasitenkinimo darbu didinimo.

1.12.

Kovojant su koronaviruso pandemija naudojama DI metodika ir požiūris į DI turėtų būti patikimi, veiksmingi, skaidrūs ir lengvai paaiškinami. Jais taip pat turėtų būti laikomasi žmogaus teisių, etikos principų ir galiojančių teisės aktų, jie turėtų būti sąžiningi, įtraukūs ir savanoriški.

1.13.

EESRK ragina Komisiją imtis vadovaujamojo vaidmens, kad Europoje būtų geriau koordinuojami taikomojo DI sprendimai ir metodai, skirti koronaviruso pandemijai įveikti.

2.   ES baltoji knyga dėl dirbtinio intelekto

2.1.

EESRK palankiai vertina tai, kad Europos Komisija atsižvelgia į daugelį rekomendacijų, pateiktų ankstesnėse EESRK nuomonėse ir Aukšto lygio ekspertų grupės DI klausimais, skatindama diegti DI technologijas, kartu užtikrinant jų atitiktį Europos etikos normoms, teisiniams reikalavimams ir socialinėms vertybėms, grindžiamoms vadinamąja „kompetencijos ir pasitikėjimo ekosistema“.

2.2.

EESRK palankiai vertina pasiūlymus, kuriais siekiama užtikrinti, kad verslas, įskaitant MVĮ, ir plačioji visuomenė galėtų naudotis DI plėtotės ir naudojimosi galimybėmis. EESRK pabrėžia, kad svarbu didinti investicijas, infrastruktūrą, inovacijas ir įgūdžius siekiant pagerinti ES konkurencingumą pasaulio mastu.

Žmogaus atliekamas proceso valdymas

2.3.

Tačiau Baltosios knygos tonas kartais yra šiek tiek „fatalistinis“, sudarant įspūdį, kad DI „yra aukščiau už mus“ ir kad neturime jokio kito pasirinkimo, kaip tik reguliuoti jo naudojimą. EESRK yra tvirtai įsitikinęs, kad ES padarys viską, kad Europa pripažintų tik patikimą DI, todėl ji turėtų išdrįsti šiuo klausimu laikytis daug tvirtesnės pozicijos. Todėl EESRK ragina Komisiją visada pasilikti galimybę apskritai nepritarti tam tikros rūšies dirbtiniam intelektui (ar jo naudojimui). Būtent tai EESRK vadina „žmogaus atliekamu proceso valdymu“ – požiūris, kurio turi būti laikomasi DI srityje.

Dirbtinio intelekto Europoje išnaudojimas. Į ateitį orientuota apibrėžtis

2.4.

Baltojoje knygoje DI apibrėžiamas kaip „technologijos, kurias taikant derinami duomenys, algoritmai ir kompiuterijos pajėgumai“. Vėliau dokumente duomenys ir algoritmai apibrėžiami kaip pagrindiniai DI elementai. Tačiau ši apibrėžtis apimtų bet kokią kada nors sukurtą programinę įrangą, o ne tik DI. Vis dar nėra visuotinai pripažintos DI apibrėžties, kuri yra bendrasis daugelio kompiuterinių programų terminas.

2.5.

Siekiant, kad ES taptų tikra lydere pažangiausio, patikimo ir konkurencingo DI srityje nepakanka dėmesį sutelkti į vien duomenimis grindžiamą DI. Baltojoje knygoje daugelis perspektyvių DI sistemų net nesvarstomos, taigi nesvarstomas ir jų valdymas bei reguliavimas. EESRK ragina Komisiją taip pat skatinti naujos kartos DI sistemas, kurios sujungtų duomenis grindžiamus metodus su žiniomis ir argumentais pagrįstomis koncepcijomis, vadinamąsias mišrias sistemas. Baltojoje knygoje pripažįstamas mišrių sistemų poreikis paaiškinamumo tikslais, tačiau mišrių sistemų pranašumai viršija paaiškinamumą: jos gali pagreitinti ir (arba) suvaržyti mokymąsi ir patvirtinti bei patikrinti kompiuterinio mokymosi modelį.

2.6.

Baltojoje knygoje daugiausia dėmesio skiriama tik duomenų neobjektyvumui, tačiau ne visada neobjektyvumas yra prastos kokybės arba ribotų duomenų rezultatas. Bet kokio artefakto koncepcija pati savaime yra neobjektyvių sprendimų sankaupa – nuo įvesties duomenų iki nustatytų tikslų. Visi šie sprendimai vienaip ar kitaip priklauso nuo asmeniui (-ims) būdingo neobjektyvumo.

2.7.

Tačiau svarbiausia yra tai, kad DI sistemos yra ne tik jų programinės įrangos sudedamųjų dalių suma. DI sistemos taip pat apima jas supančią socialinę ir techninę sistemą. Svarstant DI valdymą ir reguliavimą, pagrindinis dėmesys turėtų būti skiriamas ir susijusioms socialinėms struktūroms: organizacijoms, įmonėms, įvairių profesijų atstovams, žmonėms ir institucijoms, kurios sukuria, plėtoja, diegia, naudoja ir kontroliuoja DI, ir žmonėms, kuriems tai daro įtaką, pavyzdžiui, piliečiams jų santykiuose su vyriausybe, įmonėms, vartotojams, darbuotojams ir net plačiajai visuomenei.

2.8.

Taip pat reikėtų pažymėti, kad teisinės apibrėžtys (valdymo ir reguliavimo tikslais) skiriasi nuo grynai mokslinių apibrėžčių, tačiau turi būti laikomasi įvairių reikalavimų, pavyzdžiui, įtraukumo, tikslumo, pastovumo, išsamumo ir įvykdomumo. Kai kurie iš jų yra teisiškai privalomi reikalavimai, o kai kurie laikomi gera reguliavimo praktika.

Sutelkti visas jėgas

2.9.

EESRK palankiai vertina pastangas spręsti suskaidytos DI aplinkos Europoje problemą sutelkiant DI tyrėjus, daugiausia dėmesio skiriant MVĮ ir užmezgant partnerystės ryšius su privačiuoju ir viešuoju sektoriais. Be to, EESRK rekomenduoja: i) skatinti mokslinių tyrimų daugiadiscipliniškumą, įtraukiant kitas disciplinas, tokias kaip teisė, etika, filosofija, psichologija, darbo mokslai, humanitariniai mokslai, ekonomika ir kt.; ii) įtraukti suinteresuotuosius subjektus (profesines sąjungas, verslo organizacijas, vartotojų organizacijas, NVO) į diskusijas DI klausimais ir kaip lygiaverčius partnerius į ES finansuojamus mokslinius tyrimus ir kitus projektus, pvz., viešojo ir privačiojo sektorių partnerystę dėl DI, sektorių dialogus, DI diegimo programą viešajame sektoriuje ir į kelrodį centrą; ir iii) toliau šviesti ir informuoti plačiąją visuomenę apie DI galimybes ir keliamus iššūkius.

Dirbtinis intelektas ir teisė

2.10.

Baltojoje knygoje pripažįstama, kad pasaulis, kuriame veikia DI, nėra „teisinis vakuumas“. EESRK ypač palankiai vertina tai, kad pabrėžiamas DI poveikis pagrindinėms teisėms, ir rekomenduoja Komisijai nuodugniau apsvarstyti DI poveikį įvairioms pagrindinėms teisėms ir laisvėms, pavyzdžiui, žodžio ir saviraiškos laisvei, teisei į privatų gyvenimą (kuri apima daug daugiau nei tik žmonių duomenų apsaugą), teisingam bylos nagrinėjimui, sąžiningiems ir atviriems rinkimams, susirinkimams ir demonstracijoms bei teisei būti nediskriminuojamam.

2.11.

EESRK palankiai vertina Baltojoje knygoje išreikštą aiškią poziciją dėl esamų atsakomybės sistemų taikymo DI ir pastangas jas plėtoti, kad būtų pašalinta nauja rizika, kurią gali sukelti DI, šalinamos įgyvendinimo spragos, kai sunku nustatyti faktinį atsakingą ekonominės veiklos vykdytoją, ir užtikrinama, kad atsakomybės sistemas būtų galima pritaikyti prie kintančio DI sistemų veikimo.

2.12.

Komisija taip pat turėtų pripažinti, kad DI neturi sienų ir kad pastangos negali ir neturėtų apsiriboti vien tik Europa. Siekiant sukurti bendrą tarptautinę teisinę sistemą, turėtų būti pasiektas bendras tarptautinis sutarimas, pagrįstas teisės ekspertų diskusijomis ir tyrimais.

2.13.

Bet kokiu atveju EESRK ir toliau griežtai nepritaria bet kokiam juridinio asmens statuso suteikimui dirbtinio intelekto objektams. Tokiu būdu civilinę atsakomybę reglamentuojanti teisė prarastų prevencinį taisomąjį poveikį, dėl to galėtų kilti neatsakingo elgesio rizika tiek plėtojant DI, tiek ir jį naudojant, nes taip sudaromos galimybės piktnaudžiauti.

Labai rizikingo dirbtinio intelekto reguliavimas

2.14.

EESRK palankiai vertina rizika grindžiamą požiūrį į DI poveikio kontrolę. Komisija skelbia apie ketinimą parengti reglamentavimo sistemą labai rizikingam DI, kuris turėtų atitikti patikimumo, tikslumo, atkuriamumo, skaidrumo, žmogaus vykdomos priežiūros ir duomenų valdymo reikalavimus. Baltojoje knygoje nurodoma, kad DI laikomas labai rizikingu, jei atitinka du kumuliacinius kriterijus: i) naudojimas didelės rizikos sektoriuje; ir ii) DI prietaikos naudojamos taip, kad gali kilti didelė rizika. Baltojoje knygoje pateikiami du DI prietaikų arba naudojimo būdų, kurie gali būti laikomi iš esmės labai rizikingais, t. y. nepriklausomai nuo sektoriaus, pavyzdžiai. Be to, biometrinis atpažinimas laikomas iš esmės labai rizikinga prietaika. Į išsamų labai rizikingų sektorių sąrašą (kuris periodiškai peržiūrimas) dabar įtraukti šie potencialiai labai rizikingi sektoriai: sveikatos priežiūra, transportas, energetika ir viešojo sektoriaus dalys.

2.15.

Antrasis kriterijus, pagal kurį DI prietaika naudojama rizikingai, yra išsamesnis, leidžiantis atsižvelgti į skirtingus rizikos lygius. EESRK siūlo visuomenę ir aplinką įtraukti į poveikio sritis.

2.16.

Vadovaujantis baltosios knygos logika, labai rizikingai dirbtinio intelekto prietaikai, naudojamai mažos rizikos sektoriuje, reglamentavimo sistema iš esmės nebus taikoma. EESRK pabrėžia, kad nepageidaujamas neigiamas labai rizikingo DI poveikis mažos rizikos sektoriuje gali lemti tai, kad DI prietaikai ar naudojimui nebus taikomas reglamentavimas, taip suteikiant galimybę apeiti teisės aktus, pavyzdžiui, įrodyta, kad tikslinė reklama (mažos rizikos sektorius) gali lemti segregaciją, diskriminaciją ir skaldymą, pavyzdžiui, rinkimuose arba nustatant individualizuotą kainodarą (labai rizikingas naudojimas ar poveikis). EESRK rekomenduoja sudaryti DI prietaikų arba naudojimo būdų, kurie turi būti laikomi labai rizikingais, bendrųjų ypatybių sąrašą, neatsižvelgiant į tai, kokiame sektoriuje jie naudojami.

2.17.

Nors EESRK pripažįsta, kad būtina atlikti DI atitikties patikrinimus, jis baiminasi, kad vienkartinio (ar net reguliariai pasikartojančio) išankstinio atitikties vertinimo nepakaks siekiant užtikrinti patikimą ir į žmogų orientuotą DI plėtotę, diegimą ir tvarų naudojimą. Patikimam DI reikalingas nuolatinis, sisteminis socialinis ir techninis požiūris, pagal kurį technologija būtų vertinama visais požiūriais ir įvairiais aspektais. Formuojant politiką reikia laikytis daugiadiscipliniškumo, kai politikos formuotojai, įvairių sričių mokslininkai, socialiniai partneriai, profesinės organizacijos, specialistai, įmonės ir NVO nuolat bendradarbiauja. Ypač kai kalbama apie viešąsias paslaugas, susijusias su žmonių sveikata, sauga ir gerove, ir grindžiamas pasitikėjimu, reikia užtikrinti, kad DI sistemos būtų pritaikytos prie praktinių reikalavimų ir prioritetas visada būtų teikiamas žmogaus atsakomybei.

Biometrinis atpažinimas

2.18.

EESRK palankiai vertina Komisijos raginimą pradėti viešas diskusijas dėl DI grindžiamo biometrinio atpažinimo naudojimo. Biometrinis mikroraiškos, eisenos, balso (tono), širdies ritmo, temperatūros ir kt. atpažinimas jau naudojamas mūsų elgesiui, psichinei būklei ir emocijoms įvertinti ar net prognozuoti, įskaitant įdarbinimo procesą. Vieną dalyką būtina labai aiškiai pasakyti: nėra patikimų mokslinių įrodymų, kad asmens vidines emocijas ar psichinę būklę būtų galima tiksliai „nuskaityti“ pagal veido išraišką, eiseną, širdies plakimą, balso toną ar temperatūrą, jau nekalbant apie tai, kad jis galėtų nuspėti būsimą elgesį.

2.19.

Taip pat reikėtų pažymėti, kad Bendrasis duomenų apsaugos reglamentas (BDAR) tik tam tikru mastu riboja biometrinių duomenų tvarkymą. BDAR biometriniai duomenys apibrėžiami kaip „po specialaus techninio apdorojimo gauti asmens duomenys, susiję su fizinio asmens fizinėmis, fiziologinėmis arba elgesio savybėmis, pagal kurias galima konkrečiai nustatyti arba patvirtinti to fizinio asmens unikalią tapatybę“. Tačiau daugelis biometrinio atpažinimo technologijų nėra skirtos konkrečiai asmens tapatybei nustatyti, o tik asmens elgesiui ar emocijoms įvertinti. Šie naudojimo būdai gali neatitikti biometrinių duomenų (tvarkymo) apibrėžties pagal BDAR.

2.20.

DI grindžiamas biometrinis atpažinimas taip pat daro poveikį mūsų platesnei teisei į privatų gyvenimą, tapatybę, savarankiškumą ir psichinę neliečiamybę, nes sukuria padėtį, kurioje mes esame (nuolat) stebimi, sekami ir atpažįstami. Tai gali turėti psichinį „atgrasomąjį poveikį“, kai žmonės gali jaustis linkę savo elgesį pritaikyti prie tam tikros normos. Tai pažeidžia mūsų pagrindinę teisę į privatų gyvenimą (moralinė ir psichinę neliečiamybę). Be to, DI grindžiamas biometrinis atpažinimas galėtų daryti poveikį kitoms pagrindinėms teisėms ir laisvėms, pavyzdžiui, susirinkimų laisvei ir teisei nebūti diskriminuojamam.

2.21.

EESRK rekomenduoja biometrinį atpažinimą leisti naudoti tik esant moksliškai įrodytam poveikiui, kontroliuojamoje aplinkoje ir laikantis griežtų sąlygų. Turėtų būti uždrausta plačiai naudoti DI pagrįstą biometrinį atpažinimą stebėjimo tikslais arba žmonėms, žmogaus elgesiui ar emocijoms sekti, vertinti ar klasifikuoti.

Dirbtinio intelekto poveikis darbui ir įgūdžiams

2.22.

EESRK pažymi, kad Baltojoje knygoje trūksta strategijos, kaip spręsti DI poveikio darbui klausimą, nors jis buvo aiškiai įtrauktas į 2018 m. Europos dirbtinio intelekto strategiją.

2.23.

EESRK pasisako už tai, kad kuo anksčiau ir aktyviai būtų įtraukiami visų rūšių darbuotojai ir paslaugų teikėjai, įskaitant laisvai samdomus darbuotojus, savarankiškai dirbančius asmenis ir trumpų projektų ekonomikos darbuotojus – ne tik DI kuriančius ar plėtojančius asmenis, bet ir tuos, kurie perka, įgyvendina, dirba su DI sistemomis arba kuriems DI sistemos daro poveikį. Socialinis dialogas turi vykti prieš diegiant DI technologijas darbo vietoje, laikantis galiojančių nacionalinių taisyklių ir praktikos. Darbo vietoje prieiga prie darbuotojų duomenų ir jų valdymas turėtų būti grindžiami tais principais ir nuostatomis, kuriems yra pritarę socialiniai partneriai.

2.24.

EESRK norėtų atkreipti ypatingą dėmesį į DI, naudojamą samdant, atleidžiant ir vertinant darbuotojus. Baltojoje knygoje DI, naudojamas įdarbinant, nurodomas kaip labai rizikingos DI prietaikos pavyzdys, kuriam, nepriklausomai nuo sektoriaus, būtų taikomas reglamentavimas. EESRK rekomenduoja išplėsti šią naudojimo sritį, kad ji apimtų DI, naudojamą darbuotojų atleidimo ir vertinimo procesuose, taip pat išnagrinėti bendras DI prietaikų ypatybes, kurios būtų susijusios su labai rizikingu naudojimu darbo vietoje, nepriklausomai nuo sektoriaus. Darbo aplinkoje neturėtų būti leidžiama naudoti DI prietaikų, kurios neturi mokslinio pagrindo, pavyzdžiui, emocijų aptikimo biometrinio atpažinimo būdu.

2.25.

Siekiant sudaryti žmonėms galimybę prisitaikyti prie greitų DI vystymosi pokyčių, būtinas DI įgūdžių palaikymas ir ugdymas. Politiką ir finansinius išteklius taip pat reikės orientuoti į švietimą ir įgūdžių ugdymą tose srityse, kurioms DI sistemos nekels grėsmės (pvz., užduotys, kurioms atlikti yra būtinas žmonių bendravimas, pavyzdžiui viešosios paslaugos, susijusios su žmonių sveikata, sauga ir gerove ir grindžiamos pasitikėjimu, kurias žmonės ir mašinos teikia kartu, arba užduotys, kurias mes norėtume, kad ir toliau vykdytų žmonės).

3.   Dirbtinis intelektas ir koronavirusas

3.1.

DI gali padėti daugiau sužinoti apie koronavirusą ir COVID-19, taip pat apsaugoti žmones nuo poveikio, padėti skurti vakciną ir ištirti gydymo galimybes. Tačiau vis dar svarbu atvirai ir aiškiai nurodyti, kokios yra DI galimybių ribos.

3.2.

Patikimumas ir efektyvumas: duomenimis grindžiamas DI, naudojamas norint numatyti koronaviruso plitimą, gali sukelti problemų, nes duomenų apie koronavirusą per mažai, kad DI rezultatai būtų patikimi. Be to, duomenų sukaupta nedaug ir jie yra neišsamūs ir nereprezentatyvūs. Naudojant šiuos duomenis mašinų mokymosi metodams gali atsirasti daug klaidingai neigiamų ir klaidingai teigiamų rezultatų.

3.3.

Labai svarbu užtikrinti duomenų ir naudojamų modelių skaidrumą, taip pat rezultatų paaiškinamumą. Ypatingai šiuo metu pasaulis negali sau leisti priimti „juodųjų dėžių“ duomenimis grindžiamų sprendimų.

3.4.

Kovojant su šia pandemija, labiau nei bet kada svarbu laikytis žmogaus teisių, etikos principų ir galiojančių teisės aktų. Visų pirma tais atvejais, kai DI priemonėmis gali būti pažeidžiamos žmogaus teisės, turi būti teisėtas interesas jas naudoti, kuris turi būti griežtai būtinas, proporcingas ir visų pirma ribotas laiko atžvilgiu.

3.5.

Galiausiai turime užtikrinti teisingumą ir įtrauktį. Kovai su pandemija kuriamos DI sistemos turėtų būti objektyvios ir nediskriminuojančios. Be to, jos turėtų būti prieinamos visiems ir jomis turėtų būti atsižvelgiama į skirtingų susijusių šalių visuomeninius ir kultūrinius skirtumus.

Stebėjimo ir sekimo bei sveikatos stebėsenos taikomosios programos

3.6.

Virusologų ir epidemiologų nuomone, panaikinant karantino apribojimus visuomenei ir ekonomikai būtina užtikrinti veiksmingą stebėjimą, sekimą ir žmonių sveikatos apsaugą. Šiuo metu kuriama daug taikomųjų programų, skirtų stebėjimui, sekimui ir sveikatos patikrinimams – tai veikla, kurią įprastai (ir tradiciškai) vykdė specialistai. Daugelis vyriausybių visame pasaulyje labai pasitikėjo stebėjimo ir sekimo taikomosiomis programomis kaip priemone vėl atgaivinti visuomeninį gyvenimą.

3.7.

Tokių taikomųjų programų diegimas yra labai radikalus žingsnis. Todėl, prieš priimant sprendimą naudoti taikomąsias programas, svarbu kritiškai išnagrinėti jų naudingumą, būtinumą ir veiksmingumą, taip pat jų visuomeninį ir teisinį poveikį. Vis dar turi būti galimybė nenaudoti taikomųjų programų ir pirmenybė turėtų būti teikiama mažiau invaziniams sprendimams.

3.8.

Labai svarbu, kad stebėjimo ir sekimo taikomosios programos būtų veiksmingos ir patikimos, nes dėl neveiksmingumo ir nepatikimumo gali atsirasti daug klaidingų teigiamų ir klaidingų neigiamų išvadų, klaidingas saugumo jausmas, taigi ir didesnė rizika užsikrėsti. Dėl pradinio mokslinio modeliavimo kyla rimtų abejonių, ar sekimo taikomoji programa apskritai turės teigiamą poveikį viruso plitimui stabdyti, net jei ją naudotų 80–90 proc. žmonių. Be to, taikomoji programa negali fiksuoti konkrečių aplinkybių, pavyzdžiui, PMMA organinio stiklo ir langų buvimo arba asmeninių apsaugos priemonių dėvėjimo.

3.9.

Be to, šios taikomosios programos lemia tai, kad (iš dalies) atsisakoma įvairių žmogaus teisių ir laisvių, nes jomis pažeidžiama mūsų asociacijų laisvė, teisė į saugumą, į nediskriminavimą ir į privatų gyvenimą.

3.10.

Nors privatumas yra labai svarbus, jis reiškia daug daugiau nei mūsų asmens duomenys ir anonimiškumas. Privatumas taip pat susijęs su teise nebūti sekamam ar stebimam. Moksliškai įrodyta, kad žmonės, žinodami, kad yra sekami, pradeda elgtis kitaip. Europos Žmogaus Teisių Teismo teigimu, šis „atgrasomasis poveikis“ yra kišimasis į mūsų privatų gyvenimą. Tokia pati plati privataus gyvenimo sąvoka turėtų būti įtraukta į diskusijas dėl DI.

3.11.

Gali būti, kad surinkti duomenys (dabar arba ateityje) bus naudojami ne tik kovai su dabartine pandemija, bet ir žmonių profiliavimui, skirstymui į kategorijas ir vertinimui įvairiais tikslais. Tolimesnėje ateityje netgi galima įsivaizduoti, kad dėl „nemotyvuoto nukrypimo nuo funkcijų“ gali atsirasti nepageidaujamų profiliavimo rūšių stebėjimo, sekimo, draudimo ar socialinių išmokų srityse, priimant ar atleidžiant iš darbo ir kt. Todėl naudojant tokias taikomąsias programas surinkti duomenys jokiomis aplinkybėmis negali būti naudojami profiliavimui, rizikos vertinimui, klasifikavimui ar prognozavimui.

3.12.

Be to, bet kuris DI sprendimas, taikomas šiomis ypatingomis aplinkybėmis ir net turint geriausius ketinimus, sukurs precedentą, nesvarbu, ar mums tai patinka, ar ne. Ankstesnės krizės parodė, kad, nepaisant visų gerų ketinimų, tokios priemonės praktiškai niekada nebus panaikintos.

3.13.

Taigi DI vartojimas šios pandemijos metu visada turėtų būti išmatuotas ir įvertintas atsižvelgiant į keletą aplinkybių, pavyzdžiui: i) ar jis veiksmingas ir patikimas? ii) Ar yra mažiau invazinių sprendimų? iii) ar DI naudojimo nauda yra didesnė už susirūpinimą keliančius visuomenės, etikos ir pagrindinių teisių klausimus ir iv) ar galima pasiekti atsakingą kompromisą tarp viena kitai prieštaraujančių pagrindinių teisių ir laisvių? Be to, šių rūšių sistemos negali būti diegiamos primetant įpareigojimus ar prievarta.

3.14.

EESRK ragina sprendimus priimančius asmenis pernelyg greitai nepasiduoti minčiai, kad technologijos gali pateikti sprendimą visais klausimais. Atsižvelgdamas į padėties rimtumą, Komitetas rekomenduoja, kad su projektais, skirtais padėti kontroliuoti pandemiją, susijusios prietaikos būtų pagrįstos patikimais epidemiologijos, sociologijos, psichologijos, teisės, etikos ir sistemų mokslų moksliniais tyrimais. Prieš priimant sprendimą dėl šių sistemų naudojimo, reikia atlikti veiksmingumo, būtinumo ir jautrumo analizę ir modeliavimą.

2020 m. liepos 16 d., Briuselis

Europos ekonomikos ir socialinių reikalų komiteto pirmininkas

Luca JAHIER