Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52019AE1830

    Mnenje Evropskega ekonomsko-socialnega odbora – Sporočilo Komisije Evropskemu parlamentu, Svetu, Evropskemu ekonomsko-socialnemu odboru in Odboru regij – Krepitev zaupanja v umetno inteligenco, osredotočeno na človeka(COM(2019) 168 final)

    EESC 2019/01830

    UL C 47, 11.2.2020, p. 64–68 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    11.2.2020   

    SL

    Uradni list Evropske unije

    C 47/64


    Mnenje Evropskega ekonomsko-socialnega odbora – Sporočilo Komisije Evropskemu parlamentu, Svetu, Evropskemu ekonomsko-socialnemu odboru in Odboru regij – Krepitev zaupanja v umetno inteligenco, osredotočeno na človeka

    (COM(2019) 168 final)

    (2020/C 47/09)

    Poročevalka: Franca SALIS-MADINIER

    Zaprosilo

    Evropska komisija, 3.6.2019

    Pravna podlaga

    člen 304 Pogodbe o delovanju Evropske unije

    Pristojnost

    strokovna skupina za enotni trg, proizvodnjo in potrošnjo

    Datum sprejetja mnenja strokovne skupine

    18.10.2019

    Datum sprejetja mnenja na plenarnem zasedanju

    30.10.2019

    Plenarno zasedanje št.

    547

    Rezultat glasovanja

    (za/proti/vzdržani)

    198/1/4

    1.   Sklepi in priporočila

    1.1

    Umetna inteligenca ni sama sebi namen, temveč je orodje, ki lahko prinese korenite pozitivne spremembe, vendar pomeni tudi tveganje. Zato je potrebna ureditev njene uporabe.

    1.2

    Komisija bi morala sprejeti ukrepe za predvidevanje, preprečevanje in prepoved zlorabe umetne inteligence in strojnega učenja ter bolje urediti dajanje proizvodov na trg z namenom zlorabe.“

    1.3

    EU bi morala spodbujati zlasti razvoj sistemov umetne inteligence, usmerjenih v konkretne aplikacije za pospešitev ekološkega in podnebnega prehoda.

    1.4

    Opredeliti bi bilo treba, katere izzive je mogoče obravnavati z etičnimi kodeksi, samourejanjem in prostovoljnimi zavezami, katere pa z regulativnimi in zakonodajnimi sredstvi, dopolnjenimi s spremljanjem in sankcijami v primeru neupoštevanja. Sistemi umetne inteligence morajo biti v vsakem primeru v skladu z veljavno zakonodajo.

    1.5

    Za umetno inteligenco je potreben pristop, ki vključuje tako tehnične kot družbene in etične vidike. EESO pozdravlja zavzetost EU za vzpostavitev pristopa k umetni inteligenci, ki je osredotočen na človeka in skladen z vrednotami, na katerih temelji: spoštovanje človekovega dostojanstva, svoboda, demokracija, enakost in nediskriminacija, pravna država in spoštovanje človekovih pravic.

    1.6

    EESO ponovno poudarja (1), da se je treba pri uvajanju sistemov umetne inteligence, ki bi lahko spremenili organizacijo dela, njegovo spremljanje in nadzor, pa tudi sisteme ocenjevanja in zaposlovanja, posvetovati z delavci in njihovimi predstavniki ter jih obveščati o tem. Komisija mora spodbujati socialni dialog za sodelovanje delavcev pri uporabi sistemov umetne inteligence.

    1.7

    EESO poudarja (2), da sta za zaupanja vredno umetno inteligenco potrebna človeški nadzor nad strojem in obveščanje državljanov o njegovi uporabi. Sistemi umetne inteligence morajo biti razložljivi, če to ni mogoče, pa je treba državljanom in potrošnikom zagotoviti informacije o njihovih omejitvah in tveganjih.

    1.8

    EU se mora osredotočiti na nastajajoča tveganja (3) na področju zdravja in varnosti pri delu. Določiti je treba standarde, s katerimi bi preprečili, da bi avtonomni sistemi poškodovali ljudi ali jim povzročili škodo. Delavce je treba naučiti, kako delati s strojem in ga v nujnih primerih ustaviti.

    1.9

    EESO se zavzema za razvoj trdnega sistema certificiranja na podlagi postopkov preizkušanja, ki bodo podjetjem omogočili, da potrdijo zanesljivost in varnost svojih sistemov umetne inteligence. Preglednost, sledljivost in razložljivost postopka algoritemskega odločanja še vedno pomenijo tehnični izziv, ki ga je treba podpreti z instrumenti EU, kot je program Obzorje Evropa.

    1.10

    Kolikšno zaupanje bodo imeli državljani in potrošniki v umetno inteligenco, je odvisno od spoštovanja zasebnosti in varstva podatkov. Lastništvo podatkov, nadzor nad njimi in način, kako jih uporabljajo podjetja in organizacije, so področja, ki jih je treba v veliki meri še urediti (zlasti v zvezi z internetom stvari). EESO poziva Komisijo, naj ob upoštevanju tehnološkega razvoja redno revidira Splošno uredbo o varstvu podatkov (4) in z njo povezane predpise.

    1.11

    EESO meni, da je bistveno razmisliti o tem, kako lahko sistemi umetne inteligence prispevajo k zmanjšanju emisij toplogrednih plinov, zlasti na področju industrije, prometa, energije, gradbeništva in kmetijstva. Zavzema se, da bi bila podnebni in digitalni prehod medsebojno povezana.

    1.12

    EESO meni, da spremljanje sistemov umetne inteligence morda ne bo zadostovalo za opredelitev odgovornosti in povečanje zaupanja. Priporoča, naj se prednostno opredelijo jasna pravila, ki v primeru kršitve določajo odgovornost pravnih subjektov, in sicer fizičnih ali pravnih oseb. Poleg tega EESO poziva Komisijo, naj najprej preuči temeljno vprašanje zavarovanja za sisteme umetne inteligence.

    1.13

    EESO predlaga, da se za podjetja, ki izpolnjujejo standarde, uvede „evropski certifikat za zaupanja vredno podjetje na področju umetne inteligence“, ki bo med drugim temeljil na ocenjevalnem seznamu, ki ga je predlagala strokovna skupina na visoki ravni za umetno inteligenco.

    1.14

    EU mora spodbujati, da se bo o tem področju razpravljalo na srečanjih skupin G7 in G20 ter v dvostranskih dialogih, in si pri tem prizadevati, da bo ureditev umetne inteligence presegala evropske meje. Doseči je treba mednarodno soglasje za zaupanja vredno umetno inteligenco, na podlagi katerega bo mogoče oblikovati mednarodne standarde in redno preverjati njihovo ustreznost.

    2.   Povzetek predloga Komisije

    2.1

    To sporočilo temelji na delu strokovne skupine na visoki ravni, ki jo je Komisija ustanovila junija 2018. V njem Komisija opredeljuje sedem ključnih zahtev za zaupanja vredno umetno inteligenco, ki so navedene v točki 4.

    2.2

    Komisija je začela izvajati pilotno fazo, v katero so vključeni različni deležniki. Ta postopek se osredotoča zlasti na ocenjevalni seznam, ki ga je strokovna skupina na visoki ravni pripravila za vsako od ključnih zahtev. Na začetku leta 2020 bo ta skupina pregledala in posodobila ocenjevalni seznam, Komisija pa bo po potrebi predlagala nove ukrepe.

    2.3

    Komisija želi svoj pristop na področju umetne inteligence uveljaviti na mednarodnem prizorišču, pri čemer bo imela še naprej dejavno vlogo, med drugim v okviru skupin G7 in G20.

    3.   Splošne ugotovitve

    3.1

    Za umetno inteligenco, osredotočeno na človeka, je potreben pristop, ki vključuje tako tehnične kot družbene in etične vidike. EESO pozdravlja zavzetost institucij EU za vzpostavitev pristopa k umetni inteligenci, ki je skladen z vrednotami, na katerih temelji Unija: spoštovanje človekovega dostojanstva, svoboda, demokracija, enakost in nediskriminacija, pravna država in spoštovanje človekovih pravic. Kot poudarja Komisija (5), umetna inteligenca ni sama sebi namen, temveč je orodje, ki lahko prinese korenite pozitivne spremembe. Kot vsako orodje hkrati prinaša priložnosti in tveganja. Zato mora EU urediti njeno uporabo in jasno opredeliti odgovornosti.

    3.2

    Zaupanje v umetno inteligenco, osredotočeno na človeka, se bo vzpostavilo s potrditvijo vrednot in načel, dobro opredeljenim pravnim okvirom ter etičnimi smernicami, ki bodo zajemale ključne zahteve.

    3.3

    Skupaj z vsemi deležniki bi bilo treba opredeliti, katere od številnih izzivov, ki jih prinaša umetna inteligenca, je treba obravnavati z regulativnimi in zakonodajnimi sredstvi, dopolnjenimi z regulativnimi mehanizmi spremljanja in sankcioniranja v primeru neupoštevanja, katere pa z etičnimi kodeksi, samourejanjem in prostovoljnimi zavezami. EESO je zadovoljen, da je Komisija upoštevala nekatera načela, na katera je prvotno opozoril, vendar obžaluje, da doslej ni predlagala nobenega posebnega ukrepa za obravnavanje utemeljenih pomislekov v zvezi s pravicami potrošnikov, varnostjo sistemov in odgovornostjo.

    3.4

    Sistemi umetne inteligence morajo upoštevati veljaven pravni okvir, zlasti kar zadeva varstvo osebnih podatkov, odgovornost za proizvode, varstvo potrošnikov, nediskriminacijo, poklicne kvalifikacije ter obveščanje delavcev in posvetovanje z njimi na delovnem mestu. Zagotoviti je treba, da bodo ti zakoni prilagojeni novim izzivom digitalizacije in umetne inteligence.

    3.5

    Kot ugotavlja Komisija, „je treba [vzpostaviti] postopke za pojasnitev in oceno potencialnih tveganj, povezanih z uporabo sistemov umetne inteligence, na različnih področjih uporabe“ (6). EESO pripisuje zelo velik pomen prihodnjim načinom ocenjevanja in opredelitvi kazalnikov, ki bi se lahko upoštevali pri ocenjevanju. Izhodišče za izvajanje teh postopkov je osnutek ocenjevalnega seznama, ki ga je pripravila strokovna skupina na visoki ravni.

    3.6

    S tem je povezano tudi vprašanje pravične porazdelitve pričakovane dodane vrednosti sistemov umetne inteligence. EESO meni, da morajo pozitivne spremembe, ki jih prinaša umetna inteligenca na področju gospodarskega razvoja, trajnostnih postopkov proizvodnje in porabe (zlasti energije) ter izboljšanja uporabe virov, koristiti vsem državam in njihovim državljanom.

    4.   Posebne ugotovitve

    4.1   Človeško delovanje in nadzor

    4.1.1

    Komisija želi zagotoviti, da uporaba sistemov umetne inteligence v nobenem primeru ne bo ogrozila človeške avtonomije ali povzročila škodljivih učinkov. EESO se strinja s pristopom človeškega nadzora nad strojem, kot je navedel že v svojih prejšnjih mnenjih.

    4.1.2

    Zato je potrebno tudi, da so državljani ustrezno obveščeni o uporabi teh sistemov, da so ti razložljivi ali, če to ni mogoče (kadar gre na primer za globoko učenje), da se uporabniku zagotovijo informacije o omejitvah in tveganjih sistema. V vsakem primeru je treba državljanom še naprej zagotavljati možnost, da se odločijo drugače kot sistem umetne inteligence.

    4.1.3

    V podjetjih in javnih upravah je treba delavce in njihove predstavnike ustrezno obvestiti in se z njimi posvetovati o uvedbi sistemov umetne inteligence, ki bi lahko spremenili organizacijo dela in vplivali nanje, kar zadeva nadzor, spremljanje, ocenjevanje in zaposlovanje. Komisija mora spodbujati socialni dialog za sodelovanje delavcev pri uporabi sistemov umetne inteligence.

    4.1.4

    V zvezi s človeškimi viri je treba posebno pozornost nameniti tveganju zlorabe sistemov umetne inteligence za spremljanje brez omejitev, zbiranje osebnih podatkov in podatkov o zdravju ter njihovo posredovanje tretjim osebam, pa tudi nastajajočim tveganjem na področju zdravja in varnosti pri delu (7). Določiti je treba jasne standarde, s katerimi bi preprečili, da bi sodelovanje med človekom in strojem povzročilo škodo ljudem. Standard Mednarodne organizacije za standardizacijo (ISO) o sodelovalnih robotih (8), ki se nanaša na proizvajalce, integratorje in uporabnike, določa smernice za zasnovo in organizacijo delovnega okolja ter zmanjšanje morebitnih tveganj za ljudi. Delavce je treba usposobiti za uporabo umetne inteligence in robotike ter za delo z njima, zlasti da ju znajo v nujnem primeru ustaviti (načelo zasilne zavore).

    4.2   Tehnična robustnost in varnost

    4.2.1

    EESO se zavzema, da bi uvedli evropske standarde varnosti in razvili trden sistem certificiranja na podlagi postopkov preizkušanja, ki bodo podjetjem omogočili, da potrdijo zanesljivost svojih sistemov umetne inteligence. Poleg tega poudarja, da je treba preučiti vprašanje zavarovanja za sisteme umetne inteligence.

    4.2.2

    Komisija namenja zelo malo pozornosti vprašanjem v zvezi s predvidevanjem, preprečevanjem in prepovedjo zlorabe umetne inteligence in strojnega učenja, na kar opozarjajo številni raziskovalci (9). Njihova priporočila bi bilo treba upoštevati, zlasti glede dvojne uporabe teh tehnologij, ki lahko ogrozi digitalno varnost (širjenje kibernetskih napadov, izkoriščanje ranljivosti ljudi in umetne inteligence, „zastrupljanje podatkov“ (angl. data poisoning), fizično varnost (vdiranje v avtonomne sisteme, med drugim samovozeča vozila, brezpilotne zrakoplove in avtomatsko orožje) ali politično varnost (množično zbiranje osebnih podatkov, ciljno usmerjena propaganda, manipulacija videoposnetkov itd.). Raziskovalci, inženirji in javni organi morajo tesno sodelovati, da bi preprečili ta tveganja, strokovnjaki in drugi deležniki, med drugim uporabniki in potrošniki, pa morajo biti vključeni v razprave o teh izzivih.

    4.3   Zasebnost in upravljanje podatkov

    4.3.1

    Komisija se zavzema za ustrezno upravljanje in nadzorovanje dostopa do podatkov (10). EESO meni, da je treba preseči splošne izjave. Razvoj sistemov umetne inteligence bo odvisen tudi od stopnje zaupanja državljanov vanje. Lastništvo podatkov, nadzor nad njimi in način, kako jih uporabljajo podjetja in organizacije, so področja, ki jih je treba v veliki meri še urediti. Opozoriti je treba na količino podatkov, ki jih na primer vozila posredujejo proizvajalcem vozil, in vrsto posredovanih podatkov (11). Kljub konceptu vgrajene zasebnosti, ki jo morajo povezani predmeti upoštevati v skladu s Splošno uredbo o varstvu podatkov, se ugotavlja, da ima potrošnik o tem malo podatkov ali jih sploh nima ter da jih ne more nadzorovati. Zato EESO poziva Komisijo, naj ob upoštevanju tehnološkega razvoja revidira Splošno uredbo o varstvu podatkov in z njo povezane predpise (12).

    4.4   Preglednost

    4.4.1

    EESO meni, da razložljivost postopka algoritemskega odločanja ni bistvena za razumevanje mehanizmov kot takih, temveč za razumevanje pravil, na katerih temeljijo postopki odločanja, in načina, kako nanje vplivajo sistemi umetne inteligence. Razvoj standardnih postopkov za preizkušanje sistemov strojnega učenja ostaja tehnični izziv, ki bi ga bilo treba podpreti z instrumenti EU, kot je program Obzorje Evropa.

    4.4.2

    EESO se strinja s pristopom Komisije, v skladu s katerim bi morali „biti sistemi umetne inteligence prepoznavni kot taki, kar bi zagotovilo, da uporabniki vedo, da so v stiku s sistemom umetne inteligence“ (13), tudi v razmerju med pacientom in zdravstvenim osebjem ter pri poklicnih storitvah, povezanih z zdravjem in dobrim počutjem državljanov. Poleg tega EESO ponovno poudarja, da mora imeti uporabnik ali potrošnik možnost, da je obveščen o storitvah, ki jih izvaja človek. Številni sistemi umetne inteligence dejansko vključujejo velike količine človeškega dela, ki so pogosto skrite končnim uporabnikom (14). To vprašanje je povezano s pomanjkanjem preglednosti za uporabnike in potrošnike storitev ter obliko izkoriščanja skritega in nepriznanega dela.

    4.4.3

    Poleg tega EESO meni, da je treba potrošnika vedno obvestiti o vključitvi sistemov umetne inteligence v proizvode, ki jih kupi, ter da mora vedno imeti možnost dostopa do svojih podatkov in nadzora nad njimi.

    4.5   Raznolikost, nediskriminacija in pravičnost

    4.5.1

    Tveganja diskriminacije so prisotna v nekaterih aplikacijah umetne inteligence, ki omogočajo oblikovanje profila državljanov, uporabnikov in potrošnikov (npr. za zaposlovanje, oddajanje nepremičnin in nekatere osebne storitve). Sistemi umetne inteligence morajo biti skladni z zakonodajo EU o enaki obravnavi in nediskriminaciji (15). To zakonodajo pa je treba prilagoditi in po potrebi okrepiti za obravnavanje novih praks (tudi kar zadeva nadzorovanje njenega izvajanja). Obstaja resnična nevarnost, da bo algoritemsko oblikovanje profilov postalo novo močno orodje diskriminacije, kar mora EU preprečiti.

    4.5.2

    Direktiva proti rasizmu (16) in direktiva o enakem obravnavanju spolov zunaj delovnega razmerja (17) določata ustanovitev posebnih organov, pristojnih za spodbujanje enakosti spolov. EESO poziva, naj imajo ti organi dejavno vlogo pri spremljanju in nadzorovanju sistemov umetne inteligence v zvezi s tveganji neposredne ali posredne diskriminacije.

    4.6   Družbena in okoljska blaginja

    4.6.1

    Komisija ne predlaga konkretnih načinov za povezavo med podnebnim prehodom in digitalno preobrazbo, zlasti pri uporabi sistemov umetne inteligence. Bistveno je razmisliti o tem, kako lahko sistemi umetne inteligence prispevajo k zmanjšanju emisij toplogrednih plinov, zlasti na področju industrije, prometa, energije, gradbeništva in kmetijstva.

    4.6.2

    Komisija poudarja, da bi se sistemi umetne inteligence lahko uporabljali za krepitev socialnih znanj in spretnosti, lahko pa bi prispevali tudi k njihovemu poslabšanju. EESO meni, da mora EU storiti več za obravnavanje nekaterih družbenih izzivov. Študije so na primer pokazale, da so nekatere aplikacije z vgrajenimi sistemi umetne inteligence zasnovane tako, da uporabniki spletnih storitev (družbena omrežja, igre, videoposnetki itd.) ostanejo čim dlje povezani s spletom. Namen je zbrati čim več podatkov o njihovem vedenju, pri čemer se uporabljajo strategije, ki zajemajo vse od neprestanega obnavljanja algoritemskih priporočil do opozoril in obvestil, vključno z igrami itd. Raziskani so bili učinki čezmerne povezanosti in napeljevanja na otroke (18). Rezultati so pokazali povečanje tesnobe, napadalnosti, pomanjkanja spanca ter vplivov na izobraževanje, družbene odnose, zdravje in dobro počutje. Da bi ustvarili zaupanja vredno umetno inteligenco, mora EU te učinke upoštevati in jih preprečiti.

    4.6.3

    Nenazadnje je treba omeniti, da je eden od dejavnikov družbene blaginje povezan z občutkom varnosti pri delu, učinki digitalizacije pa lahko pogosto povzročajo zaskrbljenost in stres (19). Zato bi bilo treba oblikovati strategije za predvidevanje sprememb še pred morebitnim prestrukturiranjem in za stalno usposabljanje vseh delavcev. Zaradi tega je znotraj podjetij potreben kakovosten socialni dialog med delodajalci in predstavniki delavcev, ki bo omogočil predvsem vključujoče uvajanje novih tehnologij, zlasti umetne inteligence in robotike. Za okrepitev zaupanja med upravami in delavci morajo biti sistemi umetne inteligence, povezani z vodenjem, ocenjevanjem in nadzorovanjem delavcev, razložljivi; znani morajo biti tudi njihovi parametri in njihovo delovanje mora biti pregledno.

    4.7   Odgovornost

    4.7.1

    Odločitev, ki jih sprejemajo zapleteni sistemi strojnega učenja, ni mogoče enostavno pojasniti; poleg tega se redno posodabljajo. EESO meni, da spremljanje sistemov umetne inteligence morda ne bo zadostovalo za opredelitev odgovornosti in povečanje zaupanja. Zato priporoča opredelitev pravil, ki v primeru kršitve določajo odgovornost pravnih subjektov, in sicer fizičnih ali pravnih oseb. Poleg tega priporoča, da bi se bolj kot na algoritme opirali na zaupanja vredna podjetja ali strokovnjake, in predlaga, da se za podjetja, ki spoštujejo vse standarde, uvede „evropski certifikat za zaupanja vredno podjetje na področju umetne inteligence“, ki bo med drugim temeljil na ocenjevalnem seznamu, ki ga je predlagala strokovna skupina na visoki ravni.

    4.7.2

    V direktivi o odgovornosti za proizvode (20) je opredeljeno načelo objektivne odgovornosti evropskih proizvajalcev: če proizvod z napako povzroči škodo potrošniku, je proizvajalec lahko odgovoren, tudi če ne gre za njegovo krivdo ali malomarnost. Zaradi zasnove, uvajanja in vse bolj razširjene uporabe sistemov umetne inteligence mora EU sprejeti ustrezna pravila o odgovornosti v primerih, v katerih bi se lahko proizvodi z digitalnimi vsebinami in storitve, ki se ponujajo potrošnikom, izkazali za nevarne in škodljive. Potrošniki bi morali imeti dostop do pravnega varstva v primeru škode, ki jo povzroči sistem umetne inteligence.

    5.   Potreba po pravni ureditvi zunaj Evrope

    5.1

    V globaliziranem svetu mora pravna ureditev umetne inteligence presegati evropske meje. Evropa bi si morala prizadevati, da bi skupini G7 in G20 dosegli široko soglasje o umetni inteligenci, in nadaljevati dvostranska pogajanja, da bi lahko večina držav sodelovala v postopku standardizacije umetne inteligence in pri rednem preverjanju njene ustreznosti.

    V Bruslju, 30. oktobra 2019

    Predsednik

    Evropskega ekonomsko-socialnega odbora

    Luca JAHIER


    (1)  UL C 440, 6.12.2018, str. 1.

    (2)  UL C 288, 31.8.2017, str. 1; UL C 440, 6.12.2018, str. 1.

    (3)  https://osha.europa.eu/sl/emerging-risks

    (4)  Uredba (EU) 2016/679 Evropskega parlamenta in Sveta z dne 27. aprila 2016 o varstvu posameznikov pri obdelavi osebnih podatkov in o prostem pretoku takih podatkov ter o razveljavitvi Direktive 95/46/ES (Splošna uredba o varstvu podatkov) (UL L 119, 4.5.2016, str. 1).

    (5)  COM(2019) 168 final.

    (6)  COM(2019) 168 final, str. 5.

    (7)  Glej zlasti OSH and the future of work: benefits and risks of artificial intelligence tools in workplaces.

    (8)  ISO/TS 15066, 2016.

    (9)  Glej poročilo z naslovom The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation, februar 2018.

    (10)  COM(2019) 168 final, str. 6.

    (11)  Your car knows when you gain weight, The New York Times (International Edition), 22.5.2019.

    (12)  UL C 190, 5.6.2019, str. 17.

    (13)  COM(2019) 168 final, str. 6.

    (14)  Glej na primer: A white-collar sweatshop‘: Google Assistant contractors allege wage theft, The Guardian, 29.5.2019 in Bot technology impressive, except when it’s not the bot, The New York Times (International Edition), 24.5.2019.

    (15)  UL L 180, 19.7.2000, str. 22; UL L 303, 2.12.2000, str. 16; UL L 373, 21.12.2004, str. 37; UL L 204, 26.7.2006, str. 23.

    (16)  Direktiva Sveta 2000/43/ES z dne 29. junija 2000 o izvajanju načela enakega obravnavanja oseb ne glede na raso ali narodnost (UL L 180, 19.7.2000, str. 22).

    (17)  Direktiva Sveta 2004/113/ES z dne 13. decembra 2004 o izvajanju načela enakega obravnavanja moških in žensk pri dostopu do blaga in storitev ter oskrbi z njimi (UL L 373, 21.12.2004, str. 37).

    (18)  Glej zlasti Kidron, Evans, Afia (2018), Disrupted Childhood – The Cost of Persuasive Design, 5Rights Foundation.

    (19)  Poročilo strokovne skupine na visoki ravni z naslovom The Impact of the Digital Transformation on EU Labour Markets, 2019.

    (20)  Direktiva Sveta 85/374/ES z dne 25. julija 1985 o približevanju zakonov in drugih predpisov držav članic v zvezi z odgovornostjo za proizvode z napako (UL L 210, 7.8.1985, str. 29).


    Top