This document is an excerpt from the EUR-Lex website
Document 52019AE1830
Opinion of the European Economic and Social Committee on ‘Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions — Building trust in human-centric artificial intelligence’ (COM(2019) 168 final)
Stanovisko Evropského hospodářského a sociálního výboru ke sdělení Komise Evropskému parlamentu, Radě, Evropskému hospodářskému a sociálnímu výboru a Výboru regionů Budování důvěry v umělou inteligenci zaměřenou na člověka[COM(2019) 168 final]
Stanovisko Evropského hospodářského a sociálního výboru ke sdělení Komise Evropskému parlamentu, Radě, Evropskému hospodářskému a sociálnímu výboru a Výboru regionů Budování důvěry v umělou inteligenci zaměřenou na člověka[COM(2019) 168 final]
EESC 2019/01830
Úř. věst. C 47, 11.2.2020, p. 64–68
(BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)
11.2.2020 |
CS |
Úřední věstník Evropské unie |
C 47/64 |
Stanovisko Evropského hospodářského a sociálního výboru ke sdělení Komise Evropskému parlamentu, Radě, Evropskému hospodářskému a sociálnímu výboru a Výboru regionů Budování důvěry v umělou inteligenci zaměřenou na člověka
[COM(2019) 168 final]
(2020/C 47/09)
Zpravodajka: Franca SALIS-MADINIER
Konzultace |
Evropská komise, 3.6.2019 |
Právní základ |
Článek 304 Smlouvy o fungování Evropské unie |
Odpovědná sekce |
Jednotný trh, výroba a spotřeba |
Přijato v sekci |
18.10.2019 |
Přijato na plenárním zasedání |
30.10.2019 |
Plenární zasedání č. |
547 |
Výsledek hlasování (pro/proti/zdrželi se hlasování) |
198/1/4 |
1. Závěry a doporučení
1.1. |
Umělá inteligence není cílem sama o sobě, ale nástrojem, jenž může přinášet radikální změny k lepšímu, který však s sebou nese určitá rizika. Proto je nutné její využívání usměrňovat. |
1.2. |
Komise by měla přijmout opatření týkající se předvídání, prevence a zákazu zneužívání umělé inteligence a strojového učení a lépe regulovat uvádění výrobků na trh s nekalými úmysly. |
1.3. |
EU musí zejména podporovat rozvoj systémů umělé inteligence orientovaných na specifické aplikace umožňující urychlit ekologickou a klimatickou transformaci. |
1.4. |
Měly by se určit ty výzvy, na něž bude možné reagovat pomocí etických kodexů, samoregulace a dobrovolných závazků, a ty, na něž bude potřeba reagovat prostřednictvím regulačních a legislativních opatření a souvisejícího sledování a v případě nedodržování prostřednictvím sankcí. Systémy umělé inteligence musejí být v každém případě v souladu s platnými právními předpisy. |
1.5. |
Umělá inteligence vyžaduje přístup, který bude zahrnovat nejen technické aspekty, ale i aspekty společenské a etické. EHSV vítá vůli EU vytvořit takový přístup k umělé inteligenci, který bude zaměřený na člověka a bude v souladu s hodnotami, na nichž je EU založena a kterými jsou úcta k lidské důstojnosti, svoboda, demokracie, rovnost, nepřípustnost diskriminace, právní stát a dodržování lidských práv. |
1.6. |
EHSV potvrzuje (1), že je potřeba, aby byli zaměstnanci a jejich zástupci konzultováni a informováni při zavádění systémů umělé inteligence, které mohou přinést změny v organizaci práce, dohledu nad ní a její kontroly a rovněž v systémech hodnocení a náboru pracovníků. Komise musí podporovat sociální dialog s cílem zapojit zaměstnance do používání systémů umělé inteligence. |
1.7. |
EHSV zdůrazňuje (2), že důvěryhodná umělá inteligence předpokládá, že lidé mohou ovládat stroje a že občané budou informováni o jejím používání. Systémy umělé inteligence musejí být vysvětlitelné nebo – pokud to nebude možné – je nutné poskytovat občanům a spotřebitelům informace o jejich omezeních a rizicích. |
1.8. |
EU musí začít řešit nová rizika (3) týkající se bezpečnosti a ochrany zdraví při práci. Musejí se stanovit normy, jejichž cílem bude zabránit tomu, aby autonomní systémy poškozovaly člověka. Pracovníci musejí být vyškoleni k práci se stroji a k jejich zastavení v případě naléhavé nutnosti. |
1.9. |
EHSV požaduje, aby byl vyvinut spolehlivý systém osvědčování založený na postupech testování, které by podnikům umožnily potvrdit spolehlivost a bezpečnost jejich systémů umělé inteligence. Transparentnost, sledovatelnost a vysvětlitelnost algoritmických rozhodovacích procesů představují technickou výzvu, jež by se měla řešit pomocí nástrojů EU, jako je program Horizont Evropa. |
1.10. |
Míru důvěry občanů v umělou inteligenci bude určovat respektování soukromého života a ochrany osobních údajů. Otázky vlastnictví dat, kontroly nad nimi a jejich využívání podniky a organizacemi je ještě z velké části potřeba regulovat (zejména v souvislosti s internetem věcí). EHSV vyzývá Komisi, aby s ohledem na technologický vývoj pravidelně přezkoumávala obecné nařízení o ochraně osobních údajů (4) a související předpisy. |
1.11. |
EHSV považuje za zásadní, aby se zvážil přínos systémů umělé inteligence ke snižování emisí skleníkových plynů, a to zejména v průmyslu, dopravě, energetice, stavebnictví a zemědělství. Žádá, aby klimatická a digitální transformace byly vzájemně propojeny. |
1.12. |
EHSV se domnívá, že kontrola systémů umělé inteligence by nemusela postačovat ke stanovení odpovědnosti a vzbuzení důvěry. EHSV doporučuje jako prioritu stanovení jasných pravidel, podle nichž se v případě pochybení přiřkne odpovědnost právním subjektům (fyzickým či právnickým osobám). EHSV rovněž vyzývá Komisi, aby prioritně prošetřila zásadní otázku pojistitelnosti systémů umělé inteligence. |
1.13. |
EHSV navrhuje vytvořit pro podniky splňující normy „evropské osvědčení pro důvěryhodné podniky v oblasti umělé inteligence“, které by vycházelo mj. z kontrolního seznamu, který sestavila odborná skupina na vysoké úrovni. |
1.14. |
EU by se měla při podpoře činnosti v této oblasti v rámci G7, G20 a dvoustranných dialogů snažit o zajištění toho, aby regulace umělé inteligence přesáhla evropské hranice. Je potřeba dosáhnout mezinárodní dohody o důvěryhodné umělé inteligenci, na jejímž základě bude možné vytvořit mezinárodní normy a pravidelně ověřovat jejich vhodnost. |
2. Shrnutí návrhu Komise
2.1. |
Toto sdělení vychází z práce odborné skupiny na vysoké úrovni, již jmenovala Komise v roce 2018. Komise v předmětném sdělení stanovila sedm základních podmínek pro dosažení důvěryhodné umělé inteligence – ty jsou uvedeny v kapitole 4 tohoto stanoviska. |
2.2. |
Komise spustila pilotní fázi, do níž je zapojena široká škála zúčastněných stran. Tato fáze se zaměřuje zejména na kontrolní seznam, který pro každou ze základních podmínek sestavila odborná skupina na vysoké úrovni. Tato skupina na začátku roku 2020 kontrolní seznam přezkoumá a aktualizuje a Komise případně navrhne další kroky. |
2.3. |
Komise chce svůj přístup k umělé inteligenci prosadit na mezinárodní úrovni a bude hrát i nadále aktivní roli, mj. v rámci G7 a G20. |
3. Obecné připomínky
3.1. |
Umělá inteligence zaměřená na člověka vyžaduje přístup, který bude zahrnovat technické aspekty, ale rovněž aspekty společenské a etické. EHSV vítá vůli orgánů EU vytvořit takový přístup k umělé inteligenci, který bude v souladu s hodnotami, na nichž je Unie založena a kterými jsou úcta k lidské důstojnosti, svoboda, demokracie, rovnost a nepřípustnost diskriminace, právní stát a dodržování lidských práv. Jak zdůrazňuje Komise (5), není umělá inteligence cílem sama o sobě, ale nástrojem, jenž může přinášet radikální změny k lepšímu. Jako každý nástroj s sebou přináší jak příležitosti, tak i rizika. Proto musí EU usměrňovat její použití a jasně definovat související odpovědnosti. |
3.2. |
Důvěra v umělou inteligenci zaměřenou na člověka bude pramenit z potvrzení hodnot a zásad, zavedeného právního rámce a etických pokynů obsahujících základní podmínky. |
3.3. |
Z mnoha výzev spojených s umělou inteligencí by se měly ve spolupráci se všemi zúčastněnými stranami určit ty, na něž bude potřeba reagovat prostřednictvím regulačních a legislativních opatření a souvisejících regulačních mechanismů sledování a v případě nedodržování prostřednictvím sankcí, a ty, na něž bude možné reagovat pomocí etických kodexů, samoregulace a dobrovolných závazků. EHSV je potěšen, že Komise převzala zásady, jimiž se původně sám zabýval, lituje však, že v této fázi nenavrhuje žádná specifická opatření k řešení legitimních obav ohledně práv spotřebitelů, bezpečnosti systémů a odpovědnosti. |
3.4. |
Systémy umělé inteligence musejí dodržovat platný regulační rámec, zejména pokud jde o ochranu osobních údajů, odpovědnost za výrobky, ochranu spotřebitele, nepřípustnost diskriminace, odborné kvalifikace a informování pracovníků na pracovišti a konzultace s nimi. Mělo by se zajistit, aby tyto právní předpisy byly přizpůsobeny novým výzvám souvisejícím s digitalizací a umělou inteligencí. |
3.5. |
Komise poukazuje na to, že „zavedeny by měly být také systémy posuzování a odstraňování potenciálních rizik spojených s používáním systémů umělé inteligence v nejrůznějších oblastech užití“ (6). EHSV přikládá zásadní význam budoucím způsobům tohoto posuzování a vytvoření ukazatelů, které by při něm bylo možné zohlednit. Návrh kontrolního seznamu, který sestavila odborná skupina na vysoké úrovni, představuje východisko pro spuštění tohoto procesu. |
3.6. |
To se týká i otázky spravedlivého rozdělení očekávané přidané hodnoty systémů umělé inteligence. EHSV se domnívá, že ze změn k lepšímu, které přináší umělá inteligence v oblasti hospodářského rozvoje, udržitelnosti procesu výroby a spotřeby (zejména energie) a lepšího využívání zdrojů, musejí mít prospěch všechny země a všichni jejich občané. |
4. Konkrétní připomínky
4.1. Lidský faktor a dohled
4.1.1. |
Komise chce zajistit, aby používání systémů umělé inteligence nijak neohrožovalo lidskou nezávislost a nemělo nepříznivé účinky. EHSV souhlasí s tímto postojem, tedy ovládáním strojů člověkem, což již uvedl v dřívějších stanoviscích. |
4.1.2. |
K tomu je rovněž zapotřebí, aby byli občané řádně informováni o používání systémů umělé inteligence, aby tyto systémy byly vysvětlitelné nebo, pokud to nebude možné (např. v případě „hlubokého učení“), aby byly uživatelům předány informace o jejich omezeních a rizicích. Občané by v každém případě měli mít možnost rozhodnout se jinak než systém umělé inteligence. |
4.1.3. |
V podnicích a orgánech veřejné správy by měli být zaměstnanci a jejich zástupci řádně informováni a konzultováni při zavádění systémů umělé inteligence, které mohou změnit organizaci práce a mít na ně vliv, pokud jde o kontrolu, dohled, hodnocení a nábor. Komise musí podporovat sociální dialog s cílem zapojit zaměstnance do používání systémů umělé inteligence. |
4.1.4. |
Co se týče lidských zdrojů, měla by se zvláštní pozornost věnovat rizikům zneužívání systémů umělé inteligence, jako je např. neomezené sledování, shromažďování osobních údajů zahrnujících zdravotní údaje či sdílení těchto údajů s třetími stranami, a novým rizikům týkajícím se bezpečnosti a ochrany zdraví při práci (7). Musejí se stanovit jasné normy, jejichž cílem bude zabránit tomu, aby spolupráce člověka a stroje poškozovala člověka. Norma Mezinárodní organizace pro normalizaci (ISO) týkající se kolaborativních robotů (8), jež je určena výrobcům, integrátorům a uživatelům, definuje pokyny pro návrh a organizaci pracovního prostředí a snižování rizik, jimž mohou být lidé vystaveni. Zaměstnanci by měli být proškoleni ohledně využívání umělé inteligence a robotiky, práce s nimi a zejména jejich zastavení v případě naléhavé nutnosti (zásada záchranné brzdy – „emergency brake“). |
4.2. Technická spolehlivost a bezpečnost
4.2.1. |
EHSV požaduje, aby byly zavedeny evropské bezpečnostní normy a byl vyvinut spolehlivý systém osvědčování založený na postupech testování, které by podnikům umožnily potvrdit spolehlivost jejich systémů umělé inteligence. EHSV by rovněž rád zdůraznil význam otázky pojistitelnosti systémů umělé inteligence. |
4.2.2. |
Komise se málo zabývá aspektem předvídání, prevence a zákazu zneužívání umělé inteligence a strojového učení, před nímž varuje mnoho výzkumných pracovníků (9). Jejich doporučení by bylo vhodné zohlednit, zejména ta, která se týkají dvojího užití těchto technologií, jež může mít dopad na digitální bezpečnost (nárůst kybernetických útoků, zneužívání lidských slabin a slabin umělé inteligence, „data poisoning“), fyzickou bezpečnost (pirátství autonomních systémů včetně samořízených vozidel, drony a automatické zbraně) či politickou bezpečnost (hromadný sběr osobních údajů, cílená propaganda, manipulace videozáznamů atd.). Výzkumní pracovníci, inženýři a veřejné orgány by měli úzce spolupracovat, aby se těmto rizikům předcházelo. Experti a další zúčastněné strany, např. uživatelé a spotřebitelé, musejí být zapojeni do diskusí o těchto výzvách. |
4.3. Ochrana soukromí a správa dat
4.3.1. |
Komise požaduje, aby byl přístup k datům „adekvátně řízen a kontrolován“ (10). EHSV se domnívá, že je nutné jít nad rámec obecných prohlášení. Míra důvěry, již občan vkládá do systémů umělé inteligence, rozhodne rovněž o jejich rozvoji. Otázky vlastnictví dat, kontroly nad nimi a jejich využívání podniky a organizacemi je ještě z velké části potřeba regulovat. Zarážející je například objem dat, jež automobily předávají konstruktérům, a také jejich typ (11). Navzdory koncepci „privacy by design“ (ochrana soukromí již od návrhu), již by měla propojená zařízení v souladu s obecným nařízením o ochraně osobních údajů respektovat, lze konstatovat, že spotřebitelé mají velmi málo informací k tomuto tématu, či dokonce nemají žádné informace, a že tyto údaje nemohou nijak kontrolovat. EHSV proto naléhá na Komisi, aby s ohledem na technologický vývoj přezkoumala obecné nařízení o ochraně osobních údajů a související předpisy (12). |
4.4. Transparentnost
4.4.1. |
EHSV se domnívá, že vysvětlitelnost algoritmických rozhodovacích procesů sice nemá zásadní význam pro pochopení mechanismů jako takových, ale pro pochopení logiky těchto procesů a způsobu, jakým jsou tyto procesy ovlivňovány systémy umělé inteligence, zásadní význam má. Vývoj standardních postupů testování pro systémy strojového učení představuje i nadále technickou výzvu a měl by být podpořen z nástrojů EU, jako je program Horizont Evropa. |
4.4.2. |
EHSV souhlasí s přístupem Komise, podle nějž musí být „systém umělé inteligence jako takový identifikovatelný, aby uživatelé věděli, že komunikují se systémem umělé inteligence“ (13), a to co se týče vztahu mezi pacientem a zdravotnickým personálem a profesionálních služeb spojených se zdravím a blahem občanů. EHSV rovněž klade důraz na skutečnost, že uživatelé či spotřebitelé musejí mít možnost být informováni o službách, které poskytují lidé. Mnoho systémů umělé inteligence ve skutečnosti obsahuje velké množství lidské práce, které je koncovým uživatelům často skryté (14). S touto otázkou je spojena výzva v podobě malé transparentnosti pro uživatele a spotřebitele služeb a rovněž v podobě určitého využívání skryté a neuznané práce. |
4.4.3. |
EHSV se dále domnívá, že by spotřebitelé měli být vždy informováni o zahrnutí systémů umělé inteligence do výrobků, které kupují, a že musejí mít vždy možnost získat přístup ke svým údajům a kontrolovat je. |
4.5. Diverzita, nediskriminace a spravedlnost
4.5.1. |
Rizika v podobě diskriminace jsou přítomna u některých aplikací umělé inteligence, které umožňují profilování občanů, uživatelů a spotřebitelů (např. za účelem náboru pracovníků, pronájmu nemovitostí, některých osobních služeb atd.). EU přijala soubor právních předpisů týkajících se rovného zacházení a nepřípustnosti diskriminace (15). Systémy umělé inteligence s nimi musejí být v souladu. Tyto právní předpisy se však musejí přizpůsobit a případně posílit (mj. pokud jde o dohled nad jejich dodržováním), aby mohly reagovat na novou realitu. Existuje totiž reálné riziko toho, že se algoritmické profilování stane novým mocným nástrojem diskriminace. EU musí tomuto riziku předejít. |
4.5.2. |
Směrnice proti rasismu (16) a směrnice o rovném zacházení s ženami a muži mimo zaměstnání (17) počítají se zřízením zvláštních orgánů příslušných pro podporu genderové rovnosti. EHSV je zastáncem toho, aby tyto orgány hrály aktivní úlohu ve sledování a kontrole systémů umělé inteligence, pokud jde o rizika přímé či nepřímé diskriminace. |
4.6. Dobré sociální a environmentální podmínky
4.6.1. |
Komise nedefinuje přesné způsoby propojení přechodu souvisejícího s klimatem a digitální transformace, zejména v rámci využívání systémů umělé inteligence. Je zásadní, aby se zvážil přínos systémů umělé inteligence ke snižování emisí skleníkových plynů, a to zejména v průmyslu, dopravě, energetice, stavebnictví a zemědělství. |
4.6.2. |
Komise prohlašuje, že systémy umělé inteligence se sice dají použít ke zdokonalování sociálních dovedností, zrovna tak je ale mohou zhoršit. EHSV se domnívá, že EU musí více měřit rozsah určitých společenských výzev. Různé studie například prokázaly, že některé aplikace zahrnující systémy umělé inteligence jsou koncipovány tak, aby zajistily co nejdelší připojení uživatelů on-line služeb (sociální sítě, hry, videa atd.). Cílem je shromáždit co nejvíce dat o jejich chování, k čemuž se využívají strategie, které sahají od neustálého opakování algoritmických doporučení, přes hry až po připomínky a upozornění. Studovaly se dopady, jež má nadměrná doba připojení a nadměrné vyžadování pozornosti na děti (18), a výsledky prokázaly nárůst úzkosti a agrese, nedostatek spánku a dopad na vzdělávání, sociální vztahy, zdraví a blaho. Aby bylo možné vybudovat důvěryhodnou umělou inteligenci, musí EU tyto důsledky zohlednit a předcházet jim. |
4.6.3. |
Jedním z faktorů dobrých sociálních podmínek je pocit bezpečí na pracovišti. Důsledky digitalizace však mohou pocit bezpečí oslabovat a být zdrojem stresu (19). Proto je vhodné definovat strategie předjímání změn, než dojde k případné restrukturalizaci, a strategie dalšího vzdělávání všech pracovníků. To vyžaduje, aby se v podnicích vedl kvalitní sociální dialog mezi zaměstnavateli a zástupci zaměstnanců, jenž konkrétně umožní zavádět nové technologie, zvláště umělou inteligenci a robotiku, inkluzivním způsobem. K posílení důvěry mezi vedením a zaměstnanci je nutné, aby byly systémy umělé inteligence týkající se managementu, hodnocení a kontroly pracovníků vysvětlitelné, aby byly známy jejich parametry a aby jejich fungování bylo transparentní. |
4.7. Odpovědnost
4.7.1. |
Rozhodnutí, která přijímají systémy strojového učení, nemají jednoduchá vysvětlení a jsou navíc pravidelně aktualizována. EHSV se domnívá, že kontrola systémů umělé inteligence by nemusela postačovat ke stanovení odpovědnosti a vzbuzení důvěry. Proto doporučuje, aby byla stanovena pravidla, podle nichž se v případě pochybení přiřkne odpovědnost právním subjektům (fyzickým či právnickým osobám). EHSV doporučuje, aby se více spoléhalo na důvěryhodné podniky nebo odborníky než na algoritmy, a navrhuje tedy vytvořit pro podniky splňující všechny normy „evropské osvědčení pro důvěryhodné podniky v oblasti umělé inteligence“, které by vycházelo mj. z kontrolního seznamu, který sestavila skupina na vysoké úrovni. |
4.7.2. |
Směrnice o odpovědnosti za výrobky (20) zavádí zásadu objektivní odpovědnosti, která se vztahuje na evropské výrobce: pokud vadný výrobek způsobí spotřebiteli škodu, může nést výrobce odpovědnost, i když nepochybil nebo nic nezanedbal. Stále rozsáhlejší koncipování, zavádění a využívání systémů umělé inteligence vyžadují, aby EU přijala uzpůsobená pravidla pro stanovení odpovědnosti v případech, kdy mohou být produkty s digitálním obsahem a služby nabízené spotřebitelům nebezpečné nebo škodlivé. Spotřebitelům musí být umožněn přístup ke spravedlnosti, pokud jim nějaký systém umělé inteligence způsobí újmu. |
5. Potřeba regulace nad rámec Evropy
5.1. |
V globalizovaném světě by měla regulace umělé inteligence přesahovat evropské hranice. Evropa by měla podporovat širokou dohodu o umělé inteligenci v G7 a G20 a vést dvoustranné dialogy, aby se do procesu normalizace umělé inteligence a pravidelného ověřování její vhodnosti mohla zapojit většina zemí. |
V Bruselu dne 30. října 2019.
předseda
Evropského hospodářského a sociálního výboru
Luca JAHIER
(1) Úř. věst. L 440, 6.12.2018, s. 1.
(2) Úř. věst. C 288, 31.8.2017, s. 1; Úř. věst. C 440, 6.12.2018, s. 1.
(3) https://osha.europa.eu/fr/emerging-risks.
(4) Nařízení Evropského parlamentu a Rady (EU) 2016/679 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů a o volném pohybu těchto údajů a o zrušení směrnice 95/46/ES (obecné nařízení o ochraně osobních údajů) (Úř. věst. L 119, 4.5.2016, s. 1).
(5) COM(2019) 168 final.
(6) COM(2019) 168 final, s. 5.
(7) Viz zejména OSH and the future of work: benefits and risks of artificial intelligence tools in workplaces.
(8) ISO/TS 15066 (2016).
(9) Viz zpráva The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation (únor 2018).
(10) COM(2019) 168 final, s. 6.
(11) Your car knows when you gain weight, The New York Times (mezinárodní vydání), 22. 5. 2019.
(12) Úř. věst. C 190, 5.6.2019, s. 17.
(13) COM(2019) 168 final, s. 6.
(14) Viz např. A white-collar sweatshop: Google Assistant contractors allege wage theft, The Guardian, 29. 5.2019, a Bot technology impressive, except when it’s not the bot, The New York Times (mezinárodní vydání), 24. 5. 2019.
(15) Úř. věst. L 180, 19.7.2000, s. 22, Úř. věst. L 303, 2.12.2000, s. 16, Úř. věst. L 373, 21.12.2004, s. 37, Úř. věst. L 204, 26.7.2006, s. 23.
(16) Směrnice Rady 2000/43/ES ze dne 29. června 2000, kterou se zavádí zásada rovného zacházení s osobami bez ohledu na jejich rasu nebo etnický původ (Úř. věst. L 180, 19.7.2000, s. 22).
(17) Směrnice Rady 2004/113/ES ze dne 13. prosince 2004, kterou se zavádí zásada rovného zacházení s muži a ženami v přístupu ke zboží a službám a jejich poskytování (Úř. věst. L 373, 21.12.2004, s. 37).
(18) Viz zejména Kidron, Evans, Afia (2018), Disrupted Childhood – The Cost of Persuasive Design, 5Rights Foundation.
(19) Zpráva skupiny na vysoké úrovni pro dopad digitální transformace na trhy práce v EU (2019).
(20) Směrnice Rady ze dne 25. července 1985 o sbližování právních a správních předpisů členských států týkajících se odpovědnosti za vadné výrobky (Úř. věst. L 210, 7.8.1985, s. 29).