28.10.2020 |
CS |
Úřední věstník Evropské unie |
C 364/87 |
Stanovisko Evropského hospodářského a sociálního výboru „Bílá kniha o umělé inteligenci: evropský přístup k excelenci a důvěře“
(COM(2020) 65 final)
(2020/C 364/12)
Zpravodajka: |
Catelijne MULLER |
Žádost o vypracování stanoviska |
Komise, 9.3.2020 |
Právní základ |
článek 304 Smlouvy o fungování Evropské unie |
Odpovědná sekce |
Jednotný trh, výroba a spotřeba |
Přijato v sekci |
25.6.2020 |
Přijato na plenárním zasedání |
16.7.2020 |
Plenární zasedání č. |
553 |
Výsledek hlasování (pro/proti/zdrželi se hlasování) |
207/0/6 |
1. Závěry a doporučení
1.1 |
EHSV gratuluje Komisi za její strategii představenou v Bílé knize o umělé inteligenci, která má podpořit využívání technologií umělé inteligence a zároveň zajistit jejich soulad s evropskými etickými normami, právními požadavky a sociálními hodnotami. |
1.2 |
EHSV rovněž vítá, že jedním z cílů je kapitalizovat silné stránky Evropy na průmyslových a profesionálních trzích, a zdůrazňuje, že je důležité posílit investice, infrastrukturu, inovace a dovednosti, aby podniky, včetně malých a středních, a společnost jako celek mohly využít příležitostí umělé inteligence. Je třeba podporovat inovace v oblasti umělé inteligence, aby se maximalizovaly přínosy systémů umělé inteligence, ale zároveň se předcházelo jejich rizikům a tato rizika se minimalizovala. |
1.3 |
Domnívá se však, že má-li se EU ujmout skutečného vedení v oblasti špičkové, důvěryhodné a konkurenceschopné umělé inteligence (UI), je zaměření na UI založenou na datech příliš úzké. EHSV žádá Komisi, aby podporovala také novou generaci systémů UI, které jsou založeny na znalostech a na uvažování a které se řídí lidskými hodnotami a zásadami. |
1.4 |
EHSV vyzývá Komisi k tomu, aby: i) podporovala multidisciplinaritu ve výzkumu a otevřela ho dalším disciplínám, jako je právo, etika, filosofie, psychologie, pracovní vědy, humanitní vědy, ekonomie aj.; ii) k debatě o UI přizvala příslušné zainteresované strany (odbory, profesní organizace, organizace podnikatelů, organizace spotřebitelů, nevládní organizace) a zapojila je jako rovnocenné partnery do výzkumu financovaného EU a dalších projektů, jako jsou partnerství veřejného a soukromého sektoru v oblasti UI, odvětvové dialogy, program na zavádění UI ve veřejném sektoru a průkopnické centrum, a iii) pokračovala ve vzdělávání a informování širší veřejnosti o příležitostech a výzvách spojených s UI. |
1.5 |
EHSV naléhavě žádá Komisi, aby důkladněji zvážila dopady UI na celé spektrum základních práv a svobod, včetně práva na spravedlivý proces, na spravedlivé a otevřené volby, na shromažďování a demonstrace, jakož i práva na nediskriminaci. |
1.6 |
EHSV se i nadále staví proti zavedení jakékoli formy právní subjektivity UI. Preventivně nápravné působení právních předpisů týkajících se odpovědnosti by tím pozbylo působnosti a jak v případě vývoje, tak v případě použití UI, které by vytvářelo příležitosti k jejímu zneužití, by vzniklo závažné morální riziko. |
1.7 |
Spíše než předchozí jednorázové (ale i pravidelně opakované) posouzení souladu vysoce rizikové UI se stanovenými požadavky EHSV požaduje, aby se uplatňoval trvalý a soustavný společensko-technický přístup, který umožní sledovat tuto technologii ze všech perspektiv a různou optikou. |
1.8 |
EHSV upozorňuje, že při uplatnění kritéria „vysoce rizikového“ odvětví by mohla zůstat stranou řada aplikací a způsobů použití UI, které jsou ze své podstaty vysoce rizikové a mezi něž patří nejen biometrické rozpoznávání a využívání UI pro účely náboru. EHSV doporučuje, aby Komise sestavila seznam společných rysů aplikací UI nebo způsobů jejího použití, které jsou vysoce rizikové ze své podstaty, bez ohledu na odvětví. |
1.9 |
EHSV důrazně navrhuje, aby jakékoli použití biometrického rozpoznávání bylo povoleno pouze: i) pokud má nějaký vědecky prokázaný účinek, ii) v kontrolovaném prostředí a iii) za přísných podmínek. Plošné používání biometrického rozpoznávání řízeného UI pro účely dohledu nebo sledování, vyhodnocování nebo kategorizace lidí či lidského chování nebo emocí by mělo být zakázáno. |
1.10 |
EHSV proto zastává názor, že by mělo v souladu s příslušnými vnitrostátními pravidly a postupy dojít ke včasnému a úzkému zapojení sociálních partnerů při zavádění systémů UI na pracovištích, aby bylo zajištěno, že systémy budou použitelné a že budou v souladu s právy pracovníků a pracovními podmínkami. |
1.11 |
EHSV rovněž zastává názor, že by při zavádění systémů UI měli být včas a úzce zapojeni zaměstnanci, kteří s nimi budou nakonec pracovat, ale také zaměstnanci s právní, etickou a humanitní kvalifikací, aby se zajistilo, že tyto systémy budou v souladu s právem a etickými požadavky i s potřebami pracovníků, aby si pracovníci zachovali samostatnost, pokud jde o jejich práci a systémy UI, které zvyšují dovednosti pracovníků a jejich uspokojení z práce. |
1.12 |
Techniky a postupy využívající UI k boji proti pandemii COVID-19 by měly být spolehlivé, účinné, transparentní a vysvětlitelné. Měly by také respektovat lidská práva, etické zásady a stávající právní předpisy a být spravedlivé, inkluzivní a dobrovolné. |
1.13 |
EHSV vyzývá Komisi, aby se ujala vedoucí úlohy, a tak v Evropě zajistila lepší koordinaci aplikovaných řešení a přístupů v oblasti UI použitých k boji proti pandemii COVID-19. |
2. Bílá kniha EU o umělé inteligenci
2.1 |
EHSV bere s potěšením na vědomí, že Evropská komise přijímá mnohá doporučení z předchozích stanovisek EHSV a skupiny odborníků na vysoké úrovni pro UI, podporuje využívání technologií UI, ale zároveň dbá o zajištění jejich souladu s evropskými etickými normami, právními požadavky a sociálními hodnotami na základě „ekosystému excelence a důvěry“. |
2.2 |
EHSV vítá návrhy zaměřené na podniky, včetně malých a středních, a společnost jako celek využívající příležitosti k rozvoji a užití UI. EHSV zdůrazňuje, že je důležité posílit investice, infrastrukturu, inovace a dovednosti, aby se zlepšila úspěšnost EU v rámci celosvětové hospodářské soutěže. |
Přístup založený na lidském velení (human-in-command)
2.3 |
Bílá kniha má nicméně také mírně „fatalistické“ ladění: naznačuje, že UI „nás přemáhá“ a že nemáme jinou možnost než regulovat její používání. EHSV je pevně přesvědčen o závazku EU zajistit, aby Evropa přijímala pouze důvěryhodnou umělou inteligenci, a proto by se měla odvážit zaujmout v této otázce mnohem pevnější postoj. EHSV tedy naléhavě žádá Komisi, aby vždy ponechala otevřenou možnost, že daný druh (nebo způsob použití) UI nebude přijat. To je to, co EHSV ve vztahu k UI nazývá přístupem založeným na lidském velení (human-in-command), který musíme prosazovat. |
Využívání výhod UI v Evropě – definice zaměřená do budoucnosti
2.4 |
Jako pracovní definici umělé inteligence bílá kniha uvádí „soubor technologií, které kombinují data, algoritmy a výpočetní výkon“. V její další části jsou data a algoritmy definovány jako hlavní prvky UI. Tato definice by však mohla platit pro jakýkoli software, který byl kdy napsán, tedy nejen pro UI. Žádná všeobecně přijímaná definice UI, což je obecný pojem pro celou řadu počítačových aplikací, dosud neexistuje. |
2.5 |
Zaměření bílé knihy na UI založenou na datech je nicméně příliš úzké na to, aby Evropské unii umožnilo získat skutečně vůdčí postavení v oblasti špičkové, důvěryhodné a konkurenceschopné UI. Mnoho slibných systémů UI tak bílá kniha vylučuje jako předmět úvah, a tedy i řízení a regulace. EHSV žádá Komisi, aby podporovala i novou generaci systémů UI, které spojují přístupy založené na datech s přístupy založenými na znalostech a na uvažování, tzv. hybridními systémy. Bílá kniha uznává potřebu hybridních systémů pro účely vysvětlitelnosti, ale hybridní systémy mají i další přednosti: mohou urychlit a/nebo omezit učení, prokazovat platnost a ověřovat model strojového učení. |
2.6 |
Bílá kniha se zaměřuje pouze na zkreslení vznikající na základě údajů, ale ne všechna zkreslení jsou důsledkem nízké kvality nebo omezeného množství údajů. Návrh každého artefaktu je sám o sobě řadou předpojatých rozhodnutí, od rozhodnutí týkajících se zvažovaných vstupů až po cíle, pro které jsou optimalizovány. Všechna tato rozhodnutí jsou tak či onak určena vlastními předpojatostmi osoby či osob, které daná rozhodnutí činí. |
2.7 |
Nejdůležitější však je, že systémy UI jsou více než jen součtem svých softwarových součástí. Systémy UI zahrnují rovněž sociotechnický systém, který je obklopuje. Při uvažování o správě a regulaci UI by tedy měl být kladen důraz také na související sociální struktury: organizace a podniky, různé profese, osoby a instituce, které vytvářejí, vyvíjejí, zavádějí, používají a řídí UI, a osoby, které jsou její činností dotčeny, jako jsou občané ve svých vztazích ke státním orgánům, podniky, spotřebitelé, pracovníci a dokonce i společnost jako celek. |
2.8 |
Je třeba také poznamenat, že právní definice (pro účely správy a regulace) se liší od čistě vědeckých definic, protože musí splňovat řadu různých požadavků, jako je inkluzivita, přesnost, stálost, komplexnost či použitelnost v praxi. Některé z těchto požadavků jsou právně závazné a některé jsou považovány za osvědčené regulační postupy. |
Spojování veškerých sil
2.9 |
EHSV vítá snahu řešit roztříštěnost evropského úsilí v oblasti UI propojováním výzkumných pracovníků zabývajících se UI, zaměřením na malé a střední podniky a vytvářením partnerství se soukromým a veřejným sektorem. EHSV by Komisi rovněž doporučoval, aby: i) podporovala multidisciplinaritu ve výzkumu a otevřela ho dalším disciplínám, jako je právo, etika, filosofie, psychologie, pracovní vědy, humanitní vědy, ekonomie aj.; ii) k debatě o UI přizvala příslušné zainteresované strany (odbory, organizace podnikatelů, organizace spotřebitelů, nevládní organizace) a zapojila je jako rovnocenné partnery do výzkumu financovaného EU a dalších projektů, jako jsou partnerství veřejného a soukromého sektoru v oblasti UI, odvětvové dialogy, program na zavádění UI ve veřejném sektoru a průkopnické centrum, a iii) pokračovala ve vzdělávání a informování širší veřejnosti o příležitostech a výzvách spojených s UI. |
Umělá inteligence a právo
2.10 |
Bílá kniha uznává, že UI nepůsobí ve světě bez zákonů. EHSV obzvláště vítá důraz na otázku důsledků UI pro základní práva a doporučuje, aby Komise ještě důkladněji zvážila dopady UI na širokou škálu základních práv a svobod, jako je svoboda slova a projevu a právo na respektování soukromého života (které se neomezuje pouze na ochranu osobních údajů), právo na spravedlivý proces, spravedlivé a otevřené volby, shromažďování a demonstrace, jakož i právo na nediskriminaci. |
2.11 |
EHSV vítá jasný postoj bílé knihy k otázce použitelnosti stávajících režimů odpovědnosti na UI a snahu stavět při zvládání nových rizik, která může UI vytvářet, na těchto režimech, řešit mezery v prosazování právních předpisů v případech, kdy je obtížné určit odpovědný hospodářský subjekt, a přizpůsobovat tyto režimy měnící se funkčnosti systémů UI. |
2.12 |
Komise by měla také uznat, že UI nebere ohled na hranice a že vynaložené úsilí nelze omezit na Evropu a že by tomu tak ani nemělo být. Mělo by být dosaženo celosvětové shody, která by vycházela z diskusí a zkoumání právních expertů a usilovala o vytvoření společného mezinárodního právního rámce. |
2.13 |
EHSV se v každém případě i nadále rozhodně staví proti zavedení jakékoli formy právní subjektivity UI. Preventivně nápravné působení právních předpisů týkajících se odpovědnosti by tím pozbylo působnosti a jak v případě vývoje, tak v případě použití UI, které by vytvářelo příležitosti k jejímu zneužití, by vzniklo závažné morální riziko. |
Regulace vysoce rizikové umělé inteligence
2.14 |
EHSV vítá přístup ke kontrole dopadu UI založený na posouzení rizik. Komise ohlásila vytvoření regulačního rámce pro „vysoce rizikovou UI“, který by měl splňovat požadavky týkající se spolehlivosti, přesnosti, reprodukovatelnosti, transparentnosti, lidského dohledu a správy údajů. O vysoce rizikovou UI se podle bílé knihy jedná tehdy, kdy jsou splněny dvě kumulativní podmínky: i) vysoce rizikový sektor a ii) vysoce rizikový způsob použití aplikace UI. Bílá kniha uvádí dva příklady aplikací UI nebo způsobů použití, které by ze své podstaty, tj. bez ohledu na odvětví, mohly být považovány za vysoce rizikové. Jako aplikaci, která je vysoce riziková ze své podstaty, označuje také biometrické rozpoznávání. Úplný seznam vysoce rizikových odvětví (který je pravidelně přezkoumáván) zahrnuje v současné době následující odvětví, která jsou potenciálně vysoce riziková: zdravotnictví, doprava, energetika a některé oblasti veřejného sektoru. |
2.15 |
Druhé kritérium, tedy že aplikace UI je používána rizikovým způsobem, je volnější, z čehož je možné soudit, že lze uvažovat o různých stupních rizikovosti. EHSV navrhuje, aby mezi oblasti dopadu byly doplněny společnost a životní prostředí. |
2.16 |
Vysoce riziková aplikace UI používaná v nízkorizikovém odvětví podle logiky bílé knihy do působnosti tohoto regulačního rámec v zásadě nespadá. EHSV zdůrazňuje, že v případě nežádoucích nepříznivých účinků vysoce rizikové UI používané v nízkorizikovém odvětví by mohly některé aplikace nebo způsoby použití UI zůstat bez regulace, což by mohlo umožnit obcházení pravidel. Příkladem může být cílená reklama (nízkorizikový sektor), která může mít, jak bylo prokázáno, segregační, diskriminační a rozdělující účinky, například v rámci voleb nebo personalizované tvorby cen (vysoce rizikový způsob použití nebo efekt). EHSV doporučuje sepsat společné rysy aplikací UI a způsobů jejího použití, které jsou vysoce rizikové ze své podstaty, bez ohledu na odvětví, ve kterém se používají. |
2.17 |
EHSV uznává, že je nutné prověřovat soulad UI se stanovenými požadavky, obává se nicméně, že jednorázové (ale i pravidelně opakované) předchozí posouzení shody nebude dostatečnou zárukou důvěryhodného a antropocentrického vývoje, zavádění a udržitelného používání UI. UI může být důvěryhodná jen za předpokladu trvalého a soustavného společensko-technického přístupu, který umožní sledovat tuto technologii ze všech perspektiv a různou optikou. Pro vytváření koncepce politiky z toho vyplývá požadavek multidisciplinárního přístupu, který umožní nepřetržitou spolupráci tvůrců politik, akademiků z různých oborů, sociálních partnerů, profesních organizací, odborníků, podniků a nevládních organizací. Zejména v případě služeb veřejného zájmu týkajících se zdraví, bezpečnosti a dobrých životních podmínek lidí a založených na důvěře musí být zaručeno, že systémy UI budou přizpůsobeny praktickým požadavkům a nebude možné, aby měly větší váhu než odpovědnost lidí. |
Biometrické rozpoznávání
2.18 |
EHSV vítá výzvu Komise k zahájení veřejné diskuse o používání biometrického rozpoznávání za pomoci UI. Biometrické rozpoznávání podle mimiky, chůze, (tónu) hlasu, srdeční frekvence, teploty atd. se již nyní používá k posuzování, nebo dokonce předpovídání našeho chování, duševního stavu a emocí, mimo jiné ve výběrových řízeních. Je třeba velmi jasně říci, že neexistují žádné vědecké důkazy o tom, že vnitřní emoce nebo duševní stav člověka lze přesně „vyčíst“ z jeho výrazu tváře, chůze, srdeční frekvence, tónu hlasu nebo teploty, natož aby podle něčeho takového bylo možné předvídat jeho budoucí chování. |
2.19 |
Je třeba také poznamenat, že GDPR omezuje zpracovávání biometrických údajů pouze do určité míry. V GDPR jsou biometrické údaje definovány jako „osobní údaje vyplývající z konkrétního technického zpracování týkající se fyzických či fyziologických znaků nebo znaků chování fyzické osoby, které umožňuje nebo potvrzuje jedinečnou identifikaci“. Mnohé technologie biometrického rozpoznávání však nejsou koncipovány tak, aby umožňovaly jedinečně identifikovat určitou osobu, nýbrž pouze tak, aby umožňovaly posuzovat její chování nebo emoce. Tyto způsoby použití UI nemusejí spadat pod definici biometrických údajů (zpracování) ve smyslu GDPR. |
2.20 |
Biometrické rozpoznávání řízené umělou inteligencí se také dotýká našeho obecného práva na respektování soukromého života, identity, autonomie a psychické integrity, protože vytváří situaci, kdy jsme (neustále) pozorováni, sledováni a identifikováni. Taková situace může mít v psychologickém smyslu „odrazující účinek“, protože lidé mohou mít sklon přizpůsobovat své chování určité normě. To představuje zásah do našeho základního práva na soukromí (morální a psychická integrita). Biometrické rozpoznávání řízené umělou inteligencí by navíc mohlo mít vliv i na další základní práva a svobody, jako je svoboda shromažďování a právo na nediskriminaci. |
2.21 |
EHSV doporučuje, aby jakékoli využívání biometrického rozpoznávání bylo povoleno pouze tehdy, pokud má nějaký vědecky prokázaný účinek, v kontrolovaném prostředí a za přísných podmínek. Plošné používání biometrického rozpoznávání řízeného umělou inteligencí pro účely dohledu nebo sledování, vyhodnocování nebo kategorizace lidí či lidského chování nebo emocí by povoleno být nemělo. |
Dopady umělé inteligence na práci a dovednosti
2.22 |
EHSV konstatuje, že v bílé knize chybí strategie, jak řešit dopady UI na práci, třebaže toto téma bylo výslovnou součástí evropské strategie pro umělou inteligenci z roku 2018. |
2.23 |
EHSV je pro včasné a úzké zapojení pracovníků a poskytovatelů služeb všech typů, včetně osob vykonávajících svobodná povolání, osob samostatně výdělečně činných a zakázkových pracovníků – tedy nejen těch, kdo navrhují nebo vyvíjejí UI, ale také těch, kdo kupují či zavádějí systémy UI, pracují s nimi nebo jsou těmito systémy ovlivňováni. Před zavedením technologií UI na pracovišti musí v souladu s příslušnými vnitrostátními pravidly a postupy proběhnout sociální dialog. Přístup k údajům pracovníka a jejich správa na pracovišti by se měly řídit zásadami a předpisy, které vyjednali sociální partneři. |
2.24 |
EHSV chce upozornit obzvláště na využívání UI v souvislosti s přijímáním, propouštěním, posuzováním a hodnocením pracovníků. V bílé knize je UI využívaná při náboru pracovníků uvedena jako příklad vysoce rizikové aplikace, která by podléhala regulaci bez ohledu na odvětví. EHSV doporučuje rozšířit tuto oblast využití tak, aby zahrnovala i UI používanou v souvislosti s propouštěním, posuzováním a hodnocením pracovníků, ale také prozkoumat společné rysy aplikací UI, jež by na pracovišti, bez ohledu na odvětví, znamenaly při použití vysoké riziko. V pracovním prostředí by neměly být povoleny aplikace UI, které nemají vědecké opodstatnění, jako jsou například aplikace pro detekci emocí na základě biometrického rozpoznávání. |
2.25 |
S ohledem na to, aby se lidé mohli rychlému vývoji v oblasti UI přizpůsobit, je nezbytné udržovat nebo získávat dovednosti v oblasti UI. Bude proto také zapotřebí politických opatření a finančních prostředků, jejichž cílem bude vzdělávání a rozvoj dovedností v oblastech, které nebudou ohroženy systémy UI (tzn. tam, kde se jedná o úkoly vyžadující lidskou interakci, jako jsou služby veřejného zájmu týkající se zdraví, bezpečnosti a dobrých životních podmínek lidí a založené na důvěře, součinnost lidí a strojů nebo úkoly, jejichž vykonávání bychom i nadále raději svěřovali lidem). |
3. Umělá inteligence a koronavirus
3.1 |
UI může přispět k lepšímu porozumění koronaviru a onemocnění COVID-19 a také ochránit lidi před expozicí, pomoci s nalezením vakcíny a zkoumat možnosti léčby. Je nicméně důležité být otevřený a mít jasný názor, pokud jde o to, co umělá inteligence může a co nemůže dělat. |
3.2 |
Spolehlivost a účinnost: využití UI založené na údajích k predikci šíření koronavirové nákazy je potenciálně problematické, protože o koronaviru je známo příliš málo údajů na to, aby UI přinášela spolehlivé výsledky. Údaje, které jsou k dispozici, jsou navíc neúplné a zkreslené. Použití těchto údajů pro strojové učení by mohlo vést k mnoha falešně negativním a falešně pozitivním výstupům. |
3.3 |
Zcela zásadní je transparentnost údajů a použitých modelů a vysvětlitelnost výstupů. Obzvláště v této chvíli si svět nemůže dovolit přijímat rozhodnutí založená na „černých skříňkách“. |
3.4 |
Při využívání UI v boji proti současné pandemii je dodržování lidských práv, etických zásad a stávajících právních předpisů důležitější než kdykoli předtím. Zejména v případech, kdy nástroje UI mohou vést k porušování lidských práv, musí existovat legitimní zájem na jejich použití, které musí být zcela nezbytné, přiměřené a především časově omezené. |
3.5 |
A konečně musíme dbát také o zajištění spravedlnosti a začlenění. Systémy UI vyvíjené pro účely boje s pandemií by neměly být předpojaté a diskriminační. Kromě toho by měly být dostupné všem a měly by zohledňovat společenské a kulturní rozdíly mezi jednotlivými dotčenými zeměmi. |
Aplikace pro sledování a zjišťování pohybu osob a monitorování jejich zdravotního stavu
3.6 |
Virologové a epidemiologové se domnívají, že pro otevření společnosti a hospodářství po omezení volného pohybu osob je nutné účinné sledování, trasování, monitorování a ochrana zdraví lidí. Momentálně se vyvíjí mnoho aplikací pro sledování, trasování a provádění zdravotních kontrol, což jsou činnosti, jež byly obvykle (a historicky) prováděny odborníky. Řada vlád po celém světě vkládá v tyto aplikace značnou důvěru, protože je chápe jako prostředek k obnovení normální života společnosti. |
3.7 |
Nasazení těchto druhů aplikací představuje velmi radikální krok. Předtím, než padne rozhodnutí o jejich používání, je proto důležité kriticky zkoumat užitečnost, nezbytnost a účinnost těchto aplikací, jakož i jejich společenské a právní dopady. Stále musí existovat možnost nepoužívat aplikace tohoto druhu a přednost by měla mít méně invazivní řešení. |
3.8 |
Nesmírně důležitá je otázka účinnosti a spolehlivosti aplikací pro sledování a zjišťování pohybu osob, protože neúčinné a nespolehlivé aplikace mohou vytvářet množství falešně pozitivních a falešně negativních výstupů, falešný pocit bezpečí, a tedy i větší riziko nákazy. První vědecké simulace vzbuzují vážné pochybnosti o tom, zda aplikace pro sledování pohybu osob budou mít vůbec nějaký pozitivní účinek zamezující šíření nákazy, a to i za předpokladu, že by takovou aplikaci používalo 80 % nebo 90 % obyvatel. Aplikace také nemůže registrovat zvláštní okolnosti, jako je například přítomnost plexiskla a oken nebo nošení osobních ochranných prostředků. |
3.9 |
Tyto aplikace vedou navíc k (částečnému) upozadění různých lidských práv a svobod, protože se dotýkají naší svobody shromažďování, práva na bezpečnost, práva na nediskriminaci a práva na soukromí. |
3.10 |
Soukromí je mnohem víc než jen naše osobní údaje a anonymita, jakkoli je obojí důležité. Je to i právo nebýt předmětem sledování, zaznamenávání a dohledu. Bylo vědecky dokázáno, že když lidé vědí, že jsou sledováni, začnou se chovat jinak. Podle Evropského soudu pro lidská práva je tento „odrazující účinek“ zásahem do našeho soukromí. Stejně široké pojetí soukromí by se mělo uplatňovat i v debatě o UI. |
3.11 |
Existuje riziko, že (v současnosti nebo v budoucnu) shromažďovaná data budou použita nejen k boji proti současné pandemii, ale také k profilování, kategorizaci a hodnocení lidí pro různé jiné účely. Lze si dokonce představit, že ve vzdálenější budoucnosti by na základě „rozšíření o neplánované funkce“ mohlo docházet k nežádoucímu profilování pro účely supervize a dohledu, způsobilosti k uzavření pojistky nebo poskytování sociálních dávek, najímání nebo propouštění atd. Údaje shromažďované pomocí aplikací tohoto druhu nesmí být proto za žádných okolností využívány k profilování, hodnocení rizika, klasifikaci nebo predikci. |
3.12 |
Každé řešení využívající UI, i když bude použito za mimořádných okolností a s nejlepšími úmysly, vytvoří navíc určitý precedens, ať se nám to líbí, nebo ne. Předchozí krize ukázaly, že navzdory všem dobrým úmyslům taková opatření v praxi nikdy nezmizí. |
3.13 |
Využití UI během této pandemie by proto mělo být vždy poměřováno a zvažováno z několika různých hledisek, mj. z hlediska toho, zda: i) je účinné a spolehlivé, ii) neexistují méně invazivní řešení, iii) jeho přínosy mají větší váhu nežli obavy týkající se společenských, etických a základních práv a iv) lze dosáhnout zodpovědného kompromisu mezi základními právy a svobodami, které se dostávají do střetu. Zavádění takových systémů nesmí být navíc povinné či vynucené. |
3.14 |
EHSV naléhavě žádá tvůrce politik, aby se neukvapovali a nepodléhali technokratickému optimismu. Vzhledem k závažnosti situace doporučujeme, aby aplikace spojené s projekty, které mají pomoci zvládat pandemii, byly založeny na řádném výzkumu v oblasti epidemiologie, sociologie, psychologie, práva, etiky a systemických věd. Předtím, než bude rozhodnuto o použití těchto systémů, je třeba provést analýzu jejich účinnosti, nutnosti a citlivosti a simulace. |
V Bruselu dne 16. července 2020.
předseda Evropského hospodářského a sociálního výboru
Luca JAHIER