INT/940
Umělá inteligence / nařízení
STANOVISKO
sekce Jednotný trh, výroba a spotřeba
Návrh nařízení Evropského parlamentu a Rady, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci (akt o umělé inteligenci) a mění určité legislativní akty Unie
[COM(2021) 206 final – 2021/106 (COD)]
Zpravodajka: Catelijne MULLER
Žádost o vypracování stanoviska
|
Evropský parlament, 07/06/2021
|
|
Rada, 15/06/2021
|
Právní základ
|
článek 114 Smlouvy o fungování Evropské unie
|
|
|
Odpovědná sekce
|
Jednotný trh, výroba a spotřeba
|
Přijato v sekci
|
02/09/2021
|
Přijato na plenárním zasedání
|
DD/MM/YYYY
|
Plenární zasedání č.
|
…
|
Výsledek hlasování
(pro/proti/zdrželi se hlasování)
|
…/…/…
|
1.Závěry a doporučení
1.1Evropský hospodářský a sociální výbor (EHSV) vítá skutečnost, že návrh aktu o umělé inteligenci, který předložila Komise, se zabývá nejen riziky spojenými s umělou inteligencí, ale podstatně zvyšuje laťku, pokud jde o kvalitu, výkon a důvěryhodnost umělé inteligence, kterou je EU ochotna povolit. EHSV je obzvláště potěšen, že ústředním bodem aktu o umělé inteligenci je zdraví, bezpečnost a základní práva a že má tento akt celosvětový dosah.
1.2EHSV vidí oblasti, které je třeba vylepšit, pokud jde o rozsah, definici a jasnost zakázaných postupů v oblasti umělé inteligence, důsledky možnosti kategorizace provedené ve vztahu k „pyramidě rizika“, riziko zmírňující dopad požadavků na vysoce rizikovou umělou inteligenci, vymahatelnost aktu o umělé inteligenci a vztah ke stávající regulaci a dalším novým regulačním návrhům.
1.3EHSV zdůrazňuje, že umělá inteligence nikdy nepůsobila ve světě, kde neplatí žádné zákony. Díky své široké oblasti působnosti a nadřazenému postavení jako nařízení EU by mohl akt o umělé inteligenci vytvářet napětí, pokud jde o stávající vnitrostátní a unijní právní předpisy a související návrhy právních předpisů. EHSV doporučuje změnit 41. bod odůvodnění tak, aby byly náležitě zohledněny a vyjasněny vztahy mezi aktem o umělé inteligenci a stávajícími a budoucími právními předpisy.
1.4EHSV doporučuje, aby byla vyjasněna definice umělé inteligence odstraněním přílohy I a aby byl mírně upraven článek 3 a byla rozšířena působnost aktu o umělé inteligenci tak, aby se vztahoval i na „starší systémy umělé inteligence“ a systémy UI, které jsou součástí rozsáhlých informačních systémů v prostoru svobody, bezpečnosti a práva uvedených v příloze IX.
1.5EHSV doporučuje vyjasnit zákazy týkající se „podprahových technik“ a „zneužívání zranitelnosti“, aby byl zohledněn zákaz škodlivé manipulace, a rovněž přidat „porušování základních práv, demokracie a právního státu“ jako podmínky pro tyto zákazy.
1.6Podle EHSV v EU nelze klasifikovat důvěryhodnost občanů EU na základě jejich sociálního chování nebo osobnostních charakteristik, a to bez ohledu na to, kdo tuto klasifikaci provádí. EHSV doporučuje rozšířit oblast působnosti tohoto zákazu tak, aby zahrnoval přidělování sociálního kreditu ze strany soukromých organizací a poloveřejných orgánů.
1.7EHSV požaduje zákaz používání umělé inteligence k automatickému biometrickému rozpoznávání ve veřejně a soukromě přístupných prostorech, kromě za účelem ověřování ve specifických případech, a také k automatickému rozpoznávání lidských behaviorálních signálů ve veřejně a soukromě přístupných prostorech, s výjimkou velmi specifických případů, jako jsou některé zdravotní účely, kde může být rozpoznání emocí pacienta cenné.
1.8Přístup k vysoce rizikové umělé inteligenci, jenž vychází ze seznamu, představuje riziko normalizace a začleňování řady systémů umělé inteligence a způsobů jejího použití, které jsou stále silně kritizovány. EHSV varuje, že dodržování požadavků stanovených pro středně a vysoce rizikovou umělou inteligenci nemusí nutně snižovat riziko újmy na zdraví, bezpečnosti a základních právech pro veškerou vysoce rizikovou umělou inteligenci. EHSV doporučuje, aby akt o umělé inteligenci tuto situaci upravil. Přinejmenším by měly být doplněny požadavky Etických pokynů pro zajištění důvěryhodnosti UI ohledně i) lidského faktoru, ii) soukromí, iii) diverzity, nediskriminace a spravedlnosti, iv) vysvětlitelnosti a v) dobrých environmentálních a sociálních podmínek.
1.9V souladu se svým dlouhodobě prosazovaným přístupem „člověka ve velení“ k umělé inteligenci EHSV důrazně doporučuje, aby akt o umělé inteligenci stanovil, že určitá rozhodnutí zůstanou výsadou člověka, zejména v oblastech, kde tato rozhodnutí obsahují morální složku a mají právní důsledky nebo společenský dopad, například v soudnictví, prosazování práva, sociálních službách, zdravotní péči, bydlení, finančních službách, pracovněprávních vztazích a vzdělávání.
1.10EHSV doporučuje, aby bylo posuzování shody třetích stran povinné pro veškerou vysoce rizikovou umělou inteligenci.
1.11EHSV doporučuje zahrnout mechanismus pro vyřizování stížností a zjednávání nápravy pro organizace a občany, kteří utrpěli újmu ze strany jakéhokoli systému umělé inteligence, praxí nebo používáním umělé inteligence, které spadají do působnosti aktu o umělé inteligenci.
2.Regulační návrh týkající se umělé inteligence - akt o umělé inteligenci
2.1EHSV vítá skutečnost, že návrh aktu o umělé inteligenci, který předložila Komise, se zabývá nejen riziky spojenými s umělou inteligencí, ale podstatně zvyšuje laťku, pokud jde o kvalitu, výkon a důvěryhodnost umělé inteligence, kterou je EU ochotna povolit.
3.Zastřešující komentáře – akt o umělé inteligenci
Cíl a oblast působnosti
3.1EHSV vítá cíl i oblast působnosti aktu o umělé inteligenci. EHSV obzvláště vítá skutečnost, že ústředním bodem aktu o umělé inteligenci předloženého Komisí je zdraví, bezpečnost a základní práva. EHSV rovněž vítá vnější účinek aktu o umělé inteligenci, který zajišťuje, že umělá inteligence vyvíjená mimo EU musí splňovat stejné právní normy, pokud je použita nebo pokud má dopad v EU.
Definice umělé inteligence
3.2Definice umělé inteligence (čl. 3 odst. 1 ve spojení s přílohou I aktu o umělé inteligenci) vedla k diskusi mezi vědci zabývajícími se umělou inteligencí v tom smyslu, že řada příkladů uvedených v příloze I není těmito vědci považována za umělou inteligenci a řada důležitých technik umělé inteligence chybí. EHSV nevidí v příloze I žádnou přidanou hodnotu a doporučuje ji zcela vyjmout z aktu o umělé inteligenci. EHSV rovněž doporučuje změnit definici v čl. 3 odst. 1 takto:
„systémem umělé inteligence“ (systém UI) software, který může automatizovaným způsobem pro danou sadu cílů definovaných člověkem generovat výstupy, jako je například obsah, predikce, doporučení nebo rozhodnutí ovlivňující prostředí, s nimiž komunikuje;
Zdraví, bezpečnost a základní práva – pyramida rizik
3.3Stupňující se „pyramida rizik“ (od nízkého/středního rizika přes vysoké riziko až po nepřijatelné riziko) používaná ke kategorizaci řady obecných postupů v oblasti umělé inteligence a případy použití umělé inteligence specifické pro danou doménu uznává, že ne každá umělá inteligence představuje rizika a ne všechna rizika jsou stejná nebo vyžadují stejná zmírňující opatření.
3.4Zvolený přístup nám přináší dvě důležité otázky. Zaprvé, snižují zmírňující opatření (pro umělou inteligenci s vysokým rizikem a s nízkým/středním rizikem) skutečně dostatečně rizika újmy na zdraví, bezpečnosti a základních právech? Zadruhé, jsme připraveni umožnit, aby umělá inteligence do značné míry nahradila rozhodování člověka, a to i v kritických postupech, jako je prosazování práva a soudnictví?
3.5Pokud jde o první otázku, EHSV varuje, že dodržování požadavků stanovených pro středně a vysoce rizikovou umělou inteligenci nemusí nutně v každém případě snižovat riziko újmy na zdraví, bezpečnosti a základních právech. To bude dále rozvedeno v oddíle 4.
3.6Pokud jde o druhou otázku, chybí v aktu o umělé inteligenci názor, že příslib umělé inteligence spočívá spíše v posílení rozhodování člověka a lidské inteligence, než v jeho nahrazení. Akt o umělé inteligenci vychází z předpokladu, že jakmile budou splněny požadavky pro středně a vysoce rizikovou umělou inteligenci, může UI do značné míry nahradit lidské rozhodování.
3.7EHSV důrazně doporučuje, aby akt o umělé inteligenci stanovil, že určitá rozhodnutí zůstanou výsadou člověka, zejména v oblastech, kde tato rozhodnutí obsahují morální složku a mají právní důsledky nebo společenský dopad, například v soudnictví, prosazování práva, sociálních službách, zdravotní péči, bydlení, finančních službách, pracovněprávních vztazích a vzdělávání.
3.8Systémy UI nepůsobí ve světě bez zákonů. Pro systémy UI již nyní platí nebo je relevantní řada právně závazných pravidel na evropské, vnitrostátní a mezinárodní úrovni. Mezi právní zdroje patří mimo jiné primární právo EU (smlouvy Evropské unie a její Listina základních práv), sekundární právo EU (například obecné nařízení o ochraně osobních údajů, směrnice o odpovědnosti za výrobky, nařízení o volném pohybu neosobních údajů, antidiskriminační směrnice, spotřebitelské právo a směrnice o bezpečnosti a ochraně zdraví při práci), smlouvy OSN o lidských právech a úmluvy Rady Evropy (například Evropská úmluva o lidských právech) a četné zákony členských států EU. Kromě horizontálně uplatňovaných pravidel existují různá pravidla pro konkrétní oblasti platná pro jednotlivé aplikace UI (například nařízení o zdravotních prostředcích v odvětví zdravotnictví). EHSV doporučuje upravit 41. bod odůvodnění tak, aby to bylo náležitě zohledněno.
4.Konkrétní připomínky a doporučení – akt o umělé inteligenci
Zakázané postupy v oblasti umělé inteligence
4.1EHSV souhlasí s tím, že postupy v oblasti umělé inteligence uvedené v článku 5 skutečně nemají žádný sociální přínos a měly by být zakázány. Některé formulace jsou však podle něj nejasné, což by mohlo ztěžovat výklad některých zákazů a umožňovat jejich snadné obcházení.
4.2Existují důkazy o tom, že podprahové techniky mohou vést nejen k fyzické nebo psychické újmě (současné podmínky, aby tento konkrétní zákaz začal platit), ale mohou vzhledem k prostředí, ve kterém jsou používány, vést k dalším nepříznivým osobním, společenským nebo demokratickým účinkům, jako je změněné chování při volbách. Často navíc umělá inteligence neřídí samotnou podprahovou techniku, ale spíše rozhodnutí, na koho se podprahovou technikou zaměřit.
4.3Za účelem vystižení toho, co chce akt o umělé inteligenci zakázat v čl. 5 odst. 1 písm. a), tedy manipulaci lidí ke škodlivému chování, doporučuje EHSV změnit odstavec takto: „(…) systémů UI používaných takovým způsobem, aby podstatně ovlivňovaly chování osob tak, že to dotčené osobě, jiné osobě nebo skupině osob způsobuje nebo by mohlo způsobit újmu v oblasti základních práv, včetně jejích fyzického nebo psychického zdraví a bezpečnosti, nebo v oblasti demokracie a právního státu, nebo systémů UI na tento účel zaměřených či k tomuto účelu využívaných“.
4.4EHSV doporučuje změnit zakázaný postup zneužívání zranitelnosti v čl. 5 odst. 1 písm. b) stejným způsobem, aby zahrnoval újmu v oblasti základních práv, včetně újmy fyzické nebo psychické.
4.5EHSV vítá zákaz „přidělování sociálního kreditu“ v čl. 5 odst. 1 písm. c). EHSV doporučuje, aby se zákaz přidělování sociálního kreditu vztahoval nejen na veřejné orgány, ale také na soukromé organizace a poloveřejné orgány. V EU není možné klasifikovat důvěryhodnost občanů EU na základě jejich sociálního chování nebo osobnostních charakteristik, a to bez ohledu na to, kdo tuto klasifikaci provádí. Pokud by to možné bylo, EU by otevřela dveře do řady oblastí, kde by bylo povoleno přidělování sociálního kreditu, například na pracovišti. Je třeba upřesnit podmínky uvedené v bodech i) a ii), aby bylo jasně určeno, co se považuje za „přidělování sociálního kreditu“ a co lze považovat za přijatelnou formu hodnocení za určitým účelem, tedy stanovit bod, kde by informace použité pro hodnocení již neměly být považovány za relevantní nebo opodstatněně související s cílem hodnocení.
4.6Cílem aktu o umělé inteligenci je zakázat biometrickou identifikaci na dálku v reálném čase (například s rozpoznáváním obličeje) pro účely prosazování práva a kategorizovat ji jako „vysoce rizikovou“, pokud se používá k jiným účelům. Povoleno tak zůstává rozpoznávání biometrických charakteristik zpětně a „s malým časovým posunem“. Nadále je rovněž přípustné rozpoznávání biometrických charakteristik, jež není zaměřeno na identifikaci osoby, ale spíše na posouzení jejího chování na základě biometrických rysů (mikrovýrazů, způsobu chůze, teploty, srdečního tepu atd.). Omezení na „prosazování práva“ umožňuje, aby biometrickou identifikaci i další formy rozpoznávání biometrických charakteristik, jež nejsou zaměřeny na identifikaci jednotlivce, včetně všech uvedených forem „rozpoznání emocí“, využívaly ke všem ostatním účelům všechny ostatní subjekty na jakémkoli veřejném či soukromém místě, včetně pracovišť, obchodů, stadionů, divadel atd. Jsou tak dokořán otevřeny dveře světu, v němž budeme neustále „emocionálně posuzováni“ za libovolným účelem, který bude posuzující subjekt považovat za potřebný.
4.7Akt o umělé inteligenci kategorizuje „rozpoznávání emocí“ obecně jako nízké riziko s výjimkou několika uživatelských domén, kde je kategorizováno jako vysoce rizikové. Tento druh rozpoznávání biometrických charakteristik je rovněž znám jako „rozpoznávání citů“ nebo někdy jako „rozpoznávání chování“. Všechny tyto druhy rozpoznávání pomocí umělé inteligence jsou mimořádně invazivní, postrádají spolehlivý vědecký základ a představují podstatné riziko újmy na řadě základních práv Listiny EU, jako je právo na lidskou důstojnost, právo na nedotknutelnost lidské osobnosti (které zahrnuje duševní nedotknutelnost) a právo na soukromý život.
4.8EHSV v obecné shodě s výzvou EIOÚ a EDPB z 21. června 2021 zakázat použití umělé inteligence pro automatické rozpoznávání lidských rysů ve veřejně přístupných prostorech a některé další způsoby využití UI, jež mohou vést k nespravedlivé diskriminaci, požaduje:
-zákaz použití umělé inteligence k automatickému biometrickému rozpoznávání ve veřejně a soukromě přístupných prostorech (jako je rozpoznávání tváří, držení těla, hlasu a dalších biometrických rysů), kromě za účelem ověřování ve specifických případech (například k poskytnutí přístupu do prostor citlivých z bezpečnostního hlediska),
-zákaz použití umělé inteligence k automatickému rozpoznávání lidských behaviorálních signálů ve veřejně a soukromě přístupných prostorech,
-zákaz systémů umělé inteligence využívajících biometrii ke kategorizaci jednotlivců do klastrů na základě etnického původu, pohlaví, politické nebo sexuální orientace nebo jiných důvodů, na jejichž základě je podle článku 21 Listiny zakázána diskriminace,
-zákaz používání umělé inteligence k vyvozování emocí, chování, úmyslu nebo povahových rysů fyzické osoby s výjimkou velmi specifických případů, jako jsou některé zdravotní účely, kde je důležité rozpoznání emocí pacienta.
Vysoce riziková umělá inteligence
4.9Při rozhodování, zda by přesto měly být za přísných podmínek povoleny postupy nebo používání umělé inteligence, které představují riziko pro zdraví, bezpečnost nebo základní práva, se Komise zabývala dvěma tématy: i) zda může mít postup nebo použití umělé inteligence sociální výhody a ii) zda lze riziko újmy na zdraví, bezpečnosti a základních právech, které toto použití přesto představuje, zmírnit splněním řady požadavků.
4.10EHSV vítá sladění těchto požadavků s prvky Etických pokynů pro zajištění důvěryhodnosti UI. Požadavky na vysoce rizikovou umělou inteligenci v aktu o umělé inteligenci se však konkrétně nezabývají pěti důležitými požadavky etických pokynů, konkrétně: i) lidským faktorem, ii) soukromím, iii) diverzitou, nediskriminací a spravedlností, iv) vysvětlitelností a v) dobrými environmentálními a sociálními podmínkami. EHSV se domnívá, že jde o promarněnou příležitost, protože mnoho rizik, která umělá inteligence představuje, se týká soukromí, zaujatosti, vyloučení, nevysvětlitelnosti výsledků rozhodnutí umělé inteligence, podkopávání lidského faktoru a životního prostředí a všechna se odrážejí v našich základních právech.
4.11EHSV doporučuje přidat tyto požadavky k požadavkům kapitoly 2 hlavy III aktu o umělé inteligenci, aby se zlepšila schopnost aktu o umělé inteligenci účinně chránit naše zdraví, bezpečnost a základní práva před nepříznivými dopady umělé inteligence využívané jak veřejnými orgány, tak soukromými organizacemi.
4.12EHSV vítá „propojený systém“ mezi aktem o umělé inteligenci a harmonizačními právními předpisy Unie. Doporučuje rozšířit oblast působnosti aktu o umělé inteligenci a požadavky na vysoce rizikovou umělou inteligenci i nad rámec „UI jako bezpečnostní součásti“ nebo situace, kdy je systém umělé inteligence sám produktem, na který se vztahují harmonizační právní předpisy Unie uvedené v příloze II. Je to proto, že umělá inteligence může představovat rizika nejen při použití jako bezpečnostní součást těchto produktů, a proto, že samotný systém umělé inteligence není vždy produktem, například pokud se používá jako součást diagnostického nebo prognostického nástroje ve zdravotnictví nebo jako termostat řízený umělou inteligencí, který reguluje kotel.
4.13EHSV však varuje, že zvolený přístup k vysoce rizikové umělé inteligenci, jenž vychází ze seznamu v příloze III, může vést k legitimizaci, normalizaci a začleňování řady postupů v oblasti umělé inteligence, které jsou stále silně kritizovány a jejichž společenské výhody jsou sporné nebo chybí.
4.14Rizika újmy na zdraví, bezpečnosti a základních právech navíc není vždy možné nutně zmírnit dodržováním pěti požadavků na vysoce rizikovou umělou inteligenci, zejména pokud jde o málo zmiňovaná základní práva, která by mohla být ovlivněna umělou inteligencí, jako je například právo na lidskou důstojnost, presumpce neviny, právo na slušné a spravedlivé pracovní podmínky, svoboda sdružování a shromažďování, či právo na stávku, abychom jmenovali alespoň některá.
4.15EHSV důrazně doporučuje přidat do bodu 2 přílohy III řízení a provoz telekomunikační a internetové infrastruktury. EHSV rovněž doporučuje rozšířit oblast působnosti tohoto bodu nad rámec UI jako bezpečnostních součástí.
4.16Systémy umělé inteligence používané k určení přístupu ke vzdělávání a k hodnocení studentů představují řadu rizik újmy na zdraví, bezpečnosti a základních právech studentů. Například nástroje pro online kontroly, které mají údajně signalizovat „podezřelé chování“ a „náznaky podvádění“ během online zkoušek pomocí různých druhů biometrických údajů a sledování chování, jsou skutečně invazivní a nejsou vědecky podložené.
4.17Používání systémů umělé inteligence pro monitorování, sledování a hodnocení pracovníků vyvolává vážné obavy, pokud jde o základní práva pracovníků na slušné a spravedlivé pracovní podmínky, na informace a konzultace a na odůvodněné propuštění. Přidání těchto systémů umělé inteligence do seznamu vysoce rizikových systémů pravděpodobně povede k rozporu s vnitrostátním pracovním právem a kolektivními pracovními smlouvami v oblasti (ne)oprávněného propouštění, zdravých a bezpečných pracovních podmínek a informací o zaměstnancích. EHSV požaduje, aby bylo zaručeno plné zapojení a informování pracovníků a sociálních partnerů, pokud jde o procesy rozhodování o používání umělé inteligence na pracovišti a při jejím vývoji, pořizování a zavádění.
4.18Požadavek „lidského dohledu“ je zvláště důležitý v pracovněprávních vztazích, protože dohled bude provádět pracovník nebo skupina pracovníků. EHSV zdůrazňuje, že tito pracovníci by měli absolvovat školení o tom, jak tento úkol plnit. Vzhledem k tomu, že se očekává, že tito pracovníci nebudou muset přihlížet k výstupu systému umělé inteligence nebo se dokonce rozhodnou jej nepoužívat, by měla být přijata opatření, která zabrání obavám z negativních důsledků (jako je přeřazení na nižší pozici nebo propuštění), pokud je takové rozhodnutí přijato.
4.19Použití systémů umělé inteligence ve vztahu k přístupu k veřejným službám a k jejich využívání je širší než používání systémů umělé inteligence ve vztahu k přístupu k základním soukromým službám a k jejich využívání, kde je pro soukromé služby považováno za vysoce rizikové pouze přidělování kreditu (hodnocení bonity) ze strany umělé inteligence. EHSV doporučuje rozšířit oblast působnosti bodu 5 písm. b) přílohy III na systémy umělé inteligence určené k hodnocení způsobilosti pro základní soukromé služby.
4.20Umělá inteligence používaná donucovacími orgány a pro účely migrace, azylu a řízení ochrany hranic k posuzování individuálních (trestních nebo bezpečnostních) rizik představuje riziko újmy pro presumpci neviny, právo na obhajobu a právo na azyl podle Listiny EU. Systémy umělé inteligence obecně pouze hledají korelace založené na charakteristikách nalezených v jiných „případech“. Podezření v těchto případech není založeno na skutečném podezření ze spáchání trestného činu nebo přestupku konkrétní osobou, ale pouze na vlastnostech, které tato osoba náhodně sdílí s odsouzenými zločinci (jako je adresa, příjem, státní příslušnost, dluhy, zaměstnání, chování, chování přátel a rodinných příslušníků atd.).
4.21Využívání umělé inteligence k výkonu spravedlnosti a demokratických procesů je obzvláště citlivé a mělo by se k němu přistupovat s většími nuancemi a kontrolou, než je tomu nyní. Pouhé používání systémů, které mají pomoci soudnímu orgánu při zkoumání a výkladu faktů a práva a při uplatňování práva na konkrétní soubor faktů, přehlíží skutečnost, že posuzování je mnohem víc než hledání vzorců v historických datech (což je v podstatě to, co dělají současné systémy umělé inteligence). Text rovněž předpokládá, že tyto typy umělé inteligence budou pouze pomáhat justici, přičemž plně automatizované rozhodování soudů zůstane mimo oblast působnosti. EHSV rovněž lituje, že v aktu nejsou zmíněny systémy umělé inteligence ani jejich použití v oblasti demokratických procesů, jako jsou volby.
4.22EHSV doporučuje přidat ustanovení, které řeší situaci, kdy je buď zřejmé, nebo vyšlo najevo během předchozího posouzení shody, že těchto šest požadavků nebude dostatečně zmírňovat riziko újmy na zdraví, bezpečnosti a lidských právech (například změnou čl. 16 písm. g) aktu o umělé inteligenci).
Správa a vymahatelnost
4.23EHSV vítá strukturu správy, která byla vytvořena aktem o umělé inteligenci. Doporučuje radě pro umělou inteligenci, aby pořádala pravidelné povinné výměny názorů s širší společností, včetně sociálních partnerů a nevládních organizací.
4.24EHSV důrazně doporučuje rozšířit oblast působnosti aktu o umělé inteligenci tak, aby zahrnovala „starší systémy umělé inteligence“, tj. systémy, které se již používají nebo mají být nasazeny před vstupem aktu o umělé inteligenci v platnost, aby se zabránilo tomu, že ti, kdo chtějí tyto systémy zavádět, urychleně zavedou zakázané, vysoce a středně rizikové systémy umělé inteligence, aby se tak vyhnuli požadavkům na dodržování předpisů. EHSV dále důrazně doporučuje, aby z působnosti aktu o umělé inteligenci nebyly vyloučeny systémy UI, které jsou součástí rozsáhlých informačních systémů v prostoru svobody, bezpečnosti a práva uvedených v příloze IX.
4.25Složitost činností v oblasti požadavků a odpovědnosti a sebehodnocení představuje riziko zjednodušení tohoto procesu na kontrolní seznamy, kde by ke splnění požadavků mohlo stačit jednoduché „ano“ nebo „ne“. EHSV doporučuje, aby bylo posuzování shody třetích stran povinné pro veškerou vysoce rizikovou umělou inteligenci.
4.26EHSV doporučuje, aby byla zavedena vhodná (finanční) podpůrná opatření a jednoduché a přístupné nástroje pro mikroorganizace a malé organizace a organizace občanské společnosti, aby byly schopny porozumět účelu a smyslu aktu o umělé inteligenci a plnit jeho požadavky. Tato opatření by měla jít nad rámec podpory center pro digitální inovace a měla by spočívat v usnadnění přístupu k odborným znalostem na vysoké úrovni týkajícím se aktu o umělé inteligenci, jeho požadavků, povinností a zejména jejich odůvodnění.
4.27EHSV doporučuje zahrnout mechanismus pro vyřizování stížností a zjednávání nápravy pro organizace a občany, kteří utrpěli újmu ze strany jakéhokoli systému umělé inteligence, praxí nebo používáním umělé inteligence, které spadají do působnosti aktu o umělé inteligenci.
V Bruselu dne 2. září 2021
Alain COHEUR
předseda sekce Jednotný trh, výroba a spotřeba
_____________