Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52022AE4704

Mnenje Evropskega ekonomsko-socialnega odbora – Predlog direktive Evropskega parlamenta in Sveta o prilagoditvi pravil o nepogodbeni civilni odgovornosti umetni inteligenci (direktiva o odgovornosti na področju umetne inteligence) (COM(2022) 496 final – 2022/0303 (COD))

EESC 2022/04704

UL C 140, 21.4.2023, p. 28–33 (BG, ES, CS, DA, DE, ET, EL, EN, FR, GA, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

21.4.2023   

SL

Uradni list Evropske unije

C 140/28


Mnenje Evropskega ekonomsko-socialnega odbora – Predlog direktive Evropskega parlamenta in Sveta o prilagoditvi pravil o nepogodbeni civilni odgovornosti umetni inteligenci (direktiva o odgovornosti na področju umetne inteligence)

(COM(2022) 496 final – 2022/0303 (COD))

(2023/C 140/05)

Glavni poročevalec:

Wautier ROBYNS DE SCHNEIDAUER

Zaprosili

Evropski parlament, 6. 10. 2022

 

Svet Evropske unije, 14. 10. 2022

Pravna podlaga

člen 114 Pogodbe o delovanju Evropske unije

Pristojnost

strokovna skupina za enotni trg, proizvodnjo in potrošnjo

Sklep predsedstva

20. 9. 2023

Datum sprejetja na plenarnem zasedanju

24. 1. 2023

Plenarno zasedanje št.

575

Rezultat glasovanja

(za/proti/vzdržani)

154/1/0

1.   Sklepi in priporočila

1.1

Evropski ekonomsko-socialni odbor (EESO) pripravlja svoja stališča o umetni inteligenci od svojega pionirskega dela na tem področju v letu 2017. Pri tem vztraja, da mora človeški nadzor umetnointeligenčnih aplikacij vključevati tudi odgovornost in vzpostavljati zaupanje v tako tehnologijo. V mnenju (1) leta 2019 je pozval k jasnim pravilom, ki bi v primeru nezakonite (ali domnevno nezakonite) uporabe vključevala odgovornost fizičnih ali pravnih oseb.

1.2

EESO pozdravlja in podpira predlog Komisije, da se – če to dopušča nacionalna zakonodaja – izboljšajo pravice oškodovancev, ki zaradi take nezakonite uporabe umetne inteligence utrpijo kakršno koli škodo, in sicer tako, da se jim zagotovijo posebne pravice poleg tistih, ki jih imajo na podlagi nacionalnega odškodninskega prava ali prava o objektivni odgovornosti, določb direktive o odgovornosti za proizvode in kazenskega prava.

1.3

EESO priznava, da je za uresničitev tega cilja najprimernejša minimalna harmonizacija, vendar svari pred tveganjem, da bi deležniki, ki so vključeni v razvojno in dobavno verigo, ter sodniki ta pravila različno razlagali. Zato odločno poziva k jasnim pravnim opredelitvam in dodatnemu izboljšanju potrebnega strokovnega znanja tistih, ki bodo morali to novo zakonodajo po vsej EU uporabljati ob ustrezni digitalni zmogljivosti. Komisija bi si kot končni cilj morala prizadevati za sistem odgovornosti, ki bi se v vsej EU uporabljal čim bolj enotno, in ta sistem razvijati.

1.4

EESO poleg nadzorne vloge javnih organov priznava pomen součinkovanja med pravili o preprečevanju in varnosti na eni strani ter možnostmi uveljavljanja pravnih sredstev na drugi strani, da bi se zagotovila skladnost s standardi EU in nacionalnimi standardi za odgovoren razvoj umetne inteligence. Poziva k vzpostavitvi mreže organov za alternativno reševanje sporov, da bi se oškodovancem olajšalo uveljavljanje njihovih pravic in zbralo več dokazov o rezultatih obravnavane direktive.

1.5

EESO ceni, da direktiva vzpostavlja ravnovesje med pravicami oškodovancev in interesi razvijalcev umetne inteligence. To omogoča izkoriščanje prednosti digitalnega prehoda in lahko pomeni standard za tretje države, ki razmišljajo, da bi sledile tej poti.

1.6

EESO poziva Komisijo, naj pozorno spremlja razvoj finančnih jamstev ali zavarovanja odgovornosti na področju umetne inteligence, pri čemer naj ustrezno upošteva njihovo razpoložljivost in obseg, saj bi moral novi okvir tako operaterjem kot tudi zavarovateljem zagotavljati pravno varnost. Dokazi o incidentih so ključni za oceno, ali so v zvezi s tem potrebni ukrepi, zato sta dokumentiranje teh incidentov in poročanje o njih ključnega pomena.

1.7

EESO poziva Komisijo, naj pravice oškodovancev, ki jim je bila povzročena škoda zaradi uporabe umetne inteligence, vključi v svojo komunikacijsko strategijo, da bi povečali zaupanje v digitalni prehod.

1.8

Glede na hitrost tehnološkega razvoja EESO podpira namero, da se ta zakonodaja pregleda takoj, ko bo to na podlagi dejstev upravičeno. Meni, da bi bilo pet let po začetku veljavnosti te direktive veliko prepozno, in priporoča, naj se pregled opravi tri leta po začetku veljavnosti. EESO je pripravljen sodelovati v tem pregledu in oceniti izkušnje organizacij civilne družbe v EU, predvsem z vidika povratnih informacije končnih uporabnikov v zvezi z dokaznim bremenom in morebitnih različnih opredelitev upravičene škode v skladu z nacionalnimi zakonodajami.

1.9

Uporaba umetne inteligence lahko privede do občutljivih političnih odločitev, ki se ne smejo prepustiti izključno akterjem v dobavni verigi umetne inteligence, zato EESO želi, da bi bil vključen v določanje etičnih standardov in da bi se z njim posvetovalo o tem.

2.   Povzetek predloga

2.1

Predlog direktive o nepogodbeni odgovornosti v zvezi z umetno inteligenco (v nadaljnjem besedilu: direktiva o odgovornosti na področju umetne inteligence) temelji na beli knjigi Komisije o umetni inteligenci iz leta 2020, njenem sočasno objavljenem poročilu o varnosti in odgovornosti na področju umetne inteligence ter predlogu akta o umetni inteligenci iz leta 2021, osredotočenem na preprečevanje in varnost. Navezuje se na pregled direktive o odgovornosti za proizvode iz leta 1985 (v nadaljnjem besedilu: revidirana direktiva o odgovornosti za proizvode), ki je bil predstavljen na isti dan kot direktiva o odgovornosti na področju umetne inteligence, obravnavana v tem mnenju. Oba predloga tožnikom omogočata vlaganje zahtevkov proti nekaterim osebam, pri čemer je na področju uporabe med instrumentoma nekaj razlik.

2.2

Namen direktive o odgovornosti na področju umetne inteligence je določiti enotna pravila glede nekaterih vidikov nepogodbene odgovornosti za škodo, povzročeno zaradi uporabe umetnointeligenčnih sistemov. S tem naj bi izboljšala delovanje enotnega trga ter vzpostavlja širše varstvo oškodovancev (bodisi fizičnih oseb bodisi podjetij) in s harmoniziranimi pravili spodbuja zaupanje v umetno inteligenco. To na primer zajema kršitve zasebnosti, izgubo podatkov ali škodo, povzročeno zaradi pomanjkljive varnosti. Nova pravila bodo denimo omogočala, da bo nekdo, ki je bil v postopku zaposlovanja, pri katerem je bila uporabljena umetnointeligenčna tehnologija, diskriminiran, lažje pridobil odškodnino, čeprav še vedno obstaja več (pravnih) ovir. Da bi odpravili preostalo pravno negotovost, EESO priporoča, naj se odločitev, ki jo z uporabo umetne inteligence sprejmejo stroji, pravno opredeli.

2.3

S to direktivo Komisija prvič predlaga ciljno usmerjeno harmonizacijo nacionalnih pravil o odgovornosti za umetno inteligenco, zaradi česar bodo lahko oškodovanci, ki bodo utrpeli škodo, povezano z umetno inteligenco, lažje pridobili odškodnino. V skladu s cilji bele knjige o umetni inteligenci in s predlogom Komisije za akt o umetni inteligenci iz leta 2021, ki z okvirom za zanesljivost in zaupanje v umetno inteligenco določa načela pravne države, bodo nova pravila zagotavljala, da bodo oškodovanci, ki jim je bila povzročena škoda zaradi uporabe umetnointeligenčnih izdelkov ali storitev, zaščiteni enako pravično, kot če bi bila škoda povzročena v katerih koli drugih okoliščinah.

2.4

Direktiva ob zagotavljanju, da se tehnološki napredek v Evropi ne bo ogrožal ali zavračal, uvaja harmoniziran pravni okvir, s katerim se obravnava kompleksnost umetnointeligenčnih sistemov od laboratorija do trga in poenostavlja pravni postopek za oškodovance, ki so utrpeli škodo, povzročeno zaradi umetnointeligenčnih sistemov, in sicer z dvema glavnima pravnima novostma, ki izpolnjujeta sedanje potrebe:

prvič, kadar je ugotovljeno pomembno neizpolnjevanje (dolžnosti skrbnega ravnanja na podlagi) predpisov EU ali nacionalnih predpisov in se zdi razumno verjetno, da obstaja vzročna zveza z (izhodnimi podatki, ustvarjenimi z) umetnointeligenčnim sistemom, se z izpodbojno domnevo vzročnosti odpravijo težave, s katerimi se srečujejo oškodovanci, kadar morajo podrobno pojasniti, kako je bila škoda povzročena zaradi konkretne napake ali opustitve dejanja, kar je lahko zlasti težko, kadar poskušajo razumeti kompleksne umetnointeligenčne sisteme. Za ponudnike umetnointeligenčnih sistemov velikega tveganja (glej točko 4.1), osebe, ki delujejo v njihovem imenu, in uporabnike se uporabljajo posebne določbe. V skladu s predlogom je teža omenjene domneve zmanjšana, kadar umetnointeligenčni sistem uporablja nepoklicni uporabnik, ki ni posegel v delovanje umetnointeligenčnega sistema;

drugič, medtem ko je pri odgovornosti za proizvode lažje ugotoviti, koga tožiti, je okolje umetne inteligence kompleksnejše. V skladu s predlagano direktivo bodo imeli oškodovanci na voljo več orodij za uveljavljanje pravnega sredstva, saj bodo imeli pravico sorazmernega dostopa do dokazov podjetij in dobaviteljev v zadevah, ki vključujejo umetno inteligenco velikega tveganja, kadar je treba take dokaze pridobiti. Oškodovanci bodo lahko pridobili odredbo sodišča, na podlagi katere bodo dobili dostop do informacij, potrebnih za ugotavljanje, kaj je povzročilo škodo, ki so jo utrpeli, ter na katero toženo fizično ali pravno osebo se lahko obrnejo v zvezi s škodo. Kadar so dokazi zlahka dostopni, se domneva ne uporablja, kar je resna spodbuda za to, da se take informacije dajo na voljo.

S tema ukrepoma predlagana direktiva pomaga oškodovancem, da posamično ali kolektivno (če je to primerno) uveljavijo pravno sredstvo, in sicer brez opustitve koncepta vzročnosti.

3.   Zagotavljanje tehnološkega razvoja, osredotočenega na človeka

3.1

EESO se zaveda koristi in potencialnih tveganj, ki spremljajo umetno inteligenco. Njena uporaba ne bi smela biti omejena le na izboljšanje produktivnosti z nadomeščanjem nalog, ki jih sicer opravlja človek, in zmanjševanjem stroškov. Zato je treba pozornost nameniti tveganjem glede vpliva umetne inteligence na zdravje zaradi spremenjenih delovnih pogojev in na pravice, kot je zasebnost; ponovno je treba preučiti ravnovesje med strojem in človekom na delovnem mestu, saj je treba dati prednost človeškemu nadzoru, pri tem pa še naprej upoštevati morebitne nadaljnje človeške predsodke in pristranskost glede delovanja strojev. Odgovornost za prvotni koncept in končno odgovornost za njegove morebitne napake bi morali še naprej nositi človeški akterji, kakor je zapisala strokovna skupina na visoki ravni za umetno inteligenco v svojih etičnih smernicah. Razvoj na številnih drugih področjih je danes slabše dokumentiran, denimo vpliv nanotehnologije na okolje. EESO meni, da bi morali operaterji umetnointeligenčnih sistemov in drugi deležniki, na primer svetovalci za obvladovanje tveganj, zavarovatelji, javni organi in predstavniki delavcev, spremljati potencialni vpliv z analizo tveganja, presojami in varnostnim inženiringom, ki se izvaja s testiranjem v okolju, podobnem resničnemu svetu. Kot je navedel v svojem prejšnjem mnenju (2), bi pozdravil postopke certificiranja, s katerimi bi se zagotovili varnost in usklajenost s človeškimi interesi.

3.2

EESO se zaveda, da so umetnointeligenčne aplikacije izpostavljene napakam in zlonamernim kibernetskim dejanjem, in se sklicuje na svoji nedavni mnenji o predlogu uredbe o digitalni operativni odpornosti (DORA) (3) ter predlogu direktive o kibernetski varnosti in odpornosti kritičnih subjektov (4). Ta tveganja in grožnje očitno upravičujejo sedanje določbe o preprečevanju in spremljanju ter njihov prihodnji razvoj, saj se lahko pojavijo nove ranljivosti.

3.3

EESO podpira namero, da se sledi hitremu prihodnjemu razvoju in pregledajo učinki direktive, ko bo to na podlagi ukazov upravičeno, ter direktivo po potrebi posodobi ob upoštevanju sorazmernosti. Meni, da je petletni rok, določen v predlogu, predolg, in predlaga, da se ukrepa prej, in sicer največ tri leta po začetku veljavnosti direktive. Vztraja, da pri tej oceni sodeluje civilna družba, saj EESO na edinstven način izraža stališča državljanov, potrošnikov, delavcev ter velikih in malih podjetij, pri čemer ustrezno pozornost namenja temeljnim človekovim pravicam, vključno s pravicami delavcev, ter gospodarskim priložnostim in oviram.

4.   Varovanje temeljnih vrednot EU

4.1

EESO podpira pristop, ki ga je Komisija uporabila v aktu o umetni inteligenci in po katerem se prepovedani načini uporabe umetne inteligence, kot so družbeno točkovanje državljanov, ki ga izvajajo vsiljive vlade, vrste uporabe velikega tveganja v podjetjih, vključno s točkovanjem za namene zaposlovanja in ocenjevanja dosežkov, ter kritična infrastruktura in tehnične naprave, ki se uporabljajo v zdravstvu, ločujejo od številnih manj tveganih dejavnosti. Poziva k nedvoumni opredelitvi dejavnosti z velikim tveganjem. Poleg tega ponovno poziva, naj se med dejavnike, ki jih je treba vključiti v kategorijo dejavnikov velikega tveganja, doda potencialna škoda za okolje. Ugotavlja, da bi bilo treba oškodovancem ne glede na klasifikacijo tveganih in manj tveganih umetnointeligenčnih aplikacij dodeliti odškodnino.

4.2

Kot je EESO navedel v mnenju o beli knjigi o umetni inteligenci iz leta 2020, je še naprej zavezan varovanju temeljnih pravic in človeškemu upravljanju v fazi sprejemanja končne odločitve kot temelja odgovornega razvoja umetne inteligence v Evropski uniji. Stroji morda izbirajo in sprejemajo odločitve brez človeškega razumevanja nenamernih posledic, zlasti kadar te izbire in odločitve vplivajo na ranljive ljudi, kot so otroci ali starejši.

4.3

EESO poudarja, kako pomembno je zaupanje javnosti v razvoj umetne inteligence, ko gre za varstvo zasebnosti, pošteno obravnavo in uporabo pravnih sredstev, kadar je to primerno. Namen predlagane direktive je zagotoviti vsaj enako odškodnino za škodo, povzročeno ali delno povzročeno zaradi uporabe umetnointeligenčnih sistemov, kot je odškodnina za škodo, povzročeno v primerih, ko umetnointeligenčni sistemi niso uporabljeni. Pomembno je, da si Komisija, države članice in uporabniki umetnointeligenčnih sistemov skupaj prizadevajo za posredovanje tega sporočila širši javnosti.

5.   Olajšanje dodelitve odškodnine oškodovancem, ki jim je bila povzročena škoda zaradi uporabe umetne inteligence

5.1

Direktiva o odgovornosti na področju umetne inteligence določa, da se poveča zaščita državljanov, delavcev in gospodarskih subjektov pred škodo, priznana v nacionalnem pravnem okolju teh oškodovancev. Zaščita je razširjena ter ne zajema le telesne poškodbe in materialne izgube, kot je predvideno v predlogu direktive o odgovornosti za proizvode. S to razširitvijo je omogočena odškodnina za izključno gospodarsko škodo, povzročeno denimo v primeru nepoštene diskriminacije, zavrnitve dostopa do oskrbe ali izobraževanja, napačnega profiliranja pri policiji ali z izgubo podatkov. EESO vztraja, da je treba zagotoviti jasno razumevanje upravičene škode, da bi se izognili neželenim različnim razlagam na podlagi nacionalne sodne prakse, in z ustreznimi sredstvi poskrbeti za namensko usposabljanje ljudi v praksi, vključno z nacionalnimi sodniki. Poudarja, da imajo nacionalna sodišča možnost zaprositi Sodišče Evropske unije za predhodno odločanje o vprašanjih, pri katerih bi se lahko razlage razlikovale.

5.2

EESO ugotavlja, da dostop do pravnih sredstev in odškodnine za državljane, potrošnike, delavce ali podjetja v Evropski uniji ni enak. Naklonjenost tožnikom, postopkovna pravila in stroški, povezani z obravnavo zahtevka po sodni poti, ter to, koliko so tožniki zavarovani pred stroški postopka v zadevah v zvezi s civilno odgovornostjo, se med državami članicami in družbenimi razredi precej razlikujejo. Zato in v skladu z že izraženim načelom v splošnejšem mnenju o uredbi o umetni inteligenci (5) se EESO zavzema za vzpostavitev zlahka dostopnih, brezplačnih in obveznih shem za alternativno reševanje sporov v zadevah, ki vključujejo civilno odgovornost pri umetnointeligenčnih aplikacijah, na nacionalni ravni in z usklajevanjem na ravni EU, kot denimo že velja na področju finančnih storitev (mreža FIN-NET); to naj se stori v sodelovanju z ustreznimi predstavniškimi organi civilne družbe. Te službe bi z evidentiranjem zunajsodnih poravnav, za katere bi izvedele, prispevale k ocenjevanju učinkov direktive.

5.3

EESO pozdravlja prizadevanja, da se oškodovancem zagotovi več sredstev za uveljavljanje pravične odškodnine, kadar utrpijo škodo, ki jo povzročijo umetnointeligenčne aplikacije, saj je lahko sicer ta postopek zaradi nepreglednosti in kompleksnosti umetnointeligenčnih aplikacij nedostopen ali zapleten in drag. Številni državljani in potrošniki so nezaupljivi glede „robotov“ in algoritmov. EESO priporoča, naj se v okviru komunikacijske strategije Komisije sprejmejo ukrepi za spodbujanje zaupanja državljanov, zlasti s poučnimi vsebinami v družbenih medijih, ki se veliko uporabljajo.

5.4

Oškodovanci, ki utrpijo škodo zaradi umetnointeligenčnih sistemov, se bodo lahko sklicevali na domnevo, da operaterji ne izpolnjujejo nacionalnih zahtev ali zahtev EU. Dejstvo, da bodo morali operaterji beležiti svoje izpolnjevanje teh pravil, je zaščita pred nepremišljenim ravnanjem.

6.   Vključevanje novih pravnih načel na enotnem trgu

6.1

Direktiva o odgovornosti na področju umetne inteligence se sprejema ob času, ko je odgovornost za napake umetne inteligence del zakonodajnega programa več držav članic. EESO razume pristop predloga, da se v tej fazi zaščitijo nacionalna pravna načela, ter podpira uporabo direktive za preprečevanje prevelikih neskladnosti pri načelih odgovornosti v EU in omogočanje državam članicam, da zaščito, za katero menijo, da je potrebna in sorazmerna, v splošnem interesu natančneje uredijo. Oblikovalce politik opozarja na slabo stran razdrobljenih pravnih okolij, ki ovirajo vzpostavitev pravega digitalnega enotnega trga, ohranjajo razlike med evropskimi državljani in podjetji ter bi lahko zavirala evropske tehnološke inovacije. Meni, da tveganja napačne razlage načela splošnega interesa ne bi smeli podcenjevati, saj so postopki izpodbijanja tega načela obremenjujoči, njihova veljava pa ne seže dlje od vprašanja, obravnavanega v posameznem postopku pred Sodiščem.

6.2

EESO se zaveda, kako zelo se nacionalne pravne ureditve, ki se uporabljajo za odškodninske zahtevke iz naslova civilne odgovornosti, še vedno razlikujejo med državami članicami, in že več let veliko pozornost namenja prizadevanjem za odpravo teh razlik, na primer z ureditvijo, ki bi se lahko uporabljala namesto nacionalnih standardov („28. režim“). Zato razume, zakaj se je Komisija v tej fazi odločila za predlagani pravni instrument, vendar opozarja na tveganje, da bi več konceptov lahko povzročilo različne razlage na podlagi različnih nacionalnih pravnih sistemov. Vztraja, da bi si Komisija kot končni cilj morala prizadevati za sistem odgovornosti, ki bi se v vsej EU uporabljal čim bolj enotno.

6.3

EESO poudarja pravico tožene stranke, zlasti (malih) trgovcev, da vloži pravni zahtevek proti svojemu ponudniku ali ustreznemu deležniku višje v dobavni verigi, ter dolžnost slednjega, da odgovarja za posledice svojega malomarnega ali domnevno nezakonitega ravnanja. Ti dobavitelji bi morali biti v takih primerih pravno zavezani, da takšnim toženim strankam zagotovijo odškodnino.

7.   Podpiranje konkurenčnosti evropskega razvoja umetne inteligence

7.1

EESO meni, da je pravna varnost gospodarska spodbuda za evropske raziskave in razvoj, ki jih izvajajo znanstvena središča, javni organi in podjetja, ter prispeva k pionirskim inovacijam v svetovnem okolju. Predlagana direktiva o odgovornosti na področju umetne inteligence določa pravočasne smernice, s katerimi inovatorji dobijo več potrebne gotovosti glede pravnih tveganj, zlasti kadar delujejo čezmejno, saj imajo različne jurisdikcije svoje ureditve odgovornosti. To bo precej koristilo zagonskim podjetjem ter malim in srednjim podjetjem, ki nimajo enakega dostopa do pravnega svetovanja kot večja podjetja. Novi okvir lahko tudi pomaga razvijalcem, da bodo nove umetnointeligenčne aplikacije uvajali ob boljšem razumevanju pravnih posledic, kar bo prispevalo k strategiji EU glede digitalnega in zelenega prehoda.

7.2

Predlagana direktiva o odgovornosti na področju umetne inteligence v tej fazi ne vključuje obveznega zavarovanja za umetnointeligenčne aplikacije. Glede na to, da so te aplikacije, zlasti zapleteni sistemi, še vedno v polnem razvoju, bi bilo težko določiti načine oblikovanja premij, saj ni preteklih izkušenj, ki bi bile smiselno dovolj zanesljive, da bi odražale prihodnjo škodo in zahtevke. To zlasti velja glede na dejstvo, da bi bila lahko nastanek škode in nastanek zahtevkov medsebojno povezana ter bi lahko povzročila ponavljanje napak in s tem povečanje resnosti incidentov in kopičenje izgub, medtem ko so zmogljivosti (po)zavarovalnic trenutno omejene. EESO zato razume odločitev Komisije, da se ne bo nadalje ukvarjala z vprašanjem, ali bi bilo treba v tej fazi uvesti obvezno zavarovanje ali druga finančna jamstva ter za katere dejavnosti in v kolikšnem obsegu, vendar jo poziva, naj pozorno spremlja razpoložljivost in obseg zavarovanja. Za oceno, ali so potrebni dodatni ukrepi, kot je uvedba objektivne odgovornosti ali obveznega zavarovanja, je potreben program spremljanja, s katerim bi se zagotovile informacije o incidentih, ki vključujejo umetnointeligenčne sisteme.

7.3

EESO opaža, da je več tveganj kritih z obveznim zavarovanjem ali drugimi finančni jamstvi, ki izhajajo iz nacionalne zakonodaje ali zakonodaje EU. To velja zlasti za področje uporabe motornih vozil, kjer poteka razvoj avtonomnih vozil. V takih primerih je odškodnina, kadar obvezno zavarovanje krije ne le ravnanje voznika ali potnikov, temveč tudi okvaro opreme, konkretneje v načinu avtopilota, oškodovancem v večini primerov (6) zagotovljena v skladu z veljavno zakonodajo in pogodbami. Zavarovalnice lahko po potrebi od proizvajalcev terjajo povračilo stroškov. S tem naj bi se zmanjšali stroški za voznike, ekonomsko breme zadevnih vrst zavarovanja pa bi se s trga med podjetjem in potrošnikom preneslo na model poslovanja med podjetji. EESO zato meni, da na področjih, na katerih obvezno zavarovanje že obstaja ali naj bi bilo uvedeno na ravni EU, obsežni nadaljnji zakonodajni ukrepi niso potrebni. Kljub temu bo natančno spremljal etične odločitve, ki vplivajo na vprašanja, kot so preprečevanje trčenja in scenariji obvladovanja nesreč.

7.4

EESO meni, da so omejitve glede skladnosti in obvladovanja tveganja, vključene v direktivo o odgovornosti na področju umetne inteligence, in domneva, s katero se breme izpodbijanja prelaga na ponudnike, osebe, ki delujejo v njihovem imenu, in uporabnike umetnointeligenčnih sistemov, sorazmerni ukrepi, usmerjeni na prave ravni tveganja škode, ki jo povzročijo umetnointeligenčne aplikacije.

7.5

V zvezi z dostopom do dokazov EESO odobrava sprejete ukrepe za zaščito poslovnih skrivnosti, ki so pomemben vidik konkurenčnosti evropskih inovatorjev, in zaupnih informacij, kadar se nanje sklicuje na zakonit način in z ustreznim spoštovanjem uveljavljenih pravic, kot so na primer zakonsko priznane posebne pravice žvižgačev na delovnem mestu.

7.6

EESO verjame, da se s sprejetjem zmerne domneve namesto objektivne odgovornosti olajšuje razvoj umetnointeligenčne tehnologije v Evropski uniji, z njim pa bi se lahko tudi utrdila vloga EU kot svetovne določevalke standardov, saj je povsem mogoče, da bodo druge države svojo zakonodajo uskladile s to ureditvijo. Ta vidik bi prav tako moral biti vključen v prihodnji pregled skupaj s pojasnitvijo pojmov, ki bo morda potrebna zaradi teh prvih izkušenj.

V Bruslju, 24. januarja 2023

Predsednica Evropskega ekonomsko-socialnega odbora

Christa SCHWENG


(1)  Mnenje Evropskega ekonomsko-socialnega odbora – Sporočilo Komisije Evropskemu parlamentu, Svetu, Evropskemu ekonomsko-socialnemu odboru in Odboru regij – Krepitev zaupanja v umetno inteligenco, osredotočeno na človeka (COM(2019) 168 final) (UL C 47, 11.2.2020, str. 64).

(2)  Mnenje Evropskega ekonomsko-socialnega odbora – Sporočilo Komisije Evropskemu parlamentu, Svetu, Evropskemu ekonomsko-socialnemu odboru in Odboru regij – Krepitev zaupanja v umetno inteligenco, osredotočeno na človeka (COM(2019) 168 final) (UL C 47, 11.2.2020, str. 64).

(3)  Mnenje Evropskega ekonomsko-socialnega odbora – Predlog uredbe Evropskega parlamenta in Sveta o digitalni operativni odpornosti za finančni sektor in spremembi uredb (ES) št. 1060/2009, (EU) št. 648/2012, (EU) št. 600/2014 in (EU) št. 909/2014 (COM(2020) 595 final – 2020/0266 (COD)) – Predlog direktive Evropskega parlamenta in Sveta o spremembi direktiv 2006/43/ES, 2009/65/ES, 2009/138/ES, 2011/61/EU, 2013/36/EU, 2014/65/EU, (EU) 2015/2366 in (EU) 2016/2341 (COM(2020) 596 final – 2020/0268 (COD)) (UL C 155, 30.4.2021, str. 38).

(4)  Mnenje Evropskega ekonomsko-socialnega odbora – Predlog direktive Evropskega parlamenta in Sveta o ukrepih za visoko skupno raven kibernetske varnosti v Uniji in razveljavitvi Direktive (EU) 2016/1148 ter predlog direktive Evropskega parlamenta in Sveta o odpornosti kritičnih subjektov (COM(2020) 823 final – 2020/0359 (COD), COM(2020) 829 final – 2020/0365 (COD)) (UL C 286, 16.7.2021, str. 170).

(5)  Mnenje Evropskega ekonomsko-socialnega odbora – Predlog uredbe Evropskega parlamenta in Sveta o določitvi harmoniziranih pravil o umetni inteligenci (akt o umetni inteligenci) in spremembi nekaterih zakonodajnih aktov Unije (COM(2021) 206 final – 2021/106 (COD)) (UL C 517, 22.12.2021, str. 61).

(6)  Oseba, ki upravlja vozilo, lahko vloži odškodninski zahtevek v skladu z zakonodajo o odgovornosti za proizvode.


Top