EVROPSKA KOMISIJA
Bruselj, 19.2.2020
COM(2020) 64 final
POROČILO KOMISIJE EVROPSKEMU PARLAMENTU, SVETU IN EVROPSKEMU EKONOMSKO-SOCIALNEMU ODBORU
Poročilo o vprašanjih varnosti in odgovornosti, ki jih sprožajo umetna inteligenca, internet stvari in robotika
Poročilo o vprašanjih varnosti in odgovornosti, ki jih sprožajo umetna inteligenca, internet stvari in robotika
1.Uvod
Umetna inteligenca, internet stvari in robotika bodo ustvarili nove priložnosti in koristi za našo družbo. Komisija je prepoznala pomen in potencial teh tehnologij, pa tudi potrebo po znatnih naložbah na teh področjih
. Zavezana je cilju, da Evropa postane vodilna v svetu na področjih umetne inteligence, interneta stvari in robotike. Za dosego tega cilja je potreben jasen in predvidljiv pravni okvir, ki bo obravnaval tehnološke izzive.
1.1.Obstoječi okvir za varnost in odgovornost
Splošni cilj pravnih okvirov za varnost in odgovornost je zagotoviti, da vsi proizvodi in storitve, vključno s tistimi z integriranimi digitalnimi tehnologijami v vzponu, delujejo varno, zanesljivo in dosledno ter da se morebitna nastala škoda učinkovito odpravi. Visoka raven varnosti proizvodov in sistemov z integriranimi novimi digitalnimi tehnologijami ter trdni mehanizmi za odpravljanje nastale škode (tj. okvir za odgovornost) prispevajo k boljšemu varstvu potrošnikov. Prav tako ustvarjajo zaupanje v te tehnologije, kar je predpogoj za njihovo sprejemanje v industriji in pri uporabnikih. To bo posledično spodbudilo konkurenčnost naše industrije in prispevalo k uresničevanju ciljev Unije. Jasen okvir za varnost in odgovornost je še posebej pomemben, ko se pojavijo nove tehnologije, kot so umetna inteligenca, internet stvari in robotika, in sicer zato, da se zagotovita varstvo potrošnikov in pravna varnost podjetij.
Unija ima robusten in zanesljiv regulativni okvir na področju varnosti in odgovornosti za proizvode ter trden sklop varnostnih standardov, ki jih dopolnjujejo nacionalne, neharmonizirane zakonodaje o odgovornosti. Skupaj zagotavljajo blaginjo naših državljanov na enotnem trgu ter spodbujajo inovacije in uvajanje novih tehnologij. Vendar pa umetna inteligenca, internet stvari in robotika spreminjajo značilnosti številnih proizvodov in storitev.
V
sporočilu o umetni inteligenci za Evropo
, sprejetem 25. aprila 2018, je bilo napovedano, da bo Komisija predložila poročilo z oceno posledic digitalnih tehnologij v vzponu za obstoječa okvira varnosti in odgovornosti. Namen tega poročila je opredeliti in preučiti širše posledice in morebitne vrzeli v okvirih odgovornosti in varnosti za umetno inteligenco, internet stvari in robotiko. Smernice iz tega poročila, ki spremlja belo knjigo o umetni inteligenci, so predvidene za razpravo in so del širšega posvetovanja z deležniki. Oddelek o varnosti temelji na oceni direktive o strojih in delu z zadevnimi strokovnimi skupinami. Oddelek o odgovornosti temelji na oceni direktive o odgovornosti za proizvode, prispevkih zadevnih strokovnih skupin in stikih z deležniki. Namen tega poročila ni, da se zagotovi izčrpen pregled obstoječih pravil o varnosti in odgovornosti, temveč da se pozornost nameni ključnim doslej opredeljenim vprašanjem.
1.2.Značilnosti tehnologij umetne inteligence, interneta stvari in robotike
Umetna inteligenca, internet stvari in robotika imajo veliko skupnih značilnosti. Z združevanjem povezljivosti, avtonomnosti in podatkovne odvisnosti lahko izvajajo naloge z malo ali nič človeškega nadzora. Sistemi, ki so opremljeni z umetno inteligenco, lahko izboljšajo svojo zmogljivost z učenjem iz izkušenj. Njihova kompleksnost se odraža v množici gospodarskih subjektov, vključenih v dobavno verigo, in raznovrstnosti sestavnih delov, elementov, programske opreme, sistemov ali storitev, ki skupaj tvorijo nove tehnološke ekosisteme. Poleg tega so po tem, ko so dani na trg, odprti za posodobitve in nadgradnje. Velike količine podatkov, zanašanje na algoritme in nepreglednost postopka odločanja umetne inteligence otežujejo napovedovanje vedenja proizvodov, podprtih z umetno inteligenco, in razumevanje možnih vzrokov za škodo. Povezljivost in odprtost pa lahko tudi povzročita, da so proizvodi, ki temeljijo na umetni inteligenci in internetu stvari, izpostavljeni kibernetskim grožnjam.
1.3.Priložnosti, ki jih ustvarjajo umetna inteligenca, internet stvari in robotika
Povečanje zaupanja uporabnikov in družbenega sprejemanja tehnologij v vzponu, izboljšanje proizvodov, postopkov in poslovnih modelov ter pomoč evropskim proizvajalcem, da postanejo učinkovitejši, so le nekatere priložnosti, ki jih ponujajo umetna inteligenca, internet stvari in robotika.
Poleg izboljšanja produktivnosti in učinkovitosti naj bi umetna inteligenca ljudem omogočila razvoj še ne dosežene inteligence, odprla vrata novim odkritjem in pomagala pri reševanju nekaterih največjih svetovnih izzivov: od zdravljenja kroničnih bolezni, napovedovanja izbruhov bolezni ali zmanjšanja števila smrtnih žrtev v prometnih nesrečah do boja proti podnebnim spremembam ali predvidevanja kibernetskih groženj.
Te tehnologije lahko z izboljšanjem varnosti proizvodov prinesejo številne koristi, saj bodo ti manj izpostavljeni določenim tveganjem. Povezana in avtomatizirana vozila bi lahko na primer izboljšala varnost v cestnem prometu, saj je večina prometnih nesreč trenutno posledica človeških napak
. Poleg tega so sistemi interneta stvari zasnovani za sprejemanje in obdelavo velikih količin podatkov iz različnih virov. To veliko količino informacij bi lahko izkoristili, da bi se proizvodi sami prilagajali in s tem postali varnejši. Nove tehnologije lahko prispevajo k učinkovitejšemu odpoklicu proizvodov, saj bi lahko na primer proizvodi sami opozarjali uporabnike na varnostne težave
. Če se med uporabo povezanega proizvoda pojavi varnostno vprašanje, lahko proizvajalci neposredno stopijo v stik z uporabniki, da jih opozorijo na tveganja in, če je to mogoče, takoj odpravijo težavo, na primer z varnostno posodobitvijo. Tako je na primer proizvajalec pametnega telefona leta 2017 med odpoklicem ene od svojih naprav izvedel posodobitev programske opreme, da bi zmogljivost baterije v odpoklicanih telefonih zmanjšal na 0 %
, tako da bi uporabniki prenehali uporabljati nevarne naprave.
Poleg tega lahko nove tehnologije prispevajo k boljši sledljivosti proizvodov. Funkcije povezljivosti interneta stvari lahko na primer podjetjem in organom za nadzor trga omogočijo, da spremljajo nevarne proizvode in ugotovijo tveganja v dobavnih verigah
.
Poleg tega, da umetna inteligenca, internet stvari in robotika prinašajo priložnosti za gospodarstvo in naše družbe, pa lahko tudi ogrozijo pravno zaščitene interese, tako materialne kot nematerialne. Tveganje za take grožnje se bo povečalo s širjenjem uporabe teh tehnologij. V zvezi s tem je treba analizirati, ali in v kolikšni meri je sedanji pravni okvir varnosti in odgovornosti še vedno primeren za zaščito uporabnikov.
2.Varnost
V sporočilu Komisije o krepitvi zaupanja v umetno inteligenco, osredotočeno na človeka, je navedeno, da morajo imeti sistemi umetne inteligence zaščitne in vgrajene varnostne mehanizme, ki zagotavljajo, da so sistemi preverljivo varni na vsakem koraku, pri čemer mora biti glavna skrb fizična in psihična varnost vseh zadevnih oseb.
Pri oceni zakonodaje Unije o varnosti proizvodov v tem oddelku je analizirano, ali sedanji zakonodajni okvir Unije vsebuje ustrezne elemente za zagotovitev, da imajo tehnologije v vzponu in zlasti sistemi umetne inteligence vgrajene zaščitne in varnostne mehanizme.
To poročilo obravnava predvsem direktivo o splošni varnosti proizvodov in harmonizirano zakonodajo o proizvodih, ki upošteva horizontalna pravila „novega pristopa“ in/ali „novega zakonodajnega okvira“ (v nadaljnjem besedilu: zakonodaja ali okvir Unije za varnost proizvodov). Horizontalna pravila zagotavljajo skladnost med sektorskimi pravili o varnosti proizvodov.
Namen zakonodaje Unije o varnosti proizvodov je zagotoviti, da proizvodi, dani na trg Unije, izpolnjujejo visoke zdravstvene, varnostne in okoljske zahteve ter da lahko taki proizvodi prosto krožijo po vsej Uniji. Sektorsko zakonodajo dopolnjuje direktiva o splošni varnosti proizvodov, ki zahteva, da morajo biti varni vsi potrošniški proizvodi, tudi če jih ne ureja sektorska zakonodaja EU. Varnostne predpise dopolnjujejo mehanizmi za nadzor trga in pooblastila, ki jih imajo nacionalni organi na podlagi uredbe o nadzoru trga in direktive o splošni varnosti proizvodov. Na področju prometa obstajajo dodatna pravila Unije in nacionalna pravila za začetek obratovanja motornih vozil, zrakoplovov ali ladij ter jasna pravila, ki urejajo varnost med obratovanjem, vključno z nalogami za upravljavce in nalogami nadzora, ki jih opravljajo organi.
Evropska standardizacija je prav tako bistven element zakonodaje Unije o varnosti proizvodov. Glede na globalno naravo digitalizacije in digitalnih tehnologij v vzponu je mednarodno sodelovanje pri standardizaciji posebej pomembno za konkurenčnost evropske industrije.
Velik del okvira Unije za varnost proizvodov je bil napisan pred pojavom digitalnih tehnologij, kot so umetna inteligenca, internet stvari ali robotika. Zato ne vsebuje določb, ki bi izrecno obravnavale nove izzive in tveganja v povezavi s temi novimi tehnologijami. Ker pa je obstoječi okvir za varnost proizvodov tehnološko nevtralen, to ne pomeni, da se ne uporablja za proizvode, ki vključujejo te tehnologije. Poleg tega poznejši zakonodajni akti, ki so del navedenega okvira, na primer o medicinskih pripomočkih ali avtomobilih, že izrecno obravnavajo nekatere vidike pojavljanja digitalnih tehnologij, npr. avtomatizirane odločitve, programsko opremo kot ločen proizvod in povezljivost.
Osnovna logika veljavne zakonodaje Unije o varnosti proizvodov
Izzivi, ki jih v okvir Unije za varnost proizvodov prinašajo digitalne tehnologije v vzponu, so predstavljeni v nadaljevanju.
Povezljivost je osrednji element vedno večjega števila proizvodov in storitev. Ta značilnost na preizkušnjo postavlja tradicionalni koncept varnosti, saj lahko povezljivost varnost proizvoda ogrozi neposredno ali pa posredno, kadar je mogoče vanj vdreti, kar vodi do varnostnih groženj in vpliva na varnost uporabnikov.
Primer tega je naveden v obvestilu Islandije, poslanem po sistemu hitrega obveščanja EU, ki se nanaša na pametno zapestno uro za otroke. Ta proizvod ne bi povzročil neposredne škode za otroka, ki ga nosi, toda ker ni zagotovljena minimalna raven varnosti, ga je mogoče z lahkoto uporabiti kot orodje za dostop do otroka. Ker je ena od predvidenih funkcij proizvoda varovanje otrok z lokalizacijo, bi potrošnik pričakoval, da ne predstavlja tveganj za otroke, ki bi lahko vplivala na njihovo varnost, na primer tako, da bi jih lahko kdor koli izsledil in/ali z njimi stopil v stik.
Drug primer je naveden v obvestilu, ki ga je predložila Nemčija v zvezi z osebnimi avtomobili. Radijski sprejemnik v avtomobilu ima lahko določene vrzeli glede varnosti programske opreme, ki nepooblaščenim tretjim osebam omogočajo dostop do medsebojno povezanih krmilnih sistemov v vozilu. Če bi tretje osebe te vrzeli v varnosti programske opreme izkoristile za zlonamerne namene, bi lahko prišlo do prometne nesreče.
Če industrijske aplikacije nimajo potrebne ravni zaščite, so lahko izpostavljene kibernetskim grožnjam, ki vplivajo na varnost ljudi v večjem obsegu. To lahko velja na primer za kibernetske napade na kritični nadzorni sistem industrijskega obrata, ki bi lahko sprožili eksplozijo, pri kateri bi prišlo do smrtnih žrtev.
Zakonodaja Unije o varnosti proizvodov na splošno ne določa posebnih obveznih bistvenih zahtev za preprečevanje kibernetskih groženj, ki bi vplivale na varnost uporabnikov. Vendar pa v uredbi o medicinskih pripomočkih, direktivi o merilnih instrumentih, direktivi o radijski opremi ali zakonodaji o homologaciji vozil obstajajo določbe v zvezi z varnostnimi vidiki. Akt o kibernetski varnosti vzpostavlja prostovoljni okvir certificiranja za proizvode, storitve in postopke informacijske in komunikacijske tehnologije na področju kibernetske varnosti, ustrezna zakonodaja Unije o varnosti proizvodov pa določa obvezne zahteve.
Poleg tega lahko tveganje izgube povezljivosti pri digitalnih tehnologijah v vzponu pomeni tudi varnostna tveganja. Če na primer povezani požarni alarm izgubi povezljivost, se lahko zgodi, da uporabnika ne bo opozoril v primeru požara.
Koncept varnost v veljavni zakonodaji Unije o varnosti proizvodov je v skladu z razširjenim konceptom varnosti za zaščito potrošnikov in uporabnikov. Koncept varnosti proizvodov tako zajema zaščito pred vsemi vrstami tveganj, ki izhajajo iz proizvoda, kar vključuje ne le mehanska, kemična in električna tveganja, temveč tudi kibernetska tveganja in tveganja, povezana z izgubo povezljivosti naprav.
V zvezi s tem bi lahko razmislili o izrecnih določbah za področja uporabe zadevnih zakonodajnih aktov Unije, da bi zagotovili boljšo zaščito uporabnikov in večjo pravno varnost.
Avtonomnost je ena od glavnih značilnosti umetne inteligence. Neželene posledice uporabe umetne inteligence bi lahko škodovale uporabnikom in izpostavljenim osebam.
Za primere, ko je prihodnje „vedenje“ proizvodov umetne inteligence mogoče vnaprej določiti z oceno tveganja, ki jo proizvajalec izvede pred dajanjem proizvodov na trg, okvir Unije za varnost proizvodov že določa obveznosti za proizvajalce, da v oceni tveganja upoštevajo „uporabo“ proizvodov skozi vso življenjsko dobo. Predvideva tudi, da morajo proizvajalci zagotoviti navodila in varnostne informacije za uporabnike ali opozorila. V tem smislu Direktiva o radijski opremi na primer zahteva, da proizvajalec v navodila vključi informacije o tem, kako uporabljati radijsko opremo v skladu z njeno predvideno uporabo.
V prihodnosti lahko pride tudi do primerov, ko posledic uporabe sistemov umetne inteligence ne bo mogoče v celoti določiti vnaprej. V takih primerih ocena tveganja, opravljena pred dajanjem proizvoda na trg, morda ne bo več odražala uporabe, delovanja ali vedenja proizvodov. Če se uporaba, ki jo je prvotno predvidel proizvajalec, spremeni zaradi avtonomnega vedenja proizvoda in če to vpliva na skladnost z varnostnimi zahtevami, se lahko razmisli o zahtevi, da se opravi ponovna ocena proizvoda, zmožnega samoučenja.
V sedanjem okviru se od proizvajalcev že zahteva, da takoj, ko ugotovijo, da proizvod v svojem življenjskem ciklu predstavlja tveganja, ki vplivajo na varnost, obvestijo pristojne organe in sprejmejo ukrepe za preprečevanje ogrožanja uporabnikov.
Poleg ocene tveganja, ki je bila opravljena pred dajanjem proizvoda na trg, bi lahko uvedli nov postopek za oceno tveganja, če pri proizvodu v času njegove življenjske dobe pride do bistvenih sprememb, npr. dobi drugo funkcijo, ki jo proizvajalec ni predvidel v prvotni oceni tveganja. Ta postopek bi se morali osredotočiti na vpliv na varnost, ki ga ima avtonomno vedenje proizvoda v celotni življenjski dobi. Oceno tveganja bi moral izvesti ustrezen gospodarski subjekt. Poleg tega bi lahko ustrezni zakonodajni akti Unije vključevali okrepljene zahteve za proizvajalce v zvezi z navodili in opozorili za uporabnike.
Podobne ocene tveganja se že zahtevajo v zakonodaji na področju prometa; na primer, zakonodaja o železniškem prometu zahteva, da v primeru, ko se železniško vozilo spremeni po izdaji spričevala, avtor spremembe izvede poseben postopek, prav tako pa vsebuje jasna merila za določitev, ali je treba vključiti tudi ustrezni organ.
Funkcija samoučenja proizvodov in sistemov umetne inteligence lahko omogoči, da naprava sprejema odločitve, ki odstopajo od tega, kar je prvotno predvidel proizvajalec, in posledično od tega, kar pričakujejo uporabniki. To sproža vprašanja o človeškem nadzoru, saj bi morali ljudje imeti možnost, da izberejo, kako, če sploh, bodo odločitve prepustili proizvodom in sistemom umetne inteligence, da bi ti uresničili cilje, ki jih ljudje določijo. Obstoječa zakonodaja Unije o varnosti proizvodov ne zajema izrecno človeškega nadzora v kontekstu samoučečih se proizvodov in sistemov umetne inteligence.
Ustrezni zakonodajni akti Unije lahko kot varovalo predvidijo posebne zahteve za človeški nadzor, in sicer od zasnove proizvoda ter skozi celotni življenjski cikel proizvodov in sistemov umetne inteligence.
Prihodnje „vedenje“ aplikacij umetne inteligence bi lahko povzročilo tveganje za duševno zdravje uporabnikov, na primer zaradi interakcije s humanoidnimi roboti in sistemi umetne inteligence doma ali v delovnem okolju. V zvezi s tem se danes pojem varnosti na splošno nanaša na tisto, kar uporabniki občutijo kot tveganja za fizične poškodbe, ki bi lahko nastale zaradi digitalne tehnologije v vzponu. Hkrati so v pravnem okviru EU varni proizvodi opredeljeni kot proizvodi, ki ne predstavljajo tveganja ali pomenijo le minimalno tveganje za varnost in zdravje ljudi. Splošno sprejeto je, da opredelitev zdravja vključuje tako telesno kot duševno dobro počutje. Vendar bi morala biti tveganja za duševno zdravje v zakonodajnem okviru izrecno zajeta v pojmu varnosti proizvodov.
Avtonomnost na primer ne bi smela povzročati čezmernega stresa in neugodja za daljša obdobja ter škodovati duševnemu zdravju. V zvezi s tem se za dejavnike, ki pozitivno vplivajo na občutek varnosti pri starejših, štejejo: uspešni odnosi z zaposlenimi v zdravstvu, nadzor nad dnevnimi rutinami in obveščanje o njih. Proizvajalci robotov, ki so v interakciji s starejšimi, bi morali te dejavnike upoštevati pri preprečevanju tveganj za duševno zdravje.
Pri področju uporabe zadevne zakonodaje EU bi lahko razmislili o izrecnih obveznostih za proizvajalce, na primer humanoidnih robotov, ki temeljijo na umetni inteligenci, da bi posebej upoštevali nematerialno škodo, ki bi jo njihovi proizvodi lahko povzročili uporabnikom, zlasti ranljivim uporabnikom, kot so starejši v domovih.
Še ena bistvena značilnost proizvodov in sistemov, ki temeljijo na umetni inteligenci, je podatkovna odvisnost. Točnost in ustreznost podatkov je bistvenega pomena za zagotovitev, da sistemi in proizvodi, ki temeljijo na umetni inteligenci, sprejemajo odločitve tako, kot je predvidel proizvajalec.
Zakonodaja Unije o varnosti proizvodov ne obravnava izrecno tveganj za varnost, ki izhajajo iz pomanjkljivih podatkov. Vendar bi morali proizvajalci glede na predvideno „uporabo“ proizvoda že med fazama zasnove in preskušanja predvideti točnost podatkov in njen pomen za varnostne funkcije.
Na primer, sistem, ki temelji na umetni inteligenci in je zasnovan za odkrivanje določenih predmetov, ima lahko težave s prepoznavanjem predmetov v slabih pogojih osvetlitve, zato bi morali načrtovalci vključiti podatke, pridobljene s preskusi proizvodov v običajnih in slabo osvetljenih okoljih.
Drug primer se nanaša na kmetijske robote, kot so roboti za pobiranje sadja, ki odkrivajo zrele sadeže na drevesih ali na tleh. Čeprav uporabljeni algoritmi že kažejo več kot 90-odstotno stopnjo uspešnosti pri razvrščanju, bi lahko pomanjkljivosti v podatkovnih nizih, iz katerih črpajo ti algoritmi, vodile k temu, da bi roboti sprejeli slabo odločitev in posledično poškodovali žival ali človeka.
Postavlja se vprašanje, ali bi morala zakonodaja Unije o varnosti proizvodov vsebovati posebne zahteve, ki bi obravnavale tveganja za varnost zaradi pomanjkljivih podatkov v fazi zasnove, ter mehanizme za zagotavljanje, da se kakovost podatkov vzdržuje ves čas uporabe proizvodov in sistemov umetne inteligence.
Nepreglednost je še ena od glavnih značilnosti nekaterih proizvodov in sistemov umetne inteligence, ki lahko nastane zaradi zmožnosti proizvodov in sistemov, da izboljšajo svojo zmogljivost na podlagi učenja iz izkušenj. Glede na metodološki pristop je za proizvode in sisteme, ki temeljijo na umetni inteligenci, značilna različna stopnja nepreglednosti. To lahko privede do tega, da je težko slediti postopku odločanja sistema („učinek črne škatle“). Ljudem morda ni treba razumeti vsake posamezne faze postopka odločanja, vendar je v času, ko so algoritmi umetne inteligence vse bolj napredni in se uporabljajo na kritičnih področjih, zelo pomembno, da so ljudje zmožni razumeti, kako so bile sprejete algoritemske odločitve sistema. To bi bilo še posebej pomembno za naknadni mehanizem izvrševanja, saj bo izvršilnim organom omogočilo spremljati odgovornost ravnanja in izbire sistemov umetne inteligence. To potrjuje tudi sporočilo Komisije o krepitvi zaupanja v umetno inteligenco, osredotočeno na človeka.
Zakonodaja Unije o varnosti proizvodov ne obravnava izrecno vse večjih tveganj, ki izhajajo iz nepreglednosti sistemov, ki temeljijo na algoritmih. Zato je treba razmisliti o zahtevah za preglednost algoritmov ter tudi za zanesljivost, odgovornost in, kadar je to ustrezno, človeški nadzor in nepristranske rezultate, kar je zlasti pomembno za naknadni mehanizem izvrševanja, in graditi zaupanje v uporabo navedenih tehnologij. Eden od načinov reševanja tega izziva bi bila uvedba obveznosti za razvijalce algoritmov, da v primeru nesreč razkrijejo parametre zasnove in metapodatke o podatkovnih nizih.
Dodatna tveganja, ki bi lahko vplivala na varnost, so tista, ki izhajajo iz kompleksnosti proizvodov in sistemov, saj so lahko različni sestavni deli, naprave in proizvodi povezani in vplivajo na delovanje drug drugega (npr. proizvodi, ki so del pametnega domačega ekosistema).
Ta kompleksnost je že obravnavana v pravnem okviru Unije za varnost proizvodov, ki je omenjen na začetku tega oddelka. Zlasti mora proizvajalec pri oceni tveganja za proizvod upoštevati predvideno uporabo, predvidljivo uporabo in, kjer je to primerno, razumno predvidljivo napačno uporabo.
Če proizvajalec predvidi, da bo naprava medsebojno povezana in bo komunicirala z drugimi napravami, bi bilo treba to upoštevati pri oceni tveganja. Uporaba ali napačna uporaba se na primer določi na podlagi izkušenj z uporabo enake vrste proizvoda v preteklosti, preiskav nesreč ali človeškega vedenja.
Kompleksnost sistemov je podrobneje obravnavana tudi v sektorski zakonodaji o varnosti proizvodov, kot je uredba o medicinskih pripomočkih, in do določene mere v zakonodaji o splošni varnosti proizvodov. Na primer, proizvajalec povezane naprave, ki naj bi bila del pametnega domačega ekosistema, bi moral biti zmožen razumno predvideti, da bodo njegovi proizvodi vplivali na varnost drugih proizvodov.
Poleg tega zakonodaja o prometu obravnava to kompleksnost na sistemski ravni. Za avtomobile, vlake in letala se homologacija in certificiranje izvajata za vsak sestavni del ter za celotno vozilo ali zrakoplov. Tehnična ustreznost vozil in zrakoplovov ter interoperabilnost železniškega sistema sta vključeni v oceno varnosti. V prometu mora „sisteme“ „odobriti“ organ, in sicer bodisi na podlagi ocene skladnosti z jasno določenimi tehničnimi zahtevami, ki jo izvede tretja stran, ali po predstavitvi obravnavanja tveganj. Rešitev je na splošno kombinacija ravni „proizvoda“ in „sistema“.
Zakonodaja Unije o varnosti proizvodov, vključno s prometno zakonodajo, v določeni meri že upošteva kompleksnost proizvodov ali sistemov, da bi odpravila tveganja, ki bi lahko vplivala na varnost uporabnikov.
Kompleksni sistemi pogosto vključujejo programsko opremo, ki je bistven sestavni del sistema, ki temelji na umetni inteligenci. Na splošno mora proizvajalec končnega proizvoda v prvotni oceni tveganja predvideti tveganja v zvezi s programsko opremo, ki je integrirana v proizvod ob dajanju na trg.
Nekateri deli zakonodaje Unije o varnosti proizvodov se izrecno sklicujejo na programsko opremo, ki je integrirana v proizvod. Direktiva o strojih na primer zahteva, da napaka programske opreme krmilnega sistema ne sme povzročiti nevarnih situacij.
V zakonodaji Unije o varnosti proizvodov je posodobitve programske opreme mogoče primerjati z vzdrževalnimi ukrepi iz varnostnih razlogov, če bistveno ne spreminjajo proizvoda, ki je že bil dan na trg, in ne prinašajo novih tveganj, ki niso bila predvidena v prvotni oceni tveganja. Če pa posodobitev programske opreme bistveno spremeni proizvod, v katerega se naloži, se lahko celoten proizvod šteje za nov proizvod, pri čemer je treba skladnost z ustrezno zakonodajo o varnostni proizvodov ponovno oceniti, ko se izvede sprememba.
Harmonizirana sektorska zakonodaja Unije o varnosti proizvodov za posamezne sektorje na splošno ne vsebuje posebnih določb za samostojno programsko opremo, dano na trg kot tako ali naloženo po tem, ko je bil na trg dan proizvod. Vendar nekateri deli zakonodaje Unije obravnavajo samostojno programsko opremo, na primer uredba o medicinskih pripomočkih. Poleg tega se samostojna programska oprema, naložena v povezane proizvode, ki komunicirajo prek nekaterih radijskih modulov, z delegiranimi akti lahko ureja tudi na podlagi direktive o radijski opremi. Navedena direktiva zahteva, da posebni razredi ali kategorije radijske opreme podpirajo funkcije, ki zagotavljajo, da pri nalaganju programske opreme ni ogrožena skladnost te opreme.
Zakonodaja Unije o varnosti proizvodov upošteva varnostna tveganja, ki izhajajo iz programske opreme, integrirane v proizvod ob njegovem dajanju na trg, in morebitnih naknadnih posodobitev, ki jih predvidi proizvajalec, vendar pa bi lahko bile potrebne posebne in/ali izrecne zahteve glede samostojne programske opreme (npr. „aplikacij“, ki se prenesejo). Posebno pozornost bi bilo treba nameniti samostojni programski opremi, ki zagotavlja varnostne funkcije v proizvodih in sistemih umetne inteligence.
Morda bodo potrebne dodatne obveznosti za proizvajalce, da se zagotovi, da bodo poskrbeli za funkcije za preprečevanje nalaganja programske opreme, ki vpliva na varnost, med življenjsko dobo proizvodov umetne inteligence.
Na digitalne tehnologije v vzponu pa vplivajo tudi kompleksne vrednostne verige. Vendar ta kompleksnost ni nova niti ne gre zgolj za vprašanje, ki bi ga prinesle digitalne tehnologije v vzponu, kot sta umetna inteligenca ali internet stvari. To velja na primer za proizvode, kot so računalniki, strežni roboti ali prevozni sistemi.
V okviru Unije za varnost proizvodov ostaja odgovornost za varnost proizvoda na strani proizvajalca, ki da proizvod na trg, ne glede na to, kako kompleksna je vrednostna veriga. Proizvajalci so odgovorni za varnost končnega proizvoda, vključno z deli, vgrajenimi v proizvod, npr. programsko opremo računalnika.
Nekateri deli zakonodaje Unije o varnosti proizvodov že vsebujejo določbe, ki se izrecno nanašajo na primere, ko v določen proizvod posega več gospodarskih subjektov, preden se ta da na trg. Direktiva o dvigalih na primer zahteva, da gospodarski subjekt, ki načrtuje in izdela dvigalo, monterju zagotovi „vse potrebne dokumente in informacije, da ji omogoči zagotovitev pravilne in varne montaže in preskušanja dvigala“. Direktiva o strojih zahteva, da proizvajalci opreme upravljavcu zagotovijo informacije o montiranju te opreme na druge stroje.
Zakonodaja Unije o varnosti proizvodov upošteva kompleksnost vrednostnih verig in nalaga obveznosti za več gospodarskih subjektov na podlagi načela „deljene odgovornosti“.
Odgovornost proizvajalca za varnost končnih proizvodov se je izkazala kot primerna za sedanje kompleksne vrednostne verige, vendar bi lahko izrecne določbe, ki bi posebej zahtevale sodelovanje med gospodarskimi subjekti v dobavni verigi in uporabniki, zagotovile pravno varnost v morda še bolj kompleksnih vrednostnih verigah. Zlasti bi vsak akter v vrednostni verigi, ki ima vpliv na varnost proizvoda (npr. proizvajalci programske opreme) in uporabnik (ki spremeni proizvod), prevzel odgovornost ter naslednjemu akterju v vrednostni verigi sporočil potrebne informacije in ukrepe.
3.Odgovornost
Na ravni Unije določbe o varnosti proizvodov in odgovornosti za proizvode predstavljajo dopolnjujoča se mehanizma za uresničitev istega cilja politike, in sicer delujočega enotnega trga za blago, ki zagotavlja visoko raven varnosti, tj. da se čim bolj zmanjšajo tveganja škode za uporabnike in zagotovijo nadomestila za škodo, ki je posledica blaga z napako.
Na nacionalni ravni neharmonizirani okviri civilne odgovornosti dopolnjujejo ta pravila Unije, tako da zagotavljajo nadomestilo za škodo iz različnih razlogov (npr. za proizvode in storitve) in obravnavajo različne odgovorne osebe (npr. lastnike, upravljavce ali ponudnike storitev).
Čeprav se je z optimizacijo predpisov Unije o varnosti za umetno inteligenco mogoče izogniti nesrečam, se te lahko kljub vsemu zgodijo. Takrat se uporabi civilna odgovornost. Pravila o civilni odgovornosti imajo v naši družbi dvojno vlogo: po eni strani zagotavljajo, da žrtve škode, ki so jo povzročili drugi, dobijo odškodnino, po drugi strani pa dajejo ekonomske spodbude odgovorni osebi, da bi se izognila povzročitvi take škode. Pravila o odgovornosti morajo vedno najti ravnotežje med zaščito državljanov pred škodo ter omogočanjem, da podjetja sprejemajo inovacije.
Okviri odgovornosti v Uniji delujejo dobro. Opirajo se na vzporedno uporabo direktive o odgovornosti za proizvode (Direktiva 85/374/EGS), ki je harmonizirala odgovornost proizvajalca proizvodov z napako, in drugih neharmoniziranih nacionalnih ureditev odgovornosti.
Direktiva o odgovornosti za proizvode zagotavlja zaščito na ravni, ki je nacionalna pravila o krivdni odgovornosti sama po sebi ne pokrivajo. Uvaja sistem objektivne odgovornosti proizvajalca za škodo, ki je nastala zaradi napake na njihovih proizvodih. V primeru fizične ali materialne škode ima oškodovanec pravico do odškodnine, če dokaže škodo, napako na proizvodu (tj. da proizvod ni zagotovil varnosti, ki jo javnost upravičeno pričakuje) in vzročno zvezo med proizvodom z napako in škodo.
Nacionalne neharmonizirane ureditve zagotavljajo pravila o krivdni odgovornosti, v skladu s katerimi morajo oškodovanci za uspešno odškodninsko terjatev dokazati krivdo odgovorne osebe, škodo in vzročno zvezo med napako in škodo. Prav tako določajo režime objektivne odgovornosti, kadar nacionalni zakonodajalec odgovornost za tveganje pripiše določeni osebi, pri čemer oškodovancu ni treba dokazati krivde/napake ali vzročne zveze med krivdo/napako in škodo.
Nacionalne ureditve odgovornosti žrtvam škode, ki so jo povzročili proizvodi in storitve, ponujajo možnost več vzporednih odškodninskih zahtevkov, ki temeljijo na krivdni ali objektivni odgovornosti. Ti zahtevki so pogosto naslovljeni na različne odgovorne osebe in zanje veljajo drugačni pogoji.
Na primer, oškodovanec, udeležen v avtomobilski nesreči, lahko običajno vloži zahtevek za ugotovitev objektivne odgovornosti lastnika vozila (tj. osebe, ki sklene zavarovanje avtomobilske odgovornosti) in zahtevek za ugotovitev krivdne odgovornosti voznika, oba v skladu z nacionalnim civilnim pravom, v skladu z direktivo o odgovornosti za proizvode pa poleg tega tudi zahtevek proti proizvajalcu, če je imel avtomobil napako.
V skladu s harmoniziranimi pravili o zavarovanju za motorna vozila mora biti uporaba vozila zavarovana, zavarovatelj pa je v praksi vedno prvi, na katerega se naslovi odškodninski zahtevek za telesno poškodbo ali materialno škodo. V skladu s temi pravili obvezno zavarovanje oškodovancu zagotavlja nadomestilo in ščiti zavarovano osebo, ki je po nacionalnih predpisih civilnega prava odgovorna za plačilo denarne odškodnine za prometno nesrečo, v kateri je bilo udeleženo motorno vozilo. Za proizvajalce se v skladu z direktivo o odgovornosti za proizvode ne uporablja obvezno zavarovanje. Kar zadeva zavarovanje motornih vozil, avtonomna vozila v zakonodaji EU niso obravnavana drugače kot neavtonomna. Za taka vozila mora biti kot za vsa vozila sklenjeno zavarovanje avtomobilske odgovornosti za škodo, povzročeno tretjim osebam, ki za oškodovanca predstavlja najlažji način, da prejme nadomestilo.
Z ustreznim zavarovanjem se lahko ublažijo negativne posledice nesreč, tako da se nemoteno zagotovi odškodnina za oškodovance. Jasna pravila o odgovornosti zavarovalnicam pomagajo izračunati tveganja in od stranke, ki je dejansko odgovorna za škodo, zahtevati povračilo. Če je na primer nesreča povzročena zaradi napake v vozilu, lahko zavarovatelj motornega vozila po izplačilu odškodnine oškodovancu zahteva povračilo od proizvajalca.
Vendar značilnosti digitalnih tehnologij v vzponu, kot so umetna inteligenca, internet stvari in robotika, ogrožajo nekatere vidike okvirov za odgovornost na ravni Unije in nacionalni ravni ter bi lahko zmanjšale njihovo učinkovitost. Nekatere od teh značilnosti bi lahko povzročile, da bi bilo škodo težko povezati s človeškim ravnanjem, kar bi lahko bila podlaga za zahtevek za ugotavljanje krivdne odgovornosti v skladu z nacionalnimi pravili. To pomeni, da bi lahko bilo utemeljevanje odškodninskih zahtevkov na podlagi nacionalne odškodninske zakonodaje težavno ali predrago, oškodovanci pa posledično morda ne bi mogli prejeti ustrezne odškodnine. Pomembno je, da žrtve nesreč, ki so povezane s proizvodi in storitvami, ki vključujejo digitalne tehnologije v vzponu, kot je umetna inteligenca, niso deležni nižje ravni varstva kot žrtve nesreč, povezanih s podobnimi drugimi proizvodi in storitvami, za katere bi dobili odškodnino na podlagi nacionalne odškodninske zakonodaje. To bi lahko zmanjšalo družbeno sprejemljivost navedenih novih tehnologij in povzročilo, da bi jih ljudje uporabljali z oklevanjem.
Treba bo oceniti, ali bi lahko izzivi, ki jih predstavljajo nove tehnologije za obstoječe okvire, povzročili tudi pravno negotovost glede uporabe obstoječe zakonodaje (npr. kako bi se pojem krivde uporabljal za škodo, ki jo je povzročila umetna inteligenca). To bi lahko zaviralo naložbe ter povečalo stroške obveščanja in zavarovanja za proizvajalce in druga podjetja v dobavni verigi, zlasti evropska MSP. Če bi države članice nazadnje obravnavale izzive, s katerimi se soočajo nacionalni okviri za odgovornost, bi to poleg tega lahko privedlo do nadaljnje razdrobljenosti, s čimer bi se povečali stroški za uvajanje inovativnih rešitev na podlagi umetne inteligence in zmanjšala čezmejna trgovina na enotnem trgu. Pomembno je, da podjetja poznajo tveganja v zvezi z odgovornostjo v celotni vrednostni verigi in jih lahko zmanjšajo ali preprečijo ter se pred njimi zavarujejo.
To poglavje pojasnjuje, kako nove tehnologije na preizkušnjo postavljajo obstoječe okvire in kako bi lahko obravnavali te izzive. Poleg tega bi bilo treba posebej razmisliti o posebnostih nekaterih sektorjev, na primer zdravstvenega.
Kompleksnost proizvodov, storitev in vrednostne verige: v zadnjih desetletjih sta se tehnologija in industrija močno razvili. Zlasti ločnica med proizvodi in storitvami ni več tako jasna, kot je bila. Proizvodi in zagotavljanje storitev se vse bolj prepletajo. Čeprav kompleksni proizvodi in vrednostne verige za evropsko industrijo ali njen regulativni model niso novi, pa si programska oprema in umetna inteligenca zaslužita posebno pozornost, ko gre za odgovornost za proizvode. Programska oprema je bistvena za delovanje številnih proizvodov in lahko vpliva na njihovo varnost. Integrirana je v proizvode, lahko pa se dobavlja tudi ločeno, da se omogoči predvidena uporaba proizvoda. Niti računalnik niti pametni telefon ne bi bila posebno uporabna brez programske opreme. To pomeni, da lahko programska oprema povzroči napako na oprijemljivem proizvodu in posledično fizično škodo (glej okvir o programski opremi v poglavju o varnosti). To bi posledično spet pomenilo odgovornost proizvajalca na podlagi direktive o odgovornosti za proizvode.
Ker pa obstajajo številne različne vrste in oblike programske opreme, je ni vedno enostavno razvrstiti bodisi kot storitev bodisi kot proizvod. Medtem ko bi programsko opremo, ki usmerja delovanje oprijemljivega proizvoda, lahko razumeli kot element ali sestavni del tega proizvoda, je nekatere oblike samostojne programske opreme težje razvrstiti.
Čeprav je opredelitev proizvoda iz direktive o odgovornosti za proizvode široka, bi se njeno področje uporabe lahko še podrobneje opredelilo, da bi se bolje odražala kompleksnost tehnologij v vzponu in zagotovilo, da je odškodnina vedno na voljo za škodo, ki jo povzročijo proizvodi, ki imajo napako zaradi programske opreme ali drugih digitalnih funkcij. To bi gospodarskim subjektom, kot so razvijalci programske opreme, omogočilo, da bolje ocenijo, ali bi se jih lahko štelo za proizvajalce v skladu z direktivo o odgovornosti za proizvode.
Aplikacije umetne inteligence so pogosto povezane v kompleksnih okoljih interneta stvari, v katerih medsebojno delujejo številne različne povezane naprave in storitve. Združevanje različnih digitalnih komponent v kompleksnem ekosistemu in pluralnost vpletenih akterjev lahko oteži oceno, kaj je izvor morebitne škode in katera oseba je zanjo odgovorna. Zaradi kompleksnosti teh tehnologij je za oškodovance morda zelo težko identificirati odgovorno osebo in dokazati vsa potrebna dejstva za uspešno terjatev, kot to zahteva nacionalna zakonodaja. Stroški dokazovanja so lahko ekonomsko nevzdržni in oškodovance odvračajo od uveljavljanja odškodnine.
Poleg tega bodo proizvodi in storitve, ki temeljijo na umetni inteligenci, delovali skupaj s tradicionalnimi tehnologijami, kar bo povzročilo dodatno zapletenost tudi v zvezi z odgovornostjo. Avtonomni avtomobili si bodo na primer v nekem trenutku delili cesto s tradicionalnimi vozili. V nekaterih storitvenih sektorjih (kot so upravljanje prometa in zdravstveno varstvo), kjer bodo delno avtomatizirani sistemi umetne inteligence podpirali človekove odločitve, se bo pojavila podobna kompleksnost medsebojno delujočih akterjev.
V skladu s poročilom podskupine za nove tehnologije v okviru strokovne skupine za odgovornost in nove tehnologije bi veljalo razmisliti o prilagoditvi nacionalnih zakonov za olajšanje dokaznega bremena žrtev škode, povezane z umetno inteligenco. Dokazno breme bi bilo na primer lahko vezano na skladnost (s strani zadevnega izvajalca) s posebnimi obveznostmi v zvezi s kibernetsko varnostjo ali drugimi varnostnimi zahtevami, določenimi z zakonom: v primeru nespoštovanja teh pravil bi se lahko dokazno bremene glede krivde in vzročne zveze preložilo na nasprotno stran.
Komisija si prizadeva pridobiti mnenja o tem, ali in v kakšnem obsegu bo morda treba ublažiti posledice kompleksnosti z lajšanjem/preložitvijo dokaznega bremena, ki ga zahtevajo nacionalni predpisi o odgovornosti za škodo, nastalo zaradi delovanja aplikacij umetne inteligence, in sicer na podlagi ustrezne pobude EU.
Kar zadeva zakonodajo Unije, bi se v skladu z direktivo o odgovornosti za proizvode za proizvod, ki ne izpolnjuje obveznih varnostnih predpisov, štelo, da ima napako, ne glede na krivdo proizvajalcev. Obstajajo pa lahko tudi razlogi za razmislek o tem, kako olajšati dokazno breme za oškodovance v skladu z Direktivo: direktiva se opira na nacionalne predpise o dokazovanju in na določitev vzročne zveze.
Povezljivost in odprtost: Trenutno ni povsem jasno, kakšna bi lahko bila pričakovanja glede varnosti v zvezi s škodo, ki izhaja iz kršitev kibernetske varnosti v proizvodih, in ali bi bila odškodnina za tako škodo ustrezno povrnjena v skladu z direktivo o odgovornosti za proizvode.
Težave na področju kibernetske varnosti lahko obstajajo že od samega začetka, ko je proizvod dan v promet, lahko pa se pojavijo tudi precej pozneje.
V okvirih krivdne odgovornosti določitev jasnih obveznosti glede kibernetske varnosti operaterjem omogoča, da ugotovijo, kaj morajo storiti, da bi se izognili posledicam odgovornosti.
V skladu z direktivo o odgovornosti za proizvode bi vprašanje, ali bi lahko proizvajalec predvidel nekatere spremembe ob upoštevanju razumno predvidljive uporabe proizvoda, lahko postalo pomembnejše. Lahko bi na primer prišlo do pogostejšega sklicevanja na „pozneje nastalo napako“, pri čemer proizvajalec ni odgovoren, če napaka ni obstajala v času, ko je bil proizvod dan v promet, ali na „razvojno tveganje“ (tj. da s takratnim tehničnim znanjem ni bilo mogoče predvideti napake). Poleg tega bi se lahko zmanjšala odgovornost, če oškodovanec ne bi izvajal posodobitev, pomembnih za varnost. To bi se potencialno lahko štelo za malomarno ravnanje oškodovanca, s čimer bi se zmanjšala odgovornost proizvajalca. Ker lahko pojem razumno predvidljive uporabe in vprašanje malomarnosti oškodovanca, kot je neprenos varnostne posodobitve, postaneta bolj pomembna, se lahko zgodi, da bodo oškodovanci težje prišli do nadomestila za škodo, ki je nastala zaradi napake proizvoda.
Avtonomnost in nepreglednost: kadar so aplikacije umetne inteligence sposobne delovati avtonomno, opravljajo nalogo, pri kateri ni vsak korak vnaprej določen, in to z manj, nazadnje pa tudi popolnoma brez neposrednega človeškega nadzora. Algoritme, ki temeljijo na strojnem učenju, je včasih težko, skoraj nemogoče razumeti (tako imenovani „učinek črne škatle“).
Poleg kompleksnosti, ki je bila obravnavana zgoraj, je lahko pridobitev nadomestila za škodo, ki so jo povzročile avtonomne aplikacije umetne inteligence, oteženo tudi zaradi učinka črne škatle v zvezi z nekaterimi aplikacijami umetne inteligence. Potreba po razumevanju algoritma in podatkov, ki jih uporablja umetna inteligenca, zahteva analitično in tehnično strokovno znanje, ki bi bilo za oškodovance lahko predrago. Poleg tega dostop do algoritmov in podatkov ne bi bil mogoč brez sodelovanja potencialno odgovorne stranke. V praksi oškodovanci torej morda ne bi mogli uveljavljati odškodninskega zahtevka. Poleg tega ne bi bilo jasno, kako dokazati krivdo, kadar umetna inteligenca deluje avtonomno, ali kaj se šteje za napako osebe, ki se zanaša na uporabo umetne inteligence.
Nacionalne zakonodaje so že razvile številne rešitve za zmanjšanje dokaznega bremena za oškodovance v podobnih primerih.
Vodilno načelo Unije za varnost proizvodov in odgovornost za proizvode ostaja, da so proizvajalci tisti, ki morajo zagotoviti, da so vsi proizvodi, dani na trg, varni skozi celoten življenjski cikel ter ob uporabi proizvoda, ki jo je mogoče razumno predvideti. To pomeni, da bi moral proizvajalec zagotoviti, da je proizvod, ki uporablja umetno inteligenco, skladen z določenimi varnostnimi parametri. Značilnosti umetne inteligence ne izključujejo pravice potrošnikov, da pričakujejo varen proizvod, ne glede na to, ali gre za samodejne kosilnice ali kirurške robote.
Avtonomnost lahko vpliva na varnost proizvoda, saj lahko bistveno spremeni lastnosti proizvoda, vključno z njegovimi varnostnimi značilnostmi. Gre za vprašanje, pod kakšnimi pogoji funkcije samoučenja podaljšujejo odgovornost proizvajalca in v kolikšni meri bi moral proizvajalec predvideti določene spremembe.
Ob natančnem upoštevanju ustreznih sprememb v okviru Unije za varnost proizvodov bi se lahko pojem „dajanje v promet“, ki se trenutno uporablja v direktivi o odgovornosti za proizvode, ponovno proučil, da bi se upoštevalo dejstvo, da se proizvodi lahko spremenijo. To bi lahko tudi pomagalo pojasniti, kdo je odgovoren za morebitne spremembe proizvoda.
V skladu s poročilom podskupine za nove tehnologije v okviru skupine strokovnjakov za odgovornost in nove tehnologije bi lahko imelo delovanje nekaterih avtonomnih naprav in storitev umetne inteligence poseben profil tveganja v smislu odgovornosti, saj bi lahko povzročile znatno škodo za pomembne pravne interese, kot so življenje, zdravje in premoženje, ter bi široko javnost izpostavile tveganjem. To bi lahko zadevalo predvsem naprave umetne inteligence, ki se premikajo po javnih območjih (npr. popolnoma avtonomna vozila, brezpilotni zrakoplovi ali roboti za dostavo paketov) ali storitve, ki temeljijo na umetni inteligenci in prinašajo podobna tveganja (npr. storitve upravljanja prometa, ki usmerjajo ali nadzorujejo vozila ali upravljanje distribucije električne energije). Izzivi, ki jih za nacionalne odškodninske zakone prinašata avtonomnost in nepreglednost, bi se lahko obravnavali na podlagi pristopa, ki temelji na tveganju. S shemami objektivne odgovornosti bi se lahko zagotovilo, da oškodovanec v primeru, da se to tveganje uresniči, prejme nadomestilo ne glede na krivdo. Treba bi bilo skrbno oceniti, kako odločitev, kdo bi moral biti v takih primerih objektivno odgovoren, vpliva na razvoj in uvajanje umetne inteligence, ter upoštevati pristop, ki temelji na tveganju.
Komisija želi v zvezi z delovanjem aplikacij umetne inteligence s posebnim profilom tveganja pridobiti mnenja o tem, ali in v kakšni meri bi lahko bila za to, da morebitni oškodovanci prejmejo učinkovito odškodnino, potrebna objektivna odgovornost, kakršna obstaja v nacionalnih zakonodajah za podobna tveganja, ki jim je izpostavljena javnost (na primer za upravljanje motornih vozil, letal ali jedrskih elektrarn). Komisija prav tako zbira mnenja o združitvi objektivne odgovornosti z morebitno obveznostjo sklenitve razpoložljivega zavarovanja na podlagi primera iz direktive o avtomobilskem zavarovanju, da bi se zagotovila odškodnina ne glede na solventnost odgovorne osebe in zmanjšali stroški škode.
Za delovanje vseh drugih aplikacij umetne inteligence, ki bi predstavljale veliko večino, Komisija preučuje, ali je treba prilagoditi dokazno breme glede vzročne zveze in napake. V zvezi s tem se eno od vprašanj iz poročila podskupine za nove tehnologije v okviru skupine strokovnjakov za odgovornost in nove tehnologije nanaša na primer, ko potencialno odgovorna stran ni zabeležila podatkov, ki so pomembni za oceno odgovornosti ali jih ni pripravljena deliti z oškodovancem.
4.Zaključek
Pojav novih digitalnih tehnologij, kot so umetna inteligenca, internet stvari in robotika, prinaša nove izzive v smislu varnosti in odgovornosti za proizvode, na primer v zvezi s povezljivostjo, avtonomnostjo, podatkovno odvisnostjo, nepreglednostjo, kompleksnostjo proizvodov in sistemov, posodobitvami programske opreme in bolj zapletenim varnostnim upravljanjem in vrednostnimi verigami.
Veljavna zakonodaja o varnosti proizvodov vsebuje številne vrzeli, ki jih je treba odpraviti, zlasti v direktivi o splošni varnosti proizvodov, direktivi o strojih, direktivi o radijski opremi in novem zakonodajnem okviru. Prihodnje delo v zvezi s prilagoditvijo različnih zakonodajnih aktov v tem okviru bo potekalo dosledno in usklajeno.
Novi izzivi na področju varnosti ustvarjajo tudi nove izzive glede odgovornosti. Te izzive je treba obravnavati, da se zagotovi enaka raven varstva v primerjavi z žrtvami škode, ki jo povzročijo tradicionalne tehnologije, hkrati pa ohrani ravnotežje s potrebami po tehnoloških inovacijah. To bo pomagalo ustvariti zaupanje v digitalne tehnologije v vzponu in naložbeno stabilnost.
Medtem ko se obstoječi predpisi na področju odgovornosti na ravni Unije in na nacionalni ravni načeloma lahko uporabljajo za tehnologije v vzponu, bi lahko razsežnost in skupni učinek izzivov, ki jih prinaša umetna inteligenca, otežila uveljavljanje odškodnine za oškodovance v vseh upravičenih primerih. Dodelitev stroškov v primeru škode je tako v skladu z veljavnimi pravili lahko nepoštena ali neučinkovita. Da bi to popravili in odpravili morebitne negotovosti v obstoječem okviru, bi lahko razmislili o nekaterih prilagoditvah direktive o odgovornosti za proizvode in nacionalnih ureditvah odgovornosti s primernimi pobudami EU, ki bi sledile ciljno usmerjenemu, na tveganju temelječem pristopu, tj. ob upoštevanju dejstva, da različne aplikacije umetne inteligence predstavljajo različna tveganja.