This document is an excerpt from the EUR-Lex website
Document 52022AE4704
Opinion of the European Economic and Social Committee on ‘Proposal for a Directive of the European Parliament and of the Council on adapting non-contractual civil liability rules to artificial intelligence (AI Liability Directive)’ (COM(2022) 496 final — 2022/0303 (COD))
Opinia Europejskiego Komitetu Ekonomiczno-Społecznego „Wniosek dotyczący dyrektywy Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji (dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję)” (COM(2022) 496 final – 2022/0303 (COD))
Opinia Europejskiego Komitetu Ekonomiczno-Społecznego „Wniosek dotyczący dyrektywy Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji (dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję)” (COM(2022) 496 final – 2022/0303 (COD))
EESC 2022/04704
Dz.U. C 140 z 21.4.2023, p. 28–33
(BG, ES, CS, DA, DE, ET, EL, EN, FR, GA, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)
21.4.2023 |
PL |
Dziennik Urzędowy Unii Europejskiej |
C 140/28 |
Opinia Europejskiego Komitetu Ekonomiczno-Społecznego „Wniosek dotyczący dyrektywy Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji (dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję)”
(COM(2022) 496 final – 2022/0303 (COD))
(2023/C 140/05)
Sprawozdawca generalny: |
Wautier ROBYNS DE SCHNEIDAUER |
Wniosek o konsultację |
Parlament Europejski, 6.10.2022 |
|
Rada Unii Europejskiej, 14.10.2022 |
Podstawa prawna |
Art. 114 Traktatu o funkcjonowaniu Unii Europejskiej |
Sekcja odpowiedzialna |
Sekcja Jednolitego Rynku, Produkcji i Konsumpcji |
Decyzja Prezydium |
20.9.2023 |
Data przyjęcia na sesji plenarnej |
24.1.2023 |
Sesja plenarna nr |
575 |
Wynik głosowania (za/przeciw/wstrzymało się) |
154/1/0 |
1. Wnioski i zalecenia
1.1. |
EKES zajmuje się tematem sztucznej inteligencji (AI) od czasu swoich pionierskich prac w 2017 r. i podkreśla, że nadzorowanie zastosowań AI przez ludzi musi również podlegać zasadzie odpowiedzialności i zwiększać zaufanie do takiej technologii. Wezwał do wprowadzenia jasnych zasad obejmujących, w przypadku bezprawnego (lub przypuszczalnie bezprawnego) wykorzystania AI, odpowiedzialność osób fizycznych lub prawnych, co wyrażono w opinii z 2019 r. (1). |
1.2. |
EKES z aprobatą przyjmuje i popiera propozycję Komisji, aby zwiększyć prawa osób poszkodowanych – w rozumieniu prawa krajowego – w wyniku takiego bezprawnego wykorzystania AI przez zapewnienie konkretnych praw uzupełniających istniejące krajowe przepisy dotyczące odpowiedzialności wynikającej z czynu niedozwolonego lub odpowiedzialności na zasadzie ryzyka, przepisy dyrektywy w sprawie odpowiedzialności za produkty oraz prawo karne. |
1.3. |
EKES uznaje, że minimalna harmonizacja najlepiej służy temu celowi, ale obawia się ryzyka rozbieżnych interpretacji przez zainteresowane strony zaangażowane w rozwój i w łańcuch dostaw oraz przez sędziów. W związku z tym podkreśla potrzebę wprowadzenia jasnych definicji prawnych oraz dalszego poszerzania wymaganej wiedzy fachowej osób stosujących nowe prawodawstwo w całej UE. Osoby te będą musiały posiadać odpowiednie zdolności cyfrowe. Ostatecznym celem Komisji powinno być poszukiwanie i rozwijanie systemu odpowiedzialności, którego stosowanie byłoby jak najbardziej jednolite w całej UE. |
1.4. |
EKES dostrzega interakcję między zasadami zapobiegania i bezpieczeństwa z jednej strony, a możliwościami dochodzenia roszczeń z drugiej, dodatkowo do roli nadzorczej organów publicznych; celem jest zapewnienie zgodności z unijnymi i krajowymi normami dotyczącymi odpowiedzialnego rozwoju AI. Wzywa do utworzenia sieci organów ds. alternatywnych metod rozwiązywania sporów, aby ułatwić poszkodowanym korzystanie z ich praw, oraz do gromadzenia większej ilości dowodów na temat skutków dyrektywy. |
1.5. |
EKES docenia równowagę, jaką dyrektywa zapewnia między prawami poszkodowanych a interesami twórców AI. Umożliwia to czerpanie korzyści z transformacji cyfrowej i może stać się wzorem dla państw trzecich rozważających podobne rozwiązania. |
1.6. |
EKES wzywa Komisję do ścisłego monitorowania rozwoju gwarancji finansowych lub ubezpieczeń od odpowiedzialności za sztuczną inteligencję, z należytym uwzględnieniem ich dostępności i zakresu, gdyż nowe ramy powinny zapewnić pewność prawa zarówno operatorom, jak i ubezpieczycielom. Dowody incydentów mają kluczowe znaczenie dla oceny, czy istnieje potrzeba wprowadzenia środków w tym zakresie: dlatego bardzo ważne jest dokumentowanie i zgłaszanie tych incydentów. |
1.7. |
EKES wzywa Komisję do uwzględnienia w swojej strategii komunikacyjnej praw przyznanych osobom, które poniosły szkody spowodowane przez AI, aby zwiększyć zaufanie do transformacji cyfrowej. |
1.8. |
Biorąc pod uwagę tempo rozwoju technologicznego, EKES popiera zamiar dokonywania przeglądu tych przepisów, gdy tylko będzie to zasadne w świetle zgromadzonych dowodów. Jest zdania, że przegląd pięć lat po wejściu w życie dyrektywy byłby zbyt późny, i zaleca, aby odbył się on po trzech latach. Jest gotów wziąć w nim udział i ocenić doświadczenia unijnych organizacji społeczeństwa obywatelskiego, zwłaszcza w odniesieniu do informacji zwrotnych od użytkowników końcowych dotyczących ciężaru dowodu i potencjalnie rozbieżnych definicji kwalifikujących się szkód w ramach przepisów krajowych. |
1.9. |
Ponieważ wykorzystanie sztucznej inteligencji może prowadzić do delikatnych wyborów politycznych, których nie należy pozostawiać wyłącznie stronom uczestniczącym w łańcuchu dostaw AI, EKES zwraca się również o zaangażowanie go i konsultację w ustanawianiu norm etycznych. |
2. Streszczenie wniosku
2.1. |
Wniosek dotyczący dyrektywy w sprawie odpowiedzialności pozaumownej za sztuczną inteligencję („dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję”) oparto na białej księdze Komisji z 2020 r. w sprawie sztucznej inteligencji, opracowanym równolegle sprawozdaniu Komisji na temat bezpieczeństwa i odpowiedzialności w dziedzinie sztucznej inteligencji oraz na wniosku dotyczącym aktu w sprawie sztucznej inteligencji z 2021 r., w którym skupiono się na zapobieganiu i bezpieczeństwie. Wniosek jest powiązany z przeglądem dyrektywy w sprawie odpowiedzialności za produkty z 1985 r. („zmieniona dyrektywa w sprawie odpowiedzialności za produkty”), który przedstawiono w tym samym dniu, co analizowaną w niniejszej opinii dyrektywę w sprawie odpowiedzialności za sztuczną inteligencję. Oba wnioski umożliwiają powodom dochodzenie roszczeń wobec określonych podmiotów, przy czym zakres obu instrumentów jest do pewnego stopnia różny. |
2.2. |
Celem dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję jest ustanowienie jednolitych zasad dotyczących niektórych aspektów odpowiedzialności pozaumownej za szkody spowodowane przy użyciu systemów AI. Ma to na celu poprawę funkcjonowania jednolitego rynku i zapewnienie poszkodowanym szerszej ochrony (czy to osobom fizycznym, czy przedsiębiorstwom), a także zwiększenie zaufania do AI dzięki wprowadzeniu zharmonizowanych przepisów. Obejmuje to na przykład naruszenia prywatności, utratę danych lub szkody powstałe w wyniku problemów związanych z bezpieczeństwem. Nowe przepisy ułatwią na przykład uzyskanie odszkodowania, jeśli ktoś był dyskryminowany w procesie rekrutacji prowadzonej z wykorzystaniem technologii AI, nawet jeśli nadal będzie trzeba pokonać kilka przeszkód (prawnych). W celu wyeliminowania pozostałej niepewności prawa EKES zaleca ustalenie prawnej definicji decyzji podejmowanej przez maszyny wykorzystujące sztuczną inteligencję. |
2.3. |
W omawianej dyrektywie Komisja po raz pierwszy proponuje ukierunkowaną harmonizację przepisów krajowych dotyczących odpowiedzialności za sztuczną inteligencję, aby ułatwić osobom poszkodowanym w związku wykorzystywania AI uzyskanie odszkodowania. Zgodnie z celami określonymi w białej księdze w sprawie AI oraz z wnioskiem Komisji dotyczącym aktu w sprawie sztucznej inteligencji z 2021 r. – określającym zasady praworządności poprzez ramy wiarygodności AI i zaufania do tej technologii – nowe przepisy zapewnią, aby poszkodowani korzystali z odpowiedniej ochrony w przypadku wyrządzenia im szkody przez produkty lub usługi wykorzystujące AI, jak w przypadku wyrządzenia im szkody w jakichkolwiek innych okolicznościach. |
2.4. |
Dbając o to, by nie zagrozić postępowi technologicznemu w Europie ani go nie zniweczyć, dyrektywa wprowadza zharmonizowane ramy prawne, które uwzględniają złożoność systemów AI – od ich opracowania, do wykorzystywania ich na rynku – oraz upraszcza proces prawny dla poszkodowanych w wyniku działania systemów AI dzięki dwóm głównym innowacjom prawnym, które odpowiadają obecnym potrzebom:
|
Dzięki tym dwóm środkom projekt dyrektywy ułatwi poszkodowanym dochodzenie roszczeń, indywidualnie lub zbiorowo (w stosownych przypadkach), nie unieważniając przy tym pojęcia związku przyczynowego.
3. Zapewnianie postępu technologicznego ukierunkowanego na człowieka
3.1. |
EKES jest świadomy korzyści i potencjalnych zagrożeń związanych z AI. Wykorzystanie AI nie powinno ograniczać się jedynie do zwiększania produktywności poprzez przejmowanie zadań dotychczas wykonywanych przez człowieka i obniżanie kosztów. Rozwój AI wymaga zwrócenia uwagi na zagrożenia związane z wpływem tej technologii na zdrowie w wyniku zmiany warunków pracy i wpływem na prawa takie jak prywatność oraz wymaga ponownego zbadania kwestii równowagi między maszyną a człowiekiem w miejscu pracy, ponieważ kontrola sprawowana przez człowieka powinna być uprzywilejowana, z należytym uwzględnieniem ewentualnego utrzymywania się ludzkich uprzedzeń i stronniczości w funkcjonowaniu AI. Odpowiedzialność za koncepcję wyjściową i ostateczna odpowiedzialność za ewentualne niepowodzenia powinny spoczywać na podmiotach ludzkich, co potwierdziła grupa ekspertów wysokiego szczebla ds. sztucznej inteligencji w swoich wytycznych dotyczących etyki. Wiele innych elementów zmian, jak np. wpływ nanotechnologii na środowisko, zbadano dotychczas w mniejszym stopniu. EKES uważa, że zarówno operatorzy AI, jak i inne zainteresowane strony, na przykład konsultanci ds. zarządzania ryzykiem i ubezpieczyciele, a także organy publiczne i przedstawiciele pracowników, powinni monitorować potencjalne skutki za pomocą analizy ryzyka, audytów i inżynierii bezpieczeństwa z wykorzystaniem testów w środowisku zbliżonym do rzeczywistego. Zgodnie ze swoją poprzednią opinią (2) EKES z zadowoleniem przyjąłby wprowadzenie systemu certyfikacji zapewniającego bezpieczeństwo i zgodność z interesami człowieka. |
3.2. |
EKES jest świadomy narażenia zastosowań wykorzystujących AI na awarie i szkodliwe działania w cyberprzestrzeni i odsyła do swoich niedawnych opinii w sprawie wniosku dotyczącego rozporządzenia w sprawie operacyjnej odporności cyfrowej sektora finansowego (DORA) (3) oraz wniosków dotyczących dyrektyw w sprawie cyberbezpieczeństwa i odporności podmiotów krytycznych (4). Te czynniki ryzyka i zagrożenia w oczywisty sposób uzasadniają istniejące zalecenia w zakresie zapobiegania i monitorowania, jak również przyszłe zmiany, ponieważ mogą pojawić się nowe podatności. |
3.3. |
EKES popiera zamiar nadążania za szybko pojawiającymi się przyszłymi zmianami i dokonywania przeglądu skutków dyrektywy w miarę pojawiania się dowodów, co doprowadzi do aktualizacji z zastrzeżeniem konieczności i proporcjonalności. Uważa, że termin pięciu lat wskazany we wniosku jest zbyt odległy i sugeruje podjęcie działań wcześniej, najwyżej trzy lata po wejściu dyrektywy w życie. Nalega na włączenie do tej oceny społeczeństwa obywatelskiego, ponieważ EKES w wyjątkowy sposób odzwierciedla poglądy obywateli, konsumentów, pracowników oraz wielkich i małych przedsiębiorstw, zwracając należytą uwagę na podstawowe prawa człowieka, w tym prawa pracowników, a także na możliwości i przeszkody gospodarcze. |
4. Ochrona podstawowych wartości UE
4.1. |
EKES popiera podejście przyjęte przez Komisję w akcie w sprawie sztucznej inteligencji, gdzie rozróżniono zakazane zastosowania sztucznej inteligencji, takie jak stosowanie przez nadmiernie ingerujące rządy systemów punktowej oceny zachowań społecznych, zastosowania wysokiego ryzyka w przedsiębiorstwach, w tym rekrutacja i ocena pracowników, a także infrastruktura krytyczna i urządzenia techniczne wykorzystywane w opiece zdrowotnej, oraz liczne mniej ryzykowne działania. Wzywa do jednoznacznego zdefiniowania działalności wysokiego ryzyka. Ponawia swoje wezwanie do uwzględnienia potencjalnej szkody dla środowiska jako jednego z czynników, które powinny być uwzględnione w kategorii wysokiego ryzyka. Zauważa, że poszkodowani powinni otrzymywać odszkodowanie niezależnie od klasyfikacji zastosowań AI jako ryzykownych czy mniej ryzykownych. |
4.2. |
EKES, podobnie jak stwierdził w opinii z 2020 r. dotyczącej białej księgi w sprawie sztucznej inteligencji, podkreśla swoje zaangażowanie na rzecz ochrony praw podstawowych i zarządzania przez człowieka na etapie podejmowania ostatecznej decyzji jako podstawy odpowiedzialnego rozwoju AI w Unii Europejskiej. Wybory i decyzje podejmowane przez maszyny mogą być pozbawione ludzkiego zrozumienia niezamierzonych konsekwencji, zwłaszcza gdy te wybory i decyzje dotyczą osób szczególnie wrażliwych, takich jak dzieci lub osoby starsze. |
4.3. |
EKES podkreśla znaczenie zaufania obywateli do rozwoju AI w odniesieniu do ochrony prywatności, sprawiedliwego traktowania i dochodzenia roszczeń w stosownych przypadkach. Projekt dyrektywy ma na celu zapewnienie co najmniej równego odszkodowania za szkody spowodowane lub częściowo spowodowane w wyniku wykorzystania systemów AI w porównaniu z odszkodowaniem za szkody poniesione w sytuacjach, w których nie wykorzystuje się takich systemów. Ważne jest, aby Komisja, państwa członkowskie i użytkownicy systemów AI podjęli wspólne wysiłki w celu przekazania tego przesłania szerokiemu gronu odbiorców. |
5. Ułatwienie uzyskania odszkodowań przez osoby, które poniosły szkody spowodowane przez AI
5.1. |
Dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję zapewnia większą ochronę obywateli, pracowników i podmiotów gospodarczych przed szkodami uznawanymi w krajowym otoczeniu prawnym tych poszkodowanych, rozszerzając tę ochronę poza uszczerbek na zdrowiu i straty materialne, określoną we wniosku dotyczącym dyrektywy w sprawie odpowiedzialności za produkty. Rozszerzenie to umożliwia uzyskanie odszkodowania za czysto ekonomiczne szkody powstałe np. w wyniku niesprawiedliwej dyskryminacji, odmowy dostępu do opieki lub edukacji, błędnego profilowania przez policję lub utraty danych. EKES podkreśla konieczność zapewnienia jasnego rozumienia pojęcia szkody kwalifikującej do odszkodowania, aby uniknąć niepożądanych rozbieżnych interpretacji w orzecznictwie krajowym, oraz zapewnienia szkoleń dotyczących tego zagadnienia dla specjalistów, w tym dla sędziów krajowych, i przeznaczenia na nie odpowiednich środków. EKES zwraca uwagę na możliwość zwrócenia się przez sądy krajowe do TSUE o wydanie orzeczeń prejudycjalnych w kwestiach, w których interpretacja może być rozbieżna. |
5.2. |
EKES stwierdza, że obywatele, konsumenci, pracownicy i przedsiębiorstwa z różnych części Unii Europejskiej nie mają równych możliwości dochodzenia roszczeń i uzyskania odszkodowania. W różnych państwach członkowskich i w odniesieniu do różnych klas społecznych odnotowuje się znaczne różnice w przychylności wobec powodów, regułach procesowych i kosztów związanych z dochodzeniem roszczeń za pośrednictwem wymiaru sprawiedliwości oraz stopniu pokrycia kosztów prawnych ponoszonych przez powodów w sprawach dotyczących odpowiedzialności cywilnej. W związku z tym, jak już wyrażono co do zasady w bardziej ogólnej opinii w sprawie rozporządzenia dotyczącego AI (5), EKES opowiada się za utworzeniem łatwo dostępnych, bezpłatnych i obowiązkowych alternatywnych metod rozwiązywania sporów w sprawach dotyczących odpowiedzialności cywilnej w odniesieniu do zastosowań AI na szczeblu krajowym, z koordynacją na poziomie UE, jak to ma miejsce np. w dziedzinie usług finansowych (FIN-NET), oraz za dokonaniem tego we współpracy z odpowiednimi organizacjami społeczeństwa obywatelskiego. Służby te wniosłyby wkład do oceny skutków dyrektywy dzięki rejestrowaniu rozstrzygnięć pozasądowych, na które zwrócono by ich uwagę. |
5.3. |
EKES z zadowoleniem przyjmuje działania podjęte w celu zapewnienia poszkodowanym większych środków dochodzenia sprawiedliwego odszkodowania w przypadku szkód spowodowanych przez zastosowania AI, które to środki w razie braku tych działań byłby niedostępne lub skomplikowane i kosztowne ze względu na nieprzejrzystość i złożoność zastosowań AI. Wielu obywateli i konsumentów odnosi się podejrzliwie do „robotów” i algorytmów. EKES zaleca, by w ramach swojej strategii komunikacyjnej Komisja podjęła działania mające na celu zwiększenie zaufania obywateli, w szczególności za pomocą materiałów instruktażowych publikowanych w popularnych mediach społecznościowych. |
5.4. |
Osoby, które poniosły szkody spowodowane przez systemy AI, będą mogły powoływać się na domniemanie, że operatorzy nie przestrzegają wymogów unijnych lub krajowych. Fakt, że operatorzy będą musieli rejestrować przestrzeganie takich zasad, stanowi zabezpieczenie przed niedbałymi zachowaniami. |
6. Uwzględnienie nowych zasad prawnych na jednolitym rynku
6.1. |
Dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję pojawia się w momencie, gdy w szeregu państw członkowskich trwają prace legislacyjne dotyczące takiej odpowiedzialności. EKES rozumie podejście przyjęte we wniosku, polegające na utrzymaniu, na tym etapie, krajowych zasad prawnych, i popiera wykorzystanie jako instrumentu dyrektywy zarówno w celu uniknięcia nadmiernej niespójności zasad dotyczących odpowiedzialności w całej UE, jak i umożliwienia państwom członkowskim szczegółowego określenia ochrony, którą uznają za konieczną i proporcjonalną w interesie ogólnym. Komitet zwraca uwagę decydentów na problemy wynikające z rozdrobnienia otoczenia prawnego, które utrudnia utworzenie prawdziwego jednolitego rynku cyfrowego, utrzymuje różnice między obywatelami i przedsiębiorstwami europejskimi oraz może hamować europejskie innowacje technologiczne. EKES uważa, że nie należy lekceważyć ryzyka błędnej interpretacji zasady interesu ogólnego, ponieważ procedury jej zakwestionowania są uciążliwe, a ich zakres nie wykracza poza kwestie będące przedmiotem konkretnych postępowań przed Trybunałem Sprawiedliwości. |
6.2. |
EKES zdaje sobie sprawę z tego, w jakim stopniu krajowe systemy prawne mające zastosowanie do roszczeń z tytułu odpowiedzialności cywilnej nadal różnią się między państwami członkowskimi, i przez lata poświęcał wiele uwagi wysiłkom na rzecz zniwelowania tych różnic, na przykład za pomocą systemu alternatywnego względem norm krajowych („28. system prawny”). W związku z tym rozumie wybór instrumentu prawnego zaproponowany na tym etapie przez Komisję, ale zwraca uwagę na ryzyko, że niektóre pojęcia mogą być różnie interpretowane w różnych krajowych systemach prawnych. Nalega, by Komisja za cel ostateczny obrała doprowadzenie do tego, aby w całej UE stosowano system dotyczący odpowiedzialności w sposób jak najbardziej jednolity. |
6.3. |
EKES podkreśla prawo strony pozwanej, w tym (małych) sprzedawców detalicznych, do dochodzenia roszczeń prawnych wobec dostawców lub odpowiednich zainteresowanych stron na wcześniejszych etapach łańcucha dostaw, a także spoczywający na tych ostatnich obowiązek ponoszenia odpowiedzialności za konsekwencje własnego niedbalstwa lub domniemanych uchybień. W takich przypadkach dostawcy ci powinni być prawnie zobowiązani do zapewnienia takim pozwanym odszkodowania. |
7. Wspieranie konkurencyjności europejskiego rozwoju AI
7.1. |
EKES uważa, że pewność prawa stanowi zachętę gospodarczą dla europejskich badań i rozwoju prowadzonych przez ośrodki naukowe, organy publiczne i przedsiębiorstwa oraz przyczynia się do pionierskich innowacji w środowisku globalnym. Proponowana dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję daje w odpowiednim momencie wytyczne niezbędne do stworzenia innowatorom niezbędnej pewności co do ryzyka prawnego, zwłaszcza w przypadku pracy transgranicznej, ponieważ różne jurysdykcje stosują swoje własne systemy odpowiedzialności. Będzie to miało istotne znaczenie dla przedsiębiorstw typu start-up oraz MŚP, które nie mają takiego samego dostępu do porad prawnych jak większe przedsiębiorstwa. Nowe ramy mogą również pomóc twórcom oprogramowania w uruchamianiu nowych zastosowań AI, ponieważ będą oni mieć lepszą wiedzę na temat konsekwencji prawnych, i w ten sposób ramy te przyczynią się do realizacji strategii UE dotyczącej cyfrowej i zielonej transformacji. |
7.2. |
Na obecnym etapie proponowana dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję nie przewiduje obowiązkowego ubezpieczenia zastosowań AI. Biorąc pod uwagę, że zastosowania AI – w szczególności skomplikowane systemy – są nadal w fazie rozwoju, trudno byłoby, z powodu braku przeszłych doświadczeń, opracować metody ratingowe, które byłyby wystarczająco wiarygodne, aby być reprezentatywne dla przyszłych szkód i roszczeń, w szczególności w związku z faktem, że występowanie szkód i roszczeń może być wzajemnie powiązane i powodować powielanie błędów, a zatem wzrost powagi zdarzeń i nawarstwianie się strat, podczas gdy możliwości zakładów ubezpieczeń i zakładów reasekuracji są obecnie ograniczone. EKES rozumie zatem decyzję Komisji, by nie zajmować się dalej na tym etapie kwestią tego, czy, w odniesieniu do jakich działań i w jakim zakresie należy wprowadzić obowiązkowe ubezpieczenie lub inne gwarancje finansowe, ale zachęca Komisję do ścisłego monitorowania dostępności i zakresu ubezpieczeń. Potrzebny jest system monitorowania umożliwiający zdobycie wiedzy na temat incydentów z udziałem systemów AI, która pozwoli ocenić, czy potrzebne są dodatkowe środki, takie jak odpowiedzialność na zasadzie ryzyka lub obowiązkowe ubezpieczenie. |
7.3. |
EKES zauważa, że szereg rodzajów ryzyka podlega obowiązkowemu ubezpieczeniu lub innym gwarancjom finansowym na mocy prawa krajowego lub unijnego. Dotyczy to w szczególności wykorzystania pojazdów silnikowych, w przypadku których trwają prace nad pojazdami autonomicznymi. W takich przypadkach, gdy obowiązkowe ubezpieczenie obejmuje nie tylko zachowanie kierowcy lub pasażerów, ale także nieprawidłowe działanie sprzętu – a konkretnie trybu autopilota – odszkodowanie jest w większości sytuacji (6) zagwarantowane poszkodowanym na podstawie obowiązujących przepisów i umów. Zakłady ubezpieczeń mogą, w stosownych przypadkach, domagać się od producentów zwrotu poniesionych kosztów. Powinno to obniżyć koszty ponoszone przez kierowców i przesunąć ekonomiczny ciężar odpowiednich rodzajów ubezpieczenia z poziomu stosunków między przedsiębiorcami i konsumentami na stosunki między przedsiębiorcami Dlatego też EKES uważa, że w dziedzinach, w których obowiązkowe ubezpieczenie już istnieje lub ma zostać wprowadzone na szczeblu UE, nie są potrzebne żadne istotne dalsze działania legislacyjne. EKES będzie jednak uważnie monitorował decyzje etyczne dotyczące takich kwestii jak zapobieganie kolizjom i scenariusze postępowania w przypadku wypadków. |
7.4. |
EKES uważa, że ograniczenia związane z przestrzeganiem przepisów i zarządzaniem ryzykiem zawarte w dyrektywie w sprawie odpowiedzialności za sztuczną inteligencję, a także domniemanie, które nakłada na dostawców, osoby działające w ich imieniu oraz użytkowników systemów AI ciężar dowodu przeciwnego, są środkami proporcjonalnymi, ukierunkowanymi na odpowiednie poziomy ryzyka szkód spowodowanych przez zastosowania AI. |
7.5. |
Jeżeli chodzi o dostęp do dowodów, EKES popiera środki wprowadzone w celu ochrony tajemnicy przedsiębiorstwa, która jest ważnym aspektem konkurencyjności europejskich innowatorów, a także ochrony informacji poufnych, jeśli środki te wykorzystuje się w sposób uzasadniony i z poszanowaniem ustanowionych praw, takich jak na przykład prawnie uznane przywileje sygnalistów istniejące w miejscu pracy. |
7.6. |
EKES uważa, że przyjęcie umiarkowanego domniemania, a nie odpowiedzialności na zasadzie ryzyka, ułatwia rozwój technologii AI w Unii Europejskiej i może wzmocnić pozycję UE jako podmiotu wyznaczającego standardy na świecie, ponieważ inne kraje mogą dostosować swoje przepisy do tego systemu. Również ten aspekt powinien być częścią przyszłego przeglądu, wraz z wyjaśnieniem pojęć, które może być konieczne po pierwszych doświadczeniach z omawianymi środkami. |
Bruksela, dnia 24 stycznia 2023 r.
Christa SCHWENG
Przewodnicząca Europejskiego Komitetu Ekonomiczno-Społecznego
(1) Opinia Europejskiego Komitetu Ekonomiczno-Społecznego „Komunikat Komisji do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów »Budowanie zaufania do sztucznej inteligencji ukierunkowanej na człowieka«” [COM(2019) 168 final] (Dz.U. C 47 z 11.2.2020, s. 64).
(2) Opinia Europejskiego Komitetu Ekonomiczno-Społecznego „Komunikat Komisji do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów »Budowanie zaufania do sztucznej inteligencji ukierunkowanej na człowieka«” [COM(2019) 168 final] (Dz.U. C 47 z 11.2.2020, s. 64).
(3) Opinia Europejskiego Komitetu Ekonomiczno-Społecznego „Wniosek dotyczący rozporządzenia Parlamentu Europejskiego i Rady w sprawie operacyjnej odporności cyfrowej sektora finansowego i zmieniającego rozporządzenia (WE) nr 1060/2009, (UE) nr 648/2012, (UE) nr 600/2014 oraz (UE) nr 909/2014” [COM(2020) 595 final – 2020/0266 (COD)] – „Wniosek dotyczący dyrektywy Parlamentu Europejskiego i Rady zmieniającej dyrektywy 2006/43/WE, 2009/65/WE, 2009/138/WE, 2011/61/UE, 2013/36/UE, 2014/65/UE, (UE) 2015/2366 i (UE) 2016/2341” [COM(2020) 596 final – 2020/0268 (COD)] (Dz.U. C 155 z 30.4.2021, s. 38).
(4) Opinia Europejskiego Komitetu Ekonomiczno-Społecznego „Wniosek dotyczący dyrektywy Parlamentu Europejskiego i Rady w sprawie środków na rzecz wysokiego wspólnego poziomu cyberbezpieczeństwa na terytorium Unii, uchylającej dyrektywę (UE) 2016/1148 oraz wniosek dotyczący dyrektywy Parlamentu Europejskiego i Rady w sprawie odporności podmiotów krytycznych” [COM(2020) 823 final – 2020/0359 (COD) – COM(2020) 829 final – 2020/0365 (COD)] (Dz.U. C 286 z 16.7.2021, s. 170).
(5) Opinia Europejskiego Komitetu Ekonomiczno-Społecznego „Wniosek dotyczący rozporządzenia Parlamentu Europejskiego i Rady ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji) i zmieniającego niektóre akty ustawodawcze Unii” (COM(2021) 206 final – 2021/106 (COD)) (Dz.U. C 517 z 22.12.2021, s. 61).
(6) Kierowca ma prawo wnieść sprawę na podstawie przepisów dotyczących odpowiedzialności za produkty.