Bruksela, dnia 28.9.2022

COM(2022) 496 final

2022/0303(COD)

Wniosek

DYREKTYWA PARLAMENTU EUROPEJSKIEGO I RADY

w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji
(dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję)

(Tekst mający znaczenie dla EOG)

{SEC(2022) 344 final} - {SWD(2022) 318 final} - {SWD(2022) 319 final} - {SWD(2022) 320 final}


UZASADNIENIE

1.KONTEKST WNIOSKU

·Przyczyny i cele wniosku

Niniejsze uzasadnienie towarzyszy wnioskowi dotyczącemu dyrektywy w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji. Z reprezentatywnego badania przeprowadzonego w 2020 r. 1 wynika, że kwestia odpowiedzialności stanowi jedną z trzech najważniejszych barier na drodze do korzystania ze sztucznej inteligencji przez europejskie przedsiębiorstwa. Została uznana za najistotniejszą zewnętrzną przeszkodę (43 %) dla przedsiębiorstw, które planują wprowadzenie sztucznej inteligencji, ale jeszcze tego nie zrobiły.

W swoich wytycznych politycznych przewodnicząca Komisji Ursula von der Leyen przedstawiła skoordynowane europejskie podejście do sztucznej inteligencji 2 . W białej księdze w sprawie sztucznej inteligencji z 19 lutego 2020 r. 3 Komisja zobowiązała się do promowania upowszechniania sztucznej inteligencji i przeciwdziałania zagrożeniom związanym z niektórymi jej zastosowaniami poprzez wspieranie doskonałości i zaufania. W towarzyszącym białej księdze sprawozdaniu na temat odpowiedzialności za sztuczną inteligencję 4 Komisja zidentyfikowała szczególne wyzwania, które sztuczna inteligencja stwarza w odniesieniu do obowiązujących przepisów dotyczących odpowiedzialności. W konkluzjach w sprawie kształtowania cyfrowej przyszłości Europy z 9 czerwca 2020 r. Rada z zadowoleniem przyjęła konsultacje w sprawie propozycji politycznych zawartych w białej księdze w sprawie sztucznej inteligencji i zaapelowała do Komisji o przedstawienie konkretnych propozycji. 20 października 2020 r., na mocy art. 225 TFUE, Parlament Europejski przyjął z własnej inicjatywy rezolucję ustawodawczą w której zwrócił się do Komisji o przyjęcie wniosku dotyczącego systemu odpowiedzialności cywilnej za sztuczną inteligencję na podstawie art. 114 Traktatu o funkcjonowaniu Unii Europejskiej (TFUE) 5 .

Obowiązujące przepisy krajowe dotyczące odpowiedzialności, w szczególności opartej na zasadzie winy, nie są dopasowane do rozpatrywania roszczeń z tytułu odpowiedzialności za szkody spowodowane przez produkty i usługi oparte na sztucznej inteligencji. Zgodnie z tymi przepisami poszkodowani muszą udowodnić bezprawne działanie lub zaniechanie osoby, która spowodowała szkodę. Cechy szczególne sztucznej inteligencji, w tym jej złożoność, autonomia i brak przejrzystości (tzw. efekt czarnej skrzynki), mogą sprawić, że zidentyfikowanie osoby ponoszącej odpowiedzialność i udowodnienie spełnienia wymogów uznania roszczenia odszkodowawczego może być dla poszkodowanych trudne lub nadmiernie kosztowne. Poszkodowani ubiegający się o odszkodowanie mogą w szczególności ponieść bardzo wysokie koszty wstępne i uczestniczyć w znacznie dłuższym postępowaniu sądowym niż miałoby miejsce w sprawach niezwiązanych ze sztuczną inteligencją. Może to zatem powstrzymać poszkodowanych przed ubieganiem się o odszkodowanie. Obawy te podtrzymał również Parlament Europejski w rezolucji z 3 maja 2022 r. w sprawie sztucznej inteligencji w epoce cyfrowej.  6

Jeżeli poszkodowany wytoczy powództwo, sądy krajowe, z uwagi na cechy szczególne sztucznej inteligencji, mogą doraźnie dostosować sposób stosowania obowiązujących przepisów, aby uzyskać sprawiedliwy dla poszkodowanego wynik. Spowoduje to brak pewności prawa. Przedsiębiorstwa będą miały problem z przewidzeniem sposobu stosowania obowiązujących przepisów dotyczących odpowiedzialności, a tym samym z oceną swojego narażenia na odpowiedzialność i zabezpieczeniem się przed nim. Jeszcze większy problem będą miały przedsiębiorstwa prowadzące handel transgraniczny, ponieważ brak pewności będzie dotyczył różnych jurysdykcji. Wywrze to szczególny wpływ na małe i średnie przedsiębiorstwa (MŚP), które nie dysponują specjalistyczną wiedzą prawną ani rezerwami kapitałowymi.

Z krajowych strategii w zakresie sztucznej inteligencji wynika, że kilka państw członkowskich rozważa lub nawet opracowuje konkretne plany podjęcia działań legislacyjnych w zakresie odpowiedzialności cywilnej za sztuczną inteligencję. W związku z tym przewiduje się, że jeżeli UE nie podejmie żadnych działań, państwa członkowskie same dostosują swoje krajowe przepisy dotyczące odpowiedzialności do wyzwań związanych ze sztuczną inteligencją. Doprowadzi to do dalszego rozdrobnienia przepisów i wzrostu kosztów dla przedsiębiorstw prowadzących działalność w całej UE.

Otwarte konsultacje publiczne, uwzględnione w ocenie skutków niniejszego wniosku, potwierdziły opisane powyżej problemy. Zdaniem społeczeństwa efekt czarnej skrzynki może utrudnić poszkodowanemu udowodnienie winy i zaistnienia związku przyczynowego, a także doprowadzić do niepewności co do sposobu, w jaki sądy będą dokonywać wykładni obowiązujących krajowych przepisów dotyczących odpowiedzialności w sprawach związanych ze sztuczną inteligencją oraz te przepisy stosować. Ponadto konsultacje wykazały obawę opinii publicznej co do tego, jak działania legislacyjne w zakresie dostosowania przepisów dotyczących odpowiedzialności, podejmowane z inicjatywy poszczególnych państw członkowskich, oraz wynikające z nich rozdrobnienie przepisów, wpłyną na koszty ponoszone przez przedsiębiorstwa, w szczególności MŚP, co uniemożliwi upowszechnienie sztucznej inteligencji w całej Unii.

Celem niniejszego wniosku jest zatem promowanie wdrażania sztucznej inteligencji godnej zaufania, aby w pełni czerpać z niej korzyści dla rynku wewnętrznego. Cel ten ma zostać osiągnięty przez zapewnienie osobom, które poniosły szkodę spowodowaną przez sztuczną inteligencję, ochrony równoważnej ochronie przysługującej osobom, które poniosły szkodę spowodowaną przez ogólnie rozumiane produkty. Niniejszy wniosek ogranicza również brak pewności prawa wśród przedsiębiorstw opracowujących lub wykorzystujących sztuczną inteligencję, jeżeli chodzi o ich ewentualne narażenie na odpowiedzialność, oraz zapobiega wprowadzaniu fragmentarycznych dostosowań przepisów krajowych dotyczących odpowiedzialności cywilnej w odniesieniu do sztucznej inteligencji.

·Spójność z przepisami obowiązującymi w tej dziedzinie polityki

Niniejszy wniosek jest częścią pakietu środków mających sprzyjać wdrażaniu sztucznej inteligencji w Europie poprzez wspieranie doskonałości i zaufania. Pakiet ten obejmuje trzy uzupełniające się obszary prac:

wniosek ustawodawczy ustanawiający przepisy horyzontalne dotyczące systemów sztucznej inteligencji (akt w sprawie AI) 7 ;

przegląd sektorowych i horyzontalnych przepisów dotyczących bezpieczeństwa produktów;

przepisy UE dotyczące kwestii odpowiedzialności związanych z systemami sztucznej inteligencji.

We wniosku dotyczącym aktu w sprawie AI Komisja zaproponowała przepisy, których celem jest ograniczenie ryzyka dla bezpieczeństwa i ochrona praw podstawowych. Bezpieczeństwo i odpowiedzialność to dwie strony tego samego medalu: mają zastosowanie w różnym czasie i wzajemnie się wzmacniają. Chociaż przepisy zapewniające bezpieczeństwo i ochronę praw podstawowych ograniczą ryzyko, nie wyeliminują go całkowicie 8 . Jeżeli takie ryzyko się urzeczywistni, nadal może dojść do powstania szkody. W takich przypadkach zastosowanie będą miały przepisy dotyczące odpowiedzialności określone w niniejszym wniosku.

Skuteczne przepisy dotyczące odpowiedzialności stanowią również zachętę gospodarczą do przestrzegania przepisów w zakresie bezpieczeństwa i tym samym przyczyniają się do zapobiegania powstawaniu szkód 9 . Niniejszy wniosek przyczynia się ponadto do egzekwowania wymogów dotyczących systemów sztucznej inteligencji wysokiego ryzyka nałożonych aktem w sprawie AI, ponieważ ich niespełnienie stanowi istotny element powodujący zmniejszenie ciężaru dowodu. Niniejszy wniosek jest także spójny z proponowanymi ogólnymi 10 i sektorowymi przepisami dotyczącymi bezpieczeństwa produktów, mającymi zastosowanie do produktów maszynowych 11 i urządzeń radiowych 12 opartych na sztucznej inteligencji.

W swojej polityce w dziedzinie sztucznej inteligencji Komisja przyjmuje holistyczne podejście do odpowiedzialności i proponuje dostosowania dotyczące odpowiedzialności producenta za produkt wadliwy na podstawie dyrektywy w sprawie odpowiedzialności za produkty, jak również ukierunkowaną harmonizację w ramach niniejszego wniosku. Te dwie inicjatywy polityczne są ze sobą ściśle powiązane i tworzą pakiet, ponieważ roszczenia wchodzące w zakres ich stosowania dotyczą różnych rodzajów odpowiedzialności. Dyrektywa w sprawie odpowiedzialności za produkty obejmuje niezależną od winy odpowiedzialność producenta, skutkującą odszkodowaniem za określone rodzaje szkód, ponoszone głównie przez osoby fizyczne. Niniejszy wniosek dotyczy krajowych roszczeń z tytułu odpowiedzialności opartych na zasadzie winy dowolnej osoby i służy zapewnieniu odszkodowania niezależnie od rodzaju szkody i poszkodowanego. Instrumenty te uzupełniają się wzajemnie i tworzą ogólny skuteczny system odpowiedzialności cywilnej.

Razem przepisy te będą promować zaufanie do sztucznej inteligencji (i innych technologii cyfrowych) poprzez zapewnienie poszkodowanym skutecznego odszkodowania, jeśli do szkody dojdzie pomimo wymogów zapobiegawczych przewidzianych w akcie w sprawie AI i innych wymogów bezpieczeństwa.

·Spójność z innymi politykami Unii

Niniejszy wniosek jest spójny z ogólną strategią cyfrową UE, ponieważ stanowi wkład w promowanie technologii przynoszącej korzyści ludziom, czyli jednego z trzech głównych filarów kierunków i celów polityki ogłoszonych w komunikacie pt. „Kształtowanie cyfrowej przyszłości Europy” 13 .

W tym kontekście niniejszy wniosek służy budowaniu zaufania do sztucznej inteligencji i zwiększeniu jej upowszechnienia. Pozwoli to osiągnąć synergię i stanowi uzupełnienie [europejskiego aktu dotyczącego cyberodporności 14 ], którego celem jest również zwiększenie zaufania do produktów z elementami cyfrowymi poprzez zmniejszenie podatności na zagrożenia cybernetyczne, a także lepsza ochrona użytkowników biznesowych i konsumentów.

Niniejszy wniosek nie ma wpływu na przepisy określone w [akcie o usługach cyfrowych] przewidujące kompleksowe i w pełni zharmonizowane ramy dotyczące obowiązków w zakresie należytej staranności w odniesieniu do algorytmicznego podejmowania decyzji przez platformy internetowe, w tym na zawarte w tych przepisach wyłączenie odpowiedzialności dostawców usług pośrednich.

Ponadto niniejszy wniosek, jako promujący wdrażanie sztucznej inteligencji, jest powiązany z inicjatywami w ramach europejskiej strategii w zakresie danych 15 . Przyczynia się on również do wzmocnienia roli Unii, jaką jest pomoc w kształtowaniu globalnych norm i standardów oraz promowanie sztucznej inteligencji godnej zaufania, zgodnej z wartościami i interesami Unii.

Wniosek jest także pośrednio powiązany z Europejskim Zielonym Ładem 16 . W szczególności technologie cyfrowe, w tym sztuczna inteligencja, są kluczowym czynnikiem umożliwiającym osiągnięcie celów Zielonego Ładu w zakresie zrównoważonego rozwoju w wielu różnych sektorach (w tym w sektorze opieki zdrowotnej, transportu, środowiska i rolnictwa).

·Główne skutki gospodarcze i społeczne, a także wpływ na środowisko

Niniejsza dyrektywa przyczyni się do wdrażania sztucznej inteligencji. Warunki wdrażania i rozwoju tej technologii na rynku wewnętrznym można znacznie poprawić, zapobiegając rozdrobnieniu przepisów i zwiększając pewność prawa poprzez przyjęcie zharmonizowanych środków na poziomie UE zamiast ewentualnych dostosowań przepisów dotyczących odpowiedzialności na poziomie krajowym. W ramach badania ekonomicznego 17 stanowiącego podstawę oceny skutków niniejszego wniosku stwierdzono – przyjmując ostrożne szacunki – że ukierunkowane środki harmonizujące w zakresie odpowiedzialności cywilnej za sztuczną inteligencję miałyby pozytywny wpływ rzędu 5–7 % na wartość produkcji w odpowiednim handlu transgranicznym w porównaniu ze scenariuszem bazowym. Ta wartość dodana powstałaby przede wszystkim dzięki zmniejszeniu rozdrobnienia przepisów i zwiększeniu pewności prawa w zakresie narażenia zainteresowanych stron na odpowiedzialność. Obniżyłoby to koszty ponoszone przez zainteresowane strony w zakresie informacji prawnych/zastępstwa procesowego, wewnętrznego zarządzania ryzykiem i przestrzegania przepisów, ułatwiłoby planowanie finansowe oraz szacowanie ryzyka do celów ubezpieczeniowych, a także umożliwiłoby przedsiębiorstwom – w szczególności MŚP – poszukiwanie nowych rynków za granicą. Na podstawie całkowitej wartości unijnego rynku sztucznej inteligencji dotkniętego problemami związanymi z odpowiedzialnością, objętymi niniejszą dyrektywą, szacuje się, że przyniesie ona dodatkową wartość rynkową w wysokości ok. 500 mln–1,1 mld EUR.

Jeżeli chodzi o skutki społeczne, niniejsza dyrektywa zwiększy zaufanie społeczne do technologii opartych na sztucznej inteligencji oraz dostęp do skutecznego systemu wymiaru sprawiedliwości. Przyczyni się ona do powstania efektywnego systemu odpowiedzialności cywilnej, dostosowanego do specyfiki sztucznej inteligencji, w ramach którego uznawane będą uzasadnione roszczenia odszkodowawcze za poniesione szkody. Wzrost zaufania społecznego przyniesie korzyści także wszystkim przedsiębiorstwom w łańcuchu wartości sztucznej inteligencji, ponieważ wzmocnienie zaufania obywateli przyczyni się do szybszego upowszechnienia sztucznej inteligencji. Ze względu na efekt zachęty związany z przepisami dotyczącymi odpowiedzialności, zapobieganie powstawaniu luk w obszarze odpowiedzialności pośrednio przyniosłoby również korzyści wszystkim obywatelom poprzez podniesienie poziomu ochrony zdrowia i bezpieczeństwa (art. 114 ust. 3 TFUE) oraz usunięcie źródeł zagrożeń dla zdrowia (art. 168 ust. 1 TFUE).

Jeżeli chodzi o wpływ na środowisko, oczekuje się, że dyrektywa przyczyni się także do realizacji odnośnych założeń i celów zrównoważonego rozwoju. Upowszechnienie wykorzystania sztucznej inteligencji jest korzystne dla środowiska. Na przykład systemy sztucznej inteligencji stosowane w optymalizacji procesów sprawiają, że w procesach tych marnuje się mniej zasobów (np. poprzez ograniczenie ilości potrzebnych nawozów i pestycydów, zmniejszenie zużycia wody bez pogorszenia rezultatu itp.). Dyrektywa miałaby również pozytywny wpływ na realizację celów zrównoważonego rozwoju, ponieważ skuteczne przepisy dotyczące przejrzystości, rozliczalności i praw podstawowych ukierunkują potencjał sztucznej inteligencji na przynoszenie korzyści obywatelom i społeczeństwu w zakresie realizacji celów zrównoważonego rozwoju.

2.PODSTAWA PRAWNA, POMOCNICZOŚĆ I PROPORCJONALNOŚĆ

·    Podstawa prawna

Podstawą prawną niniejszego wniosku jest art. 114 TFUE przewidujący przyjęcie środków, które mają na celu ustanowienie i funkcjonowanie rynku wewnętrznego.

Problemy, które niniejszy wniosek ma rozwiązać, w szczególności brak pewności prawa i rozdrobnienie przepisów, utrudniają rozwój rynku wewnętrznego, a tym samym stanowią istotne przeszkody w transgranicznym handlu produktami i usługami opartymi na sztucznej inteligencji.

Niniejszy wniosek odnosi się do przeszkód wynikających z faktu, że przedsiębiorstwa, które chcą produkować, rozpowszechniać i eksploatować w wymiarze transgranicznym produkty i usługi oparte na sztucznej inteligencji, nie mają pewności co do tego, czy i w jaki sposób istniejące systemy odpowiedzialności mają zastosowanie do szkód spowodowanych przez sztuczną inteligencję. Ten brak pewności dotyczy w szczególności państw członkowskich, do których przedsiębiorstwa będą wywozić produkty lub w których będą wprowadzać usługi. W kontekście transgranicznym do odpowiedzialności pozaumownej wynikającej z czynu niedozwolonego lub deliktu domyślnie stosuje się prawo państwa, w którym powstała szkoda. Dla takich przedsiębiorstw zasadnicze znaczenie ma znajomość odnośnego ryzyka odpowiedzialności i możliwość zabezpieczenia się przed nim.

Ponadto istnieją wyraźne sygnały, że szereg państw członkowskich rozważa przyjęcie jednostronnych środków ustawodawczych w celu sprostania szczególnym wyzwaniom stwarzanym przez sztuczną inteligencję w odniesieniu do odpowiedzialności. Na przykład w strategiach w zakresie sztucznej inteligencji przyjętych w Czechach 18 , we Włoszech 19 , na Malcie 20 , w Polsce 21 i w Portugalii 22 wspomina się o inicjatywach służących wyjaśnieniu kwestii związanych z odpowiedzialnością. Z uwagi na duże rozbieżności między przepisami dotyczącymi odpowiedzialności cywilnej obowiązującymi w różnych państwach członkowskich, prawdopodobne jest, że każdy krajowy środek w zakresie odpowiedzialności odnoszący się do sztucznej inteligencji będzie oparty na obowiązujących zróżnicowanych podejściach krajowych i tym samym zwiększy rozdrobnienie przepisów.

W związku z tym dostosowania przepisów dotyczących odpowiedzialności dokonywane wyłącznie na poziomie krajowym zwiększyłyby bariery dla wdrażania na całym rynku wewnętrznym produktów i usług opartych na sztucznej inteligencji i przyczyniłyby się do dalszego rozdrobnienia przepisów.

·Pomocniczość

Cele niniejszego wniosku nie mogą zostać w wystarczającym stopniu osiągnięte na poziomie krajowym, ponieważ powstanie rozbieżnych przepisów krajowych nasiliłoby brak pewności prawa i rozdrobnienie przepisów, co stworzyłoby przeszkody dla wdrażania na całym rynku wewnętrznym produktów i usług opartych na sztucznej inteligencji. Brak pewności prawa wpłynąłby w szczególności na przedsiębiorstwa prowadzące działalność transgraniczną, które musiałyby ponieść dodatkowe koszty informacji prawnych/zastępstwa procesowego, koszty zarządzania ryzykiem oraz utraconych dochodów. Zróżnicowanie krajowych przepisów dotyczących roszczeń odszkodowawczych za szkody spowodowane przez sztuczną inteligencję zwiększyłoby zarazem koszty transakcyjne przedsiębiorstw, w szczególności w przypadku handlu transgranicznego, co pociągałoby za sobą powstanie znacznych barier na rynku wewnętrznym. Ponadto brak pewności prawa i rozdrobnienie przepisów mają nieproporcjonalnie duży wpływ na przedsiębiorstwa typu start-up i MŚP, które stanowią większość przedsiębiorstw i odpowiadają za znaczną część inwestycji na rynkach właściwych.

Z uwagi na brak zharmonizowanych przepisów unijnych dotyczących odszkodowania za szkody spowodowane przez systemy sztucznej inteligencji, zarówno dostawcy, operatorzy i użytkownicy systemów sztucznej inteligencji, jak i osoby poszkodowane, mieliby do czynienia z 27 różnymi systemami odpowiedzialności, co prowadziłoby do zróżnicowania poziomów ochrony i zakłócenia konkurencji między przedsiębiorstwami z różnych państw członkowskich.

Środki zharmonizowane na poziomie UE znacznie poprawiłyby warunki wdrażania i rozwoju technologii sztucznej inteligencji na rynku wewnętrznym poprzez zapobieganie rozdrobnieniu przepisów i zwiększenie pewności prawa. Wartość dodana powstałaby przede wszystkim poprzez zmniejszenie rozdrobnienia przepisów i zwiększenie pewności prawa w odniesieniu do narażenia zainteresowanych stron na odpowiedzialność. Ponadto jedynie działanie na poziomie UE pozwoli w sposób spójny osiągnąć pożądany skutek, polegający na promowaniu zaufania konsumentów do produktów i usług opartych na sztucznej inteligencji poprzez zapobieganie lukom w zakresie odpowiedzialności związanym z cechami szczególnymi sztucznej inteligencji na całym rynku wewnętrznym. Zapewniłoby to spójny (minimalny) poziom ochrony dla wszystkich poszkodowanych (osób fizycznych i przedsiębiorstw) oraz spójne zachęty do zapobiegania szkodom i zapewnienia rozliczalności.

·Proporcjonalność

Niniejszy wniosek opiera się na podejściu etapowym. Na pierwszym etapie cele są osiągane przy zastosowaniu minimalnie inwazyjnego podejścia; drugi etap obejmuje ponowną ocenę, czy bardziej rygorystyczne lub kompleksowe środki są konieczne.

Pierwszy etap ogranicza się do środków dotyczących ciężaru dowodu w celu rozwiązania zidentyfikowanych problemów ze sztuczną inteligencją. Opiera się on na materialnych przesłankach odpowiedzialności istniejących obecnie w przepisach krajowych, takich jak związek przyczynowy lub wina, ale koncentruje się na ukierunkowanych środkach dotyczących dowodów, aby zapewnić poszkodowanym taki sam poziom ochrony, jak w sprawach niezwiązanych z systemami sztucznej inteligencji. Ponadto spośród poszczególnych narzędzi dostępnych w prawie krajowym, służących zmniejszeniu ciężaru dowodu 23 , na potrzeby niniejszego wniosku wybrano zastosowanie domniemań wzruszalnych jako narzędzia o najmniejszym stopniu interwencji. Takie domniemania są powszechne w krajowych systemach odpowiedzialności i równoważą interesy powodów i pozwanych. Jednocześnie mają one na celu zachęcanie do przestrzegania istniejących obowiązków dochowania należytej staranności określonych na szczeblu unijnym lub krajowym. Niniejszy wniosek nie powoduje przeniesienia ciężaru dowodu, aby uniknąć narażenia dostawców, operatorów i użytkowników systemów sztucznej inteligencji na większe ryzyko odpowiedzialności, które mogłoby utrudniać innowacje i ograniczać upowszechnianie produktów i usług opartych na sztucznej inteligencji.

Drugi etap przedstawiony we wniosku zapewnia, aby w ramach oceny skuteczności pierwszego etapu pod względem ochrony poszkodowanych i upowszechniania sztucznej inteligencji, przy przeprowadzaniu ponownej oceny dotyczącej konieczności harmonizacji innych elementów roszczeń odszkodowawczych lub innych narzędzi związanych z roszczeniami z tytułu odpowiedzialności, uwzględniano przyszłe zmiany technologiczne, regulacyjne i orzecznicze, także w sytuacjach, w których właściwsze byłoby zastosowanie odpowiedzialności na zasadzie ryzyka, zgodnie z wnioskiem Parlamentu Europejskiego. W ocenie tej prawdopodobnie rozważono by również kwestię tego, czy w celu zapewnienia skuteczności takiej harmonizacji konieczne byłoby połączenie jej z obowiązkowym ubezpieczeniem.

·Wybór instrumentu

Dyrektywa stanowi najodpowiedniejszy instrument w przypadku niniejszego wniosku, ponieważ przyniesie pożądany skutek harmonizacji oraz pewność prawa, a jednocześnie zapewni elastyczność umożliwiającą państwom członkowskim bezproblemowe włączenie zharmonizowanych środków do krajowych systemów odpowiedzialności.

Obowiązkowy instrument pozwoliłby zapobiec powstaniu luk w ochronie wynikających z wdrożenia częściowego lub z całkowitego jego braku. Chociaż instrument niewiążący byłby mniej inwazyjny, mało prawdopodobne jest, aby pozwolił skutecznie rozwiązać zidentyfikowane problemy. Wskaźnik wdrożenia instrumentów niewiążących jest trudny do oszacowania i brak jest wystarczających przesłanek wskazujących na to, że perswazyjny skutek zalecenia byłby wystarczający, aby spowodować spójne dostosowanie przepisów krajowych.

Skutek ten jest jeszcze mniej prawdopodobny w przypadku środków z zakresu prawa prywatnego, do którego należą przepisy dotyczące odpowiedzialności pozaumownej. Obszar ten charakteryzuje się długoletnimi tradycjami prawnymi, przez co państwa członkowskie niechętnie przystępują do reform harmonizacyjnych, jeżeli nie są one podyktowane wyraźną perspektywą korzyści dla rynku wewnętrznego, wynikających z wiążącego instrumentu UE, lub koniecznością dostosowania się do nowych technologii w gospodarce cyfrowej.

Kolejnym powodem, dla którego mało prawdopodobne jest, że zalecenie zostałoby spójnie wdrożone, są istniejące znaczne rozbieżności między ramami odpowiedzialności w państwach członkowskich.

1.WYNIKI OCEN EX POST, KONSULTACJI Z ZAINTERESOWANYMI STRONAMI I OCEN SKUTKÓW

·Konsultacje z zainteresowanymi stronami

Aby zapewnić liczny udział zainteresowanych stron na każdym etapie cyklu politycznego niniejszego wniosku, zrealizowano szeroko zakrojoną strategię konsultacji. Opierała się ona zarówno na konsultacjach publicznych, jak i na szeregu ukierunkowanych konsultacji (seminaria internetowe, dwustronne rozmowy z przedsiębiorstwami i z organizacjami).

Po wstępnych pytaniach na temat odpowiedzialności – stanowiących część konsultacji publicznych dotyczących białej księgi w sprawie sztucznej inteligencji oraz sprawozdania Komisji na temat bezpieczeństwa i odpowiedzialności – w okresie od 18 października 2021 r. do 10 stycznia 2022 r. przeprowadzono specjalne internetowe konsultacje publiczne, aby uzyskać opinię szerokiego grona zainteresowanych stron, takich jak konsumenci, organizacje społeczeństwa obywatelskiego, stowarzyszenia branżowe, przedsiębiorstwa, w tym MŚP, oraz organy publiczne. Po przeanalizowaniu wszystkich otrzymanych odpowiedzi Komisja opublikowała na swojej stronie internetowej podsumowanie wyników oraz poszczególne odpowiedzi 24 .

Łącznie otrzymano 233 odpowiedzi od respondentów z 21 państw członkowskich oraz z państw trzecich. Ogólnie rzecz biorąc, większość zainteresowanych stron potwierdziła występowanie problemów związanych z ciężarem dowodu, brakiem pewności prawa i rozdrobnieniem przepisów oraz poparła działania na poziomie UE.

Obywatele UE oraz przedstawiciele organizacji konsumenckich i instytucji akademickich w przeważającej większości potwierdzili konieczność podjęcia przez UE działań mających na celu ograniczenie problemów związanych z ciężarem dowodu, z którymi borykają się osoby poszkodowane. Przedstawiciele przedsiębiorstw, chociaż przyznali, że brak pewności co do stosowania przepisów dotyczących odpowiedzialności rodzi negatywne skutki, byli bardziej zachowawczy i zwracali się o ukierunkowane środki, które pozwolą uniknąć ograniczania innowacji.

Podobnie było w przypadku wariantów strategicznych. Obywatele UE, przedstawiciele organizacji konsumenckich i instytucji akademickich zdecydowanie poparli środki dotyczące ciężaru dowodu i harmonizacji odpowiedzialności na zasadzie ryzyka połączone z obowiązkiem ubezpieczenia. Przedstawiciele przedsiębiorstw byli bardziej podzieleni w kwestii wariantów strategicznych, przy czym różnice zależały częściowo od wielkości przedsiębiorstwa. Większość respondentów będących przedsiębiorcami uznała odpowiedzialność na zasadzie ryzyka za nieproporcjonalną. Harmonizacja w zakresie zmniejszenia ciężaru dowodu zyskała większe poparcie, w szczególności wśród MŚP. Przedsiębiorstwa przestrzegały jednak przed całkowitym przeniesieniem ciężaru dowodu.

Preferowany wariant strategiczny został więc opracowany i udoskonalony w oparciu o informacje zwrotne otrzymywane od zainteresowanych stron przez cały czas trwania procesu oceny skutków, tak aby zachować równowagę między potrzebami i obawami wyrażanymi przez wszystkie odpowiednie grupy zainteresowanych stron.

·Gromadzenie i wykorzystanie wiedzy eksperckiej

Niniejszy wniosek opiera się na czteroletniej analizie i ścisłym zaangażowaniu zainteresowanych stron, w tym pracowników naukowych, przedsiębiorstw, organizacji konsumenckich, państw członkowskich i obywateli. Prace przygotowawcze rozpoczęły się w 2018 r. powołaniem grupy ekspertów ds. odpowiedzialności i nowych technologii (Forum Nowych Technologii). W listopadzie 2019 r. grupa ekspertów sporządziła sprawozdanie 25 , w którym oceniono wyzwania, jakie niektóre cechy sztucznej inteligencji stwarzają dla krajowych przepisów dotyczących odpowiedzialności cywilnej.

Dane ze sprawozdania grupy ekspertów zostały uzupełnione trzema dodatkowymi badaniami zewnętrznymi:

badaniem porównawczym prawa opartym na analizie porównawczej europejskiego prawa deliktów, skoncentrowanym na głównych kwestiach związanych ze sztuczną inteligencją 26 ;

badaniem z zakresu ekonomii behawioralnej dotyczącym wpływu ukierunkowanych dostosowań systemu odpowiedzialności na proces decyzyjny konsumentów, w szczególności na ich zaufanie i chęć do korzystania z produktów i usług opartych na sztucznej inteligencji 27 ;

badaniem ekonomicznym 28 obejmującym szereg kwestii: wyzwania, w obliczu których stają poszkodowani w wyniku zastosowania sztucznej inteligencji, gdy próbują uzyskać odszkodowanie za poniesione straty, w porównaniu z sytuacją osób poszkodowanych w wyniku zastosowania urządzeń niewykorzystujących sztucznej inteligencji; czy – i w jakim stopniu – przedsiębiorstwom brakuje pewności co do tego, w jaki sposób obowiązujące przepisy dotyczące odpowiedzialności mają zastosowanie do ich działań związanych ze sztuczną inteligencją oraz czy brak takiej pewności prawa może utrudniać inwestycje w sztuczną inteligencję; czy dalsze rozdrobnienie krajowych przepisów dotyczących odpowiedzialności cywilnej ograniczyłoby skuteczne funkcjonowanie rynku wewnętrznego w przypadku aplikacji i usług opartych na sztucznej inteligencji oraz czy – i w jakim stopniu – harmonizacja określonych aspektów odpowiedzialności cywilnej na poziomie krajowym za pośrednictwem przepisów UE zmniejszyłaby te problemy i ułatwiłaby ogólne upowszechnienie technologii sztucznej inteligencji wśród przedsiębiorstw z UE.

·Ocena skutków

Zgodnie ze swoją polityką „lepszego stanowienia prawa” Komisja przeprowadziła ocenę skutków w odniesieniu do niniejszego wniosku, która została zbadana przez działającą przy Komisji Radę ds. Kontroli Regulacyjnej. Na posiedzeniu Rady ds. Kontroli Regulacyjnej z 6 kwietnia 2022 r. wydano pozytywną opinię opatrzoną uwagami.

Oceniono trzy warianty strategiczne:

Wariant strategiczny nr 1: trzy środki mające na celu zmniejszenie ciężaru dowodu spoczywającego na poszkodowanych, którzy starają się udowodnić swoje roszczenie z tytułu odpowiedzialności cywilnej.

Wariant strategiczny nr 2: środki, o których mowa w wariancie nr 1 + harmonizacja przepisów dotyczących odpowiedzialności na zasadzie ryzyka w odniesieniu do przypadków użycia sztucznej inteligencji o szczególnym profilu ryzyka, w połączeniu z obowiązkowym ubezpieczeniem.

Wariant strategiczny nr 3: podejście etapowe składające się z:

etapu pierwszego: środki, o których mowa w wariancie nr 1;

etapu drugiego: mechanizm przeglądu służący do ponownej oceny dotyczącej w szczególności konieczności harmonizacji odpowiedzialności na zasadzie ryzyka w odniesieniu do przypadków użycia sztucznej inteligencji o szczególnym profilu ryzyka (potencjalnie w połączeniu z obowiązkowym ubezpieczeniem).

Warianty strategiczne zostały porównane w drodze analizy opartej na wielu kryteriach z uwzględnieniem skuteczności, efektywności, spójności i proporcjonalności każdego z wariantów. Wyniki analizy opartej na wielu kryteriach oraz analizy wrażliwości wskazują na to, że wariant strategiczny nr 3, polegający na zmniejszeniu ciężaru dowodu w przypadku roszczeń związanych ze sztuczną inteligencją oraz na ukierunkowanym przeglądzie dotyczącym odpowiedzialności na zasadzie ryzyka, potencjalnie w połączeniu z obowiązkowym ubezpieczeniem, uzyskał najwyższą ocenę, a zatem stanowi preferowany wariant strategiczny na potrzeby niniejszego wniosku.

Preferowany wariant strategiczny zapewniałby, aby osoby poszkodowane w wyniku stosowania produktów i usług opartych na sztucznej inteligencji (osoby fizyczne, przedsiębiorstwa i wszelkie inne podmioty publiczne lub prywatne) były chronione w nie mniejszym stopniu niż osoby poszkodowane w wyniku stosowania technologii tradycyjnych. Przyczyniłby się on do zwiększenia poziomu zaufania do sztucznej inteligencji i do promowania jej upowszechniania.

Ponadto zwiększyłby on pewność prawa i zapobiegłby rozdrobnieniu przepisów, co pomogłoby przedsiębiorstwom – w szczególności MŚP – chcącym w pełni wykorzystać potencjał jednolitego rynku UE i wprowadzić w wymiarze transgranicznym produkty i usługi oparte na sztucznej inteligencji. Preferowany wariant strategiczny stwarza również lepsze warunki dla ubezpieczycieli, aby oferowali oni możliwość objęcia ubezpieczeniem działań związanych ze sztuczną inteligencją, co ma zasadnicze znaczenie dla przedsiębiorstw, zwłaszcza dla MŚP, w zakresie zarządzania ryzykiem. Szacuje się mianowicie, że preferowany wariant strategiczny doprowadziłby do zwiększenia wartości rynkowej sztucznej inteligencji w UE-27 do poziomu ok. 500 mln – 1,1 mld EUR w 2025 r.

·Prawa podstawowe

Jedną z najważniejszych funkcji przepisów dotyczących odpowiedzialności cywilnej jest zapewnienie, aby poszkodowani mogli ubiegać się o odszkodowanie. Gwarantując skuteczne dochodzenie odszkodowania, przepisy te przyczyniają się do ochrony prawa do skutecznego środka prawnego i dostępu do bezstronnego sądu (art. 47 Karty praw podstawowych Unii Europejskiej, zwanej dalej „Kartą”), a jednocześnie stanowią zachętę dla osób potencjalnie ponoszących odpowiedzialność, aby zapobiegały szkodom w celu uniknięcia odpowiedzialności.

Za pomocą niniejszego wniosku Komisja dąży do zapewnienia, aby – na podstawie przepisów dotyczących odpowiedzialności cywilnej – poziom ochrony osób, które poniosły szkody spowodowane przez sztuczną inteligencję był równoważny poziomowi ochrony osób, które poniosły szkody niespowodowane przez sztuczną inteligencję. Niniejszy wniosek umożliwi skuteczne egzekwowanie praw podstawowych na drodze prywatnoprawnej oraz zachowanie prawa do skutecznego środka prawnego w przypadku urzeczywistnienia się ryzyka charakterystycznego dla sztucznej inteligencji. Niniejszy wniosek przyczyni się w szczególności do ochrony praw podstawowych, takich jak prawo do życia (art. 2 Karty), prawo do integralności fizycznej i psychicznej (art. 3) oraz prawo własności (art. 17). Ponadto, w zależności od systemu i tradycji prawa cywilnego każdego państwa członkowskiego, poszkodowani będą mogli dochodzić odszkodowania za szkody dotyczące innych interesów prawnych, takich jak godność osobista (art. 1 i 4 Karty), poszanowanie życia prywatnego i rodzinnego (art. 7) oraz prawo do równości (art. 20) i niedyskryminacji (art. 21).

Co więcej, niniejszy wniosek stanowi uzupełnienie innych elementów polityki Komisji w dziedzinie sztucznej inteligencji opartych na zapobiegawczych wymogach regulacyjnych i nadzorczych, ukierunkowanych bezpośrednio na unikanie naruszeń praw podstawowych (takich jak dyskryminacja). Należą do nich: akt w sprawie AI, ogólne rozporządzenie o ochronie danych, akt o usługach cyfrowych oraz prawo Unii w zakresie niedyskryminacji i równego traktowania. Niniejszy wniosek nie ustanawia przy tym ani nie harmonizuje obowiązków dochowania należytej staranności lub odpowiedzialności różnych podmiotów, których działalność jest regulowana na podstawie tych aktów prawnych, a zatem nie prowadzi do powstania nowych roszczeń z tytułu odpowiedzialności ani nie wpływa na wyłączenia odpowiedzialności na mocy tych innych aktów prawnych. Niniejszy wniosek wprowadza wyłącznie zmniejszenie ciężaru dowodu dla osób, które poniosły szkody spowodowane przez systemy sztucznej inteligencji w przypadku roszczeń, które mogą być oparte na prawie krajowym lub na tych innych aktach prawa Unii. Jako uzupełnienie tych innych elementów, niniejszy wniosek zapewnia ochronę prawa osoby poszkodowanej do dochodzenia odszkodowania na podstawie prawa prywatnego, w tym odszkodowania za naruszenie praw podstawowych.

4.WPŁYW NA BUDŻET

Niniejszy wniosek nie będzie mieć wpływu na budżet Unii Europejskiej.

5.ELEMENTY FAKULTATYWNE

·Plany wdrożenia i monitorowanie, ocena, program monitorowania i ukierunkowany przegląd

W niniejszym wniosku przewidziano podejście etapowe. Aby zapewnić dostępność wystarczających dowodów na potrzeby ukierunkowanego przeglądu w ramach etapu drugiego, Komisja sporządzi plan monitorowania, w którym szczegółowo określi sposób i częstotliwość gromadzenia danych i innych niezbędnych dowodów.

Mechanizm monitorowania mógłby obejmować następujące rodzaje danych i dowodów:

sprawozdawczość i wymiana informacji państw członkowskich na temat stosowania środków zmniejszających ciężar dowodu w krajowych sądowych lub pozasądowych postępowaniach ugodowych;

informacje gromadzone przez Komisję lub organy nadzoru rynku na podstawie aktu w sprawie AI (w szczególności jego art. 62) lub innych odpowiednich instrumentów;

informacje i analizy wspierające ocenę aktu w sprawie AI oraz sprawozdania, które Komisja ma sporządzić na temat jego wdrożenia;

informacje i analizy wspierające ocenę odpowiednich przyszłych środków z zakresu polityki w ramach prawodawstwa dotyczącego bezpieczeństwa opartego na „starym podejściu” w celu zapewnienia, aby produkty wprowadzane do obrotu w Unii spełniały wysokie wymagania w zakresie zdrowia, bezpieczeństwa i ochrony środowiska;

informacje i analizy opracowane na potrzeby sprawozdania Komisji na temat stosowania dyrektywy w sprawie ubezpieczeń komunikacyjnych do rozwoju technologicznego (w szczególności do pojazdów autonomicznych i półautonomicznych) zgodnie z jej art. 28c ust. 2 lit. a).

·Szczegółowe objaśnienia poszczególnych przepisów wniosku

1.Przedmiot i zakres stosowania (art. 1)

Celem niniejszej dyrektywy jest usprawnienie funkcjonowania rynku wewnętrznego poprzez ustanowienie jednolitych wymogów dotyczących określonych aspektów pozaumownej odpowiedzialności cywilnej za szkody wyrządzone przy wykorzystaniu systemów sztucznej inteligencji. Stanowi ona realizację działań następczych w związku z rezolucją Parlamentu Europejskiego 2020/2014(INL) i służy dostosowaniu prawa prywatnego do potrzeb wynikających z przejścia na gospodarkę cyfrową.

Wybór odpowiednich narzędzi prawnych jest ograniczony, z uwagi na charakter kwestii ciężaru dowodu oraz na cechy charakterystyczne sztucznej inteligencji, które są problematyczne w kontekście obowiązujących przepisów dotyczących odpowiedzialności. W tym względzie niniejsza dyrektywa zmniejsza ciężar dowodu w bardzo ukierunkowany i proporcjonalny sposób poprzez wykorzystanie obowiązku ujawniania dowodów oraz instytucji domniemań wzruszalnych. Przewiduje ona, że osoby dochodzące odszkodowania będą miały możliwość uzyskania informacji na temat systemów sztucznej inteligencji wysokiego ryzyka, które mają być rejestrowane/dokumentowane zgodnie z aktem w sprawie AI. Ponadto domniemania wzruszalne zapewnią, aby ciężar dowodu spoczywający na osobach dochodzących odszkodowania za szkody spowodowane przez systemy sztucznej inteligencji był bardziej racjonalny i aby ich uzasadnione roszczenia z tytułu odpowiedzialności mogły zostać uznane.

Narzędzia takie nie są niczym nowym, gdyż występują one w krajowych systemach prawnych. Krajowe narzędzia stanowią wobec tego przydatne punkty odniesienia dla sposobu rozwiązania problemów, jakie sztuczna inteligencja stwarza w kontekście obowiązujących przepisów dotyczących odpowiedzialności, przy jak najmniejszej ingerencji w poszczególne krajowe systemy prawne.

Ponadto opinie przedstawicieli przedsiębiorstw, zapytanych w ramach konsultacji o dalej idące zmiany, takie jak przeniesienie ciężaru dowodu lub wprowadzenie domniemania niewzruszalnego, były negatywne. Wybrano więc domniemanie wzruszalne, jako ukierunkowany środek mający na celu zmniejszenie ciężaru dowodu, uznany za pragmatyczny i właściwy sposób wsparcia osób poszkodowanych w wywiązaniu się z ciężaru dowodu w sposób możliwie najbardziej ukierunkowany i proporcjonalny.

Art. 1 określa przedmiot i zakres stosowania niniejszej dyrektywy: ma ona zastosowanie do pozaumownych cywilnoprawnych roszczeń z tytułu szkód spowodowanych przez system sztucznej inteligencji, w przypadku gdy dochodzi się ich w ramach systemów odpowiedzialności opartych na zasadzie winy. Oznacza to systemy, które przewidują ustawowy obowiązek zadośćuczynienia za szkody wyrządzone umyślnie lub w wyniku zaniedbania lub zaniechania. Środki przewidziane w niniejszej dyrektywie można bez problemu włączyć do istniejących systemów odpowiedzialności cywilnej, ponieważ wyraża się w nich podejście, w którym definicje podstawowych pojęć, takich jak „wina” czy „szkoda” nie są istotne, ponieważ ich znaczenie znacząco różni się we wszystkich państwach członkowskich. W związku z tym, z wyjątkiem ustanawianych przez nią domniemań, niniejsza dyrektywa nie wpływa na przepisy unijne ani krajowe określające na przykład, na której ze stron spoczywa ciężar dowodu, jaki stopień pewności jest wymagany w odniesieniu do standardu dowodu lub jak definiowana jest wina.

Ponadto niniejsza dyrektywa nie ma wpływu na obowiązujące przepisy regulujące warunki odpowiedzialności w sektorze transportu oraz na warunki określone w akcie o usługach cyfrowych.

Chociaż niniejsza dyrektywa nie ma zastosowania do odpowiedzialności karnej, może mieć zastosowanie w odniesieniu do odpowiedzialności państwa. Organy państwowe są również objęte zakresem stosowania przepisów aktu w sprawie AI jako podmioty podlegające przewidzianym w nim obowiązkom.

Niniejszej dyrektywy nie stosuje się z mocą wsteczną, ma ona zastosowanie wyłącznie do roszczeń odszkodowawczych za szkody powstałe od dnia jej transpozycji.

Wniosek dotyczący niniejszej dyrektywy został przyjęty wraz z wnioskiem dotyczącym zmiany dyrektywy 85/374/EWG w sprawie odpowiedzialności za produkty, w ramach pakietu mającego na celu dostosowanie przepisów dotyczących odpowiedzialności do epoki cyfrowej i sztucznej inteligencji, co zapewnia niezbędną spójność między tymi dwoma uzupełniającymi się aktami prawnymi.

2.Definicje (Artykuł 2)

Definicje podane w art. 2 odpowiadają definicjom zawartym w akcie w sprawie AI w celu zapewnienia spójności.

Art. 2 pkt 6 lit. b) stanowi, że roszczenia odszkodowawcze mogą być wnoszone nie tylko przez osoby poszkodowane, lecz także przez osoby, które objęły prawa osoby poszkodowanej lub wstąpiły w nie na zasadzie subrogacji. Subrogacja jest przejęciem przez osobę trzecią (np. zakład ubezpieczeń) prawa innej osoby do odzyskania długu lub dochodzenia odszkodowania. Jedna osoba jest zatem uprawniona do egzekwowania praw innej osoby na swoją korzyść. Subrogacja obejmowałaby również spadkobierców zmarłego poszkodowanego.

Ponadto art. 2 pkt 6 lit. c) przewiduje, że powództwo o odszkodowanie może być również wniesione przez osobę występującą w imieniu jednej lub kilku poszkodowanych osób, zgodnie z prawem unijnym lub krajowym. Przepis ten ma na celu zapewnienie osobom, które poniosły szkodę spowodowaną przez system sztucznej inteligencji, większych możliwości poddania ich roszczeń ocenie sądu, nawet w przypadkach, w których wniesienie powództwa indywidualnego może wydawać się zbyt kosztowne lub zbyt uciążliwe, lub w przypadkach, w których powództwo wspólne może przynieść korzyści skali. Aby umożliwić osobom, które poniosły szkody spowodowane przez systemy sztucznej inteligencji, egzekwowanie swoich praw, o których mowa w niniejszej dyrektywie, w drodze powództwa przedstawicielskiego, art. 6 zmienia załącznik I do dyrektywy (UE) 2020/1828.

3.Ujawnianie dowodów (art. 3)

Niniejsza dyrektywa ma na celu zapewnienie osobom ubiegającym się o odszkodowanie za szkody spowodowane przez systemy sztucznej inteligencji wysokiego ryzyka skutecznych środków umożliwiających identyfikację osób potencjalnie ponoszących odpowiedzialność oraz odpowiednich dowodów na potrzeby roszczenia. Jednocześnie takie środki służą wykluczeniu niesłusznie zidentyfikowanych potencjalnych pozwanych, co pozwala zaoszczędzić czas i obniżyć koszty dla zainteresowanych stron oraz zmniejszyć liczbę spraw rozpatrywanych przez sądy.

W tym względzie art. 3 ust. 1 dyrektywy stanowi, że sąd może nakazać ujawnienie odpowiednich dowodów dotyczących konkretnych systemów sztucznej inteligencji wysokiego ryzyka, co do których istnieje podejrzenie, że spowodowały szkodę. Wnioski o dowody kieruje się do dostawcy systemu sztucznej inteligencji, do osoby, która podlega obowiązkom dostawcy określonym w art. 24 lub art. 28 ust. 1 aktu w sprawie AI, lub do użytkownika na podstawie aktu w sprawie AI. Wnioski należy poprzeć faktami lub dowodami wystarczającymi do ustalenia wiarygodności rozpatrywanego roszczenia odszkodowawczego, a adresaci powinni dysponować dowodami, których wnioski te dotyczą. Wniosków nie można kierować do osób, które nie podlegają obowiązkom wynikającym z aktu w sprawie AI i w związku z tym nie mają dostępu do dowodów.

Zgodnie z art. 3 ust. 2 powód może złożyć wniosek o ujawnienie dowodów przez dostawców lub użytkowników, którzy nie są pozwanymi, wyłącznie wówczas, gdy wszystkie proporcjonalne próby uzyskania dowodów od pozwanego zakończyły się niepowodzeniem.

Aby środki sądowe były skuteczne, art. 3 ust. 3 dyrektywy stanowi, że sąd może również nakazać zabezpieczenie takich dowodów.

Jak przewidziano w art. 3 ust. 4 akapit pierwszy, sąd może zarządzić takie ujawnienie wyłącznie w zakresie niezbędnym do uzasadnienia roszczenia, jako że informacje te mogłyby stanowić dowód decydujący dla roszczenia osoby poszkodowanej w przypadku szkód związanych z systemami sztucznej inteligencji.

Poprzez ograniczenie obowiązku ujawniania lub zabezpieczenia wyłącznie do tych dowodów, które są niezbędne i proporcjonalne, art. 3 ust. 4 akapit pierwszy ma zapewnić proporcjonalność w ujawnianiu dowodów, tj. ograniczyć ujawnianie informacji do niezbędnego minimum i zapobiec składaniu wniosków ogólnych.

Celem art. 3 ust. 4 akapit drugi i trzeci jest ponadto osiągnięcie równowagi między prawami powoda a koniecznością zapewnienia, aby takie ujawnienie podlegało zabezpieczeniom mającym na celu ochronę prawnie uzasadnionych interesów wszystkich zainteresowanych stron, takich jak tajemnice przedsiębiorstwa lub informacje poufne.

W tym samym kontekście art. 3 ust. 4 akapit czwarty służy zapewnieniu, by osoba, której nakaz dotyczy, dysponowała proceduralnymi środkami ochrony prawnej przed nakazem ujawnienia lub zabezpieczenia informacji.

W art. 3 ust. 5 wprowadza się domniemanie niedopełnienia obowiązku dochowania należytej staranności. Jest to narzędzie proceduralne istotne wyłącznie w przypadkach, w których to rzeczywisty pozwany w sprawie dotyczącej roszczenia odszkodowawczego ponosi konsekwencje niezastosowania się do wniosku o ujawnienie lub zabezpieczenie dowodów. Pozwany będzie miał prawo obalić to domniemanie. Środek określony w tym ustępie ma na celu wspieranie ujawniania informacji, ale także przyspieszenie postępowania sądowego.

4.Domniemanie istnienia związku przyczynowego w przypadku winy (art. 4)

W odniesieniu do szkody spowodowanej przez systemy sztucznej inteligencji celem niniejszej dyrektywy jest zapewnienie skutecznej podstawy do dochodzenia odszkodowania w związku z winą polegającą na niedopełnieniu obowiązku dochowania należytej staranności zgodnie z prawem unijnym lub krajowym.

Ustalenie związku przyczynowego między takim niedopełnieniem obowiązków a wynikiem uzyskanym przez system sztucznej inteligencji lub faktem nieuzyskania przez system sztucznej inteligencji wyniku, co doprowadziło do powstania odnośnej szkody, może być dla powodów trudne. W związku z tym w art. 4 ust. 1 ustanowiono ukierunkowane domniemanie wzruszalne tego związku przyczynowego. Takie domniemanie jest najmniej uciążliwym sposobem uwzględnienia potrzeby przyznania poszkodowanemu sprawiedliwego odszkodowania.

Wina pozwanego musi zostać udowodniona przez powoda zgodnie z obowiązującymi przepisami unijnymi lub krajowymi. Taką winę można stwierdzić na przykład w razie nieprzestrzegania obowiązku dochowania należytej staranności zgodnie z aktem w sprawie AI lub z innymi przepisami ustanowionymi na szczeblu Unii, takimi jak przepisy regulujące korzystanie ze zautomatyzowanego monitorowania i podejmowania decyzji w pracy za pośrednictwem platform internetowych lub przepisy regulujące eksploatację bezzałogowych statków powietrznych. Możliwe jest również sądowe domniemanie takiej winy w wyniku niezastosowania się przez powoda do sądowego nakazu ujawnienia lub zabezpieczenia dowodów na mocy art. 3 ust. 5. Wprowadzenie domniemania związku przyczynowego jest jednak właściwe wyłącznie wówczas, gdy można uznać za prawdopodobne, że dana wina miała wpływ na odnośny wynik uzyskany przez system sztucznej inteligencji lub na brak takiego wyniku, co można ocenić na podstawie wszystkich okoliczności sprawy. Powód wciąż musi jednak udowodnić, że to właśnie system sztucznej inteligencji (tj. uzyskany przez niego wynik lub fakt nieuzyskania przez niego wyniku) spowodował powstanie szkody.

W ust. 2 i 3 wprowadzono rozróżnienie na – z jednej strony – roszczenia wobec dostawcy systemu sztucznej inteligencji wysokiego ryzyka lub osoby podlegającej obowiązkom dostawcy na mocy aktu w sprawie AI, a – z drugiej strony – roszczenia wobec użytkownika takich systemów. W tym względzie przepis art. 4 jest zgodny z odpowiednimi przepisami i właściwymi warunkami określonymi w akcie w sprawie AI. W przypadku roszczeń na podstawie art. 4 ust. 2 dopełnienie przez pozwanych obowiązków wymienionych w tym ustępie musi być oceniane także w świetle systemu zarządzania ryzykiem i jego wyników, tj. środków zarządzania ryzykiem, zgodnie z aktem w sprawie AI.

W przypadku systemów sztucznej inteligencji wysokiego ryzyka, określonych w akcie w sprawie AI, w art. 4 ust. 4 ustanowiono wyjątek od domniemania związku przyczynowego, jeżeli pozwany wykaże, że powód może uzyskać względnie łatwy dostęp do dowodów i do wiedzy eksperckiej wystarczających, aby udowodnić związek przyczynowy. Możliwość ta może stanowić zachętę dla pozwanych, aby dopełniali obowiązków związanych z ujawnieniem dowodów i postępowali zgodnie ze środkami określonymi w akcie w sprawie AI mającymi na celu zapewnienie wysokiego poziomu przejrzystości sztucznej inteligencji lub z wymogami dotyczącymi prowadzenia dokumentacji i rejestrów.

W przypadku systemów sztucznej inteligencji innych niż systemy wysokiego ryzyka w art. 4 ust. 5 ustanowiono warunek zastosowania domniemania związku przyczynowego, przy czym jest ono możliwe wyłącznie, jeżeli sąd stwierdzi, że udowodnienie związku przyczynowego przez powoda jest nadmiernie trudne. Trudności takie należy oceniać w świetle cech określonych systemów sztucznej inteligencji, takich jak ich autonomia i brak przejrzystości, które sprawiają, że wyjaśnienie wewnętrznego funkcjonowania systemu sztucznej inteligencji jest w praktyce bardzo trudne, co negatywnie wpływa na możliwość udowodnienia przez powoda związku przyczynowego między winą pozwanego a wynikiem działania sztucznej inteligencji.

W przypadkach, w których pozwany korzysta z systemu sztucznej inteligencji w ramach osobistej działalności pozazawodowej, art. 4 ust. 6 stanowi, że domniemanie związku przyczynowego powinno mieć zastosowanie wyłącznie wówczas, gdy pozwany w sposób istotny wpływał na warunki działania systemu sztucznej inteligencji lub gdy pozwany miał obowiązek i możliwość określenia warunków działania systemu sztucznej inteligencji, ale tego nie uczynił. Warunek ten znajduje uzasadnienie w konieczności zachowania równowagi między interesami osób poszkodowanych a interesami użytkowników niezawodowych poprzez wyłączenie z zakresu stosowania domniemania związku przyczynowego przypadków, w których zachowanie użytkowników niezawodowych nie zwiększa ryzyka.

Ponadto art. 4 ust. 7 stanowi, że pozwany ma prawo wzruszyć domniemanie związku przyczynowego oparte na art. 4 ust. 1.

Dodatkową zaletą takich skutecznych przepisów dotyczących odpowiedzialności cywilnej jest fakt, że dają one wszystkim podmiotom zaangażowanym w działalność związaną z systemami sztucznej inteligencji dodatkową zachętę do przestrzegania zobowiązań dotyczących ich spodziewanego zachowania.

5.Ocena i ukierunkowany przegląd (art. 5)

W różnych krajowych systemach prawnych przewidziano różne systemy odpowiedzialności na zasadzie ryzyka. Wprowadzenie elementów takiego systemu na poziomie Unii zaproponował również Parlament Europejski w rezolucji przyjętej z własnej inicjatywy 20 października 2020 r., obejmującej system ograniczonej odpowiedzialności na zasadzie ryzyka w odniesieniu do niektórych technologii opartych na sztucznej inteligencji oraz ułatwienie ustalania, na której ze stron spoczywa ciężar dowodu zgodnie z przepisami dotyczącymi odpowiedzialności opartej na zasadzie winy. Również w ramach konsultacji publicznych stwierdzono, że respondenci (z wyjątkiem przedsiębiorstw niebędących MŚP) preferują taki system, niezależnie od tego, czy jest on połączony z obowiązkowym ubezpieczeniem.

We wniosku uwzględniono jednak różnice w krajowych tradycjach prawnych oraz fakt, że produkty i usługi wyposażone w systemy sztucznej inteligencji, które mogłyby mieć wpływ na ogół społeczeństwa i zagrażać istotnym prawom, takim jak prawo do życia, zdrowia i własności, a zatem mogłyby podlegać systemowi odpowiedzialności na zasadzie ryzyka, nie są jeszcze powszechnie dostępne na rynku.

Wprowadza się program monitorowania w celu dostarczania Komisji informacji o incydentach z udziałem systemów sztucznej inteligencji. Ukierunkowany przegląd obejmie ocenę, czy potrzebne byłyby dodatkowe środki, takie jak wprowadzenie systemu odpowiedzialności na zasadzie ryzyka lub obowiązkowego ubezpieczenia.

6.Transpozycja (art. 7)

Przy powiadamianiu Komisji o krajowych środkach transpozycji mających na celu zapewnienie zgodności z niniejszą dyrektywą, państwa członkowskie powinny również dostarczyć dokumenty wyjaśniające, które zawierają wystarczająco jasne i precyzyjne informacje oraz wskazują przepisy krajowe zapewniające transpozycję poszczególnych przepisów niniejszej dyrektywy. Jest to niezbędne, aby umożliwić Komisji określenie – w stosunku do każdego przepisu dyrektywy wymagającego transpozycji – właściwej sekcji krajowego środka transpozycji tworzącego w krajowym porządku prawnym odnośne zobowiązanie prawne, niezależnie od formy transpozycji wybranej przez państwa członkowskie.



2022/0303 (COD)

Wniosek

DYREKTYWA PARLAMENTU EUROPEJSKIEGO I RADY

w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji
(dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję)

(Tekst mający znaczenie dla EOG)

PARLAMENT EUROPEJSKI I RADA UNII EUROPEJSKIEJ,

uwzględniając Traktat o funkcjonowaniu Unii Europejskiej, w szczególności jego art. 114,

uwzględniając wniosek Komisji Europejskiej,

po przekazaniu projektu aktu ustawodawczego parlamentom narodowym,

uwzględniając opinię Europejskiego Komitetu Ekonomiczno-Społecznego 29 ,

Uwzględniając opinię Komitetu Regionów 30 ,

stanowiąc zgodnie ze zwykłą procedurą ustawodawczą,

a także mając na uwadze, co następuje:

(1)Sztuczna inteligencja („AI”) to zestaw technologii prorozwojowych, które mogą przyczynić się do osiągnięcia wielu korzyści dla całej gospodarki i całego społeczeństwa. Ma ona duży potencjał w zakresie postępu technologicznego i umożliwia tworzenie nowych modeli biznesowych w wielu sektorach gospodarki cyfrowej.

(2)Jednocześnie, w zależności od okoliczności konkretnego zastosowania i wykorzystania, sztuczna inteligencja może stwarzać ryzyko i szkodzić interesom oraz uprawnieniom chronionym prawem unijnym lub krajowym. Stosowanie sztucznej inteligencji może mieć na przykład negatywny wpływ na szereg praw podstawowych, w tym na prawo do życia i do integralności fizycznej oraz na kwestie dotyczące niedyskryminacji i równego traktowania. W rozporządzeniu Parlamentu Europejskiego i Rady (UE) .../... [akt w sprawie AI] 31 przewidziano wymogi mające na celu zmniejszenie zagrożeń dla bezpieczeństwa i praw podstawowych, natomiast w innych instrumentach prawa Unii uregulowano ogólne 32 i sektorowe przepisy dotyczące bezpieczeństwa produktów mające zastosowanie również do produktów maszynowych 33 i urządzeń radiowych 34 opartych na sztucznej inteligencji. Chociaż celem takich wymogów ukierunkowanych na zmniejszenie zagrożeń dla bezpieczeństwa i praw podstawowych jest zapobieganie takim zagrożeniom, monitorowanie ich i przeciwdziałanie im, a tym samym rozwiązywanie problemów społecznych, nie zapewniają one indywidualnej rekompensaty osobom, które poniosły szkody spowodowane przez sztuczną inteligencję. Aby zapobiec powstawaniu takich szkód, istniejące wymogi przewidują w szczególności obowiązkowe zezwolenia, kontrole, monitorowanie i sankcje administracyjne w odniesieniu do systemów sztucznej inteligencji. Nie przewidują one jednak odszkodowania dla osoby poszkodowanej za szkodę spowodowaną wynikiem uzyskanym przez system sztucznej inteligencji lub faktem nieuzyskania przez taki system wyniku.

(3)Gdy osoba poszkodowana dochodzi odszkodowania, ogólne przepisy dotyczące odpowiedzialności na zasadzie winy obowiązujące w państwach członkowskich wymagają zazwyczaj, aby osoba ta udowodniła zaniedbanie lub umyślnie szkodliwe działanie lub zaniechanie („winę”) osoby, której przypisuje się potencjalną odpowiedzialność za tę szkodę, jak również związek przyczynowy między tą winą a daną szkodą. Jednak jeżeli pomiędzy działaniem lub zaniechaniem osoby a szkodą znajduje się sztuczna inteligencja, szczególne cechy niektórych systemów sztucznej inteligencji, takie jak nieprzejrzystość, autonomiczne zachowanie i złożoność, mogą nadmiernie utrudnić, a nawet uniemożliwić osobie poszkodowanej sprostanie temu ciężarowi dowodu. W szczególności nadmiernie trudne może być udowodnienie, że konkretne dane wejściowe, za które odpowiada osoba, której przypisuje się potencjalną odpowiedzialność, były przyczyną konkretnego wyniku uzyskanego przez system sztucznej inteligencji, który to doprowadził do powstania danej szkody.

(4)W takich przypadkach dostęp do mechanizmów dochodzenia roszczeń zapewnianych przez krajowe przepisy dotyczące odpowiedzialności cywilnej może być bardziej ograniczony niż w przypadkach, w których za spowodowanie szkody odpowiadają technologie inne niż sztuczna inteligencja. Takie różnice w zakresie odszkodowań mogą przyczynić się do spadku poziomu społecznej akceptacji sztucznej inteligencji oraz zaufania do produktów i usług, które zostały na niej oparte.

(5)Aby czerpać gospodarcze i społeczne korzyści ze sztucznej inteligencji oraz wspierać przejście na gospodarkę cyfrową, konieczne jest ukierunkowane dostosowanie niektórych krajowych przepisów dotyczących odpowiedzialności cywilnej do szczególnych cech niektórych systemów sztucznej inteligencji. Takie dostosowanie powinno przyczynić się do wzrostu zaufania społecznego i zaufania konsumentów, a tym samym do upowszechnienia sztucznej inteligencji. Dostosowania te powinny również utrzymać zaufanie do systemu sądowego poprzez zapewnienie osobom, które poniosły szkody spowodowane sztuczną inteligencją równie skutecznej możliwości otrzymania odszkodowania, jak osobom, które poniosły szkody spowodowane innymi technologiami.

(6)Zainteresowane strony – osoby poszkodowane, osoby, którym przypisuje się potencjalną odpowiedzialność, ubezpieczyciele – doświadczają braku pewności prawa co do sposobu, w jaki sądy krajowe, w obliczu szczególnych wyzwań związanych ze sztuczną inteligencją, będą stosować w poszczególnych przypadkach istniejące przepisy dotyczące odpowiedzialności, aby osiągnąć sprawiedliwe rezultaty. Jeżeli Unia nie podejmie działań, przynajmniej niektóre państwa członkowskie prawdopodobnie dostosują swoje przepisy dotyczące odpowiedzialności cywilnej, aby rozwiązać problem różnic w zakresie odszkodowań i niepewności prawa związanych ze szczególnymi cechami niektórych systemów sztucznej inteligencji. Spowodowałoby to rozdrobnienie przepisów i powstanie barier na rynku wewnętrznym dla przedsiębiorstw, które opracowują lub dostarczają innowacyjne produkty lub usługi oparte na sztucznej inteligencji. Szczególnie ucierpiałyby małe i średnie przedsiębiorstwa.

(7)Celem niniejszej dyrektywy jest wsparcie właściwego funkcjonowania rynku wewnętrznego poprzez harmonizację niektórych krajowych przepisów dotyczących pozaumownej odpowiedzialności na zasadzie winy w sposób, który zapewni, aby osoby dochodzące odszkodowania za szkody spowodowane przez system sztucznej inteligencji korzystały z poziomu ochrony równoważnego z tym, z którego korzystają osoby dochodzące odszkodowania za szkody powstałe bez udziału systemu sztucznej inteligencji. Cel ten nie może zostać w wystarczającym stopniu osiągnięty przez państwa członkowskie, ponieważ odnośne przeszkody na rynku wewnętrznym są związane z ryzykiem wprowadzenia jednostronnych i rozdrobnionych środków regulacyjnych na poziomie krajowym. Ze względu na cyfrowy charakter produktów i usług objętych zakresem niniejszej dyrektywy, ten ostatni element ma szczególne znaczenie w kontekście transgranicznym.

(8)Cel polegający na zapewnieniu pewności prawa i zapobieżeniu różnicom w zakresie odszkodowania w przypadkach powiązanych z systemami sztucznej inteligencji można zatem lepiej osiągnąć na poziomie Unii. W związku z tym Unia może przyjąć środki zgodnie z zasadą pomocniczości określoną w art. 5 TUE. Zgodnie z zasadą proporcjonalności określoną w tym artykule niniejsza dyrektywa nie wykracza poza to, co jest konieczne do osiągnięcia tego celu.

(9)Konieczna jest zatem ukierunkowana harmonizacja na poziomie Unii określonych aspektów przepisów dotyczących odpowiedzialności na zasadzie winy. Taka harmonizacja powinna zwiększyć pewność prawa i stworzyć równe warunki działania systemów sztucznej inteligencji, co usprawni funkcjonowanie rynku wewnętrznego w zakresie produkcji i rozpowszechniania produktów i usług opartych na sztucznej inteligencji.

(10)Aby zapewnić proporcjonalność, należy dokonać ukierunkowanej harmonizacji jedynie tych przepisów dotyczących odpowiedzialności na zasadzie winy, które regulują ciężar dowodu w przypadku osób dochodzących odszkodowania za szkody spowodowane przez systemy sztucznej inteligencji. Niniejsza dyrektywa nie powinna harmonizować ogólnych aspektów odpowiedzialności cywilnej, regulowanych w różny sposób krajowymi przepisami dotyczącymi odpowiedzialności cywilnej, takich jak definicja winy lub związku przyczynowego, różne rodzaje szkód stanowiących podstawę roszczeń odszkodowawczych, rozłożenie odpowiedzialności na kilku sprawców, przyczynienie się do powstania szkody, obliczenie kwoty odszkodowania lub terminy przedawnienia.

(11)Przepisy państw członkowskich dotyczące odpowiedzialności producentów za szkody spowodowane wadliwością ich produktów zharmonizowano już na poziomie Unii dyrektywą Rady 85/374/EWG 35 . Przepisy te nie mają jednak wpływu na obowiązujące w państwach członkowskich zasady odpowiedzialności umownej lub pozaumownej, takie jak odpowiedzialność z tytułu gwarancji, odpowiedzialność na zasadzie winy lub odpowiedzialność na zasadzie ryzyka, oparte na innych podstawach niż wada produktu. Jednocześnie zmiana dyrektywy Rady 85/374/EWG ma na celu doprecyzowanie, że osoba poszkodowana może dochodzić odszkodowania za szkody spowodowane przez wadliwe produkty oparte na sztucznej inteligencji, oraz zapewnienie takiej możliwości, należy więc wyjaśnić, że przepisy niniejszej dyrektywy nie mają wpływu którekolwiek prawa przysługujące osobie poszkodowanej na mocy przepisów krajowych wdrażających dyrektywę 85/374/EWG. Ponadto, jeżeli chodzi o transport, niniejsza dyrektywa nie powinna naruszać prawa Unii regulującego odpowiedzialność przewoźników.

(12)[Akt o usługach cyfrowych 36 ] w pełni harmonizuje przepisy mające zastosowanie do dostawców usług pośrednich na rynku wewnętrznym, obejmujące zagrożenia społeczne wynikające z usług oferowanych przez tych dostawców, w tym w odniesieniu do wykorzystywanych przez nich systemów sztucznej inteligencji. Niniejsza dyrektywa nie narusza przepisów [aktu o usługach cyfrowych], które zapewniają kompleksowe i w pełni zharmonizowane ramy obowiązków w zakresie należytej staranności dostawców usług hostingu przy algorytmicznym podejmowaniu decyzji, w tym wyłączenie z odpowiedzialności za rozpowszechnianie nielegalnych treści zamieszczanych przez odbiorców tych usług, jeżeli spełnione są warunki tego rozporządzenia.

(13)Poza ustanawianymi przez nią domniemaniami, niniejsza dyrektywa nie harmonizuje przepisów krajowych określających, na której stronie spoczywa ciężar dowodu, lub jaki stopień pewności jest wymagany w odniesieniu do standardu dowodu. 

(14)W niniejszej dyrektywie należy przyjąć zasadę minimalnej harmonizacji. Umożliwia ona powodom występującym z roszczeniami z tytułu szkód spowodowanych przez systemy sztucznej inteligencji powoływanie się na bardziej korzystne przepisy prawa krajowego. Umożliwia to na przykład utrzymanie w prawie krajowym przeniesienia ciężaru dowodu w ramach krajowych systemów opartych na zasadzie winy lub krajowych systemów odpowiedzialności na zasadzie ryzyka, których wiele funkcjonuje już w krajowych systemach prawnych, z możliwością zastosowania ich do szkód spowodowanych przez systemy sztucznej inteligencji.

(15)Należy również zapewnić spójność z [aktem w sprawie AI]. Właściwe jest zatem, aby w niniejszej dyrektywie zastosowano te same definicje systemów sztucznej inteligencji, ich dostawców oraz użytkowników. Ponadto niniejsza dyrektywa powinna obejmować wyłącznie roszczenia z tytułu szkód spowodowanych przez wynik uzyskany przez systemu sztucznej inteligencji lub fakt nieuzyskania wyniku przez taki system z winy osoby, takiej jak na przykład dostawca lub użytkownik w rozumieniu [aktu w sprawie AI]. Nie ma potrzeby uwzględnienia roszczeń z tytułu odpowiedzialności, gdy szkoda wynikła z oceny dokonanej przez człowieka, po której nastąpiło ludzkie działanie lub zaniechanie, a system sztucznej inteligencji jedynie dostarczył informacje lub porady uwzględnione przez danego człowieka. W tym ostatnim przypadku można wywieść daną szkodę od działania lub zaniechania człowieka, ponieważ wynik uzyskany przez system sztucznej inteligencji nie znajduje się pomiędzy działaniem lub zaniechaniem człowieka a szkodą, a zatem ustalenie związku przyczynowego nie jest trudniejsze niż w sytuacjach bez udziału systemu sztucznej inteligencji.

(16)Dostęp do informacji na temat konkretnych systemów sztucznej inteligencji wysokiego ryzyka, co do których istnieje podejrzenie, że spowodowały szkodę, jest ważnym czynnikiem pozwalającym ustalić, czy należy dochodzić odszkodowania, oraz uzasadnić roszczenia odszkodowawcze. Ponadto w przypadku systemów sztucznej inteligencji wysokiego ryzyka [akt w sprawie AI] przewiduje szczególne wymogi dotyczące dokumentacji, informacji i rejestracji danych, ale nie zapewnia osobie poszkodowanej prawa dostępu do tych informacji. Należy zatem ustanowić zasady ujawniania istotnych dowodów przez podmioty, które nimi dysponują, do celów ustalenia odpowiedzialności. Powinno to również stanowić dodatkową zachętę do spełnienia odpowiednich wymogów określonych w [akcie w sprawie AI] w celu udokumentowania lub zarejestrowania istotnych informacji.

(17)Fakt, że zazwyczaj w projektowanie, opracowywanie, wdrażanie i obsługę systemów sztucznej inteligencji wysokiego ryzyka zaangażowana jest duża liczba osób, utrudnia osobom poszkodowanym identyfikację osoby, która potencjalnie ponosi odpowiedzialność za wyrządzoną szkodę oraz udowodnienie, że warunki dochodzenia roszczenia odszkodowawczego zostały spełnione. Aby umożliwić osobom poszkodowanym ustalenie, czy roszczenie odszkodowawcze jest zasadne, należy przyznać potencjalnym powodom prawo zwrócenia się do sądu o wydanie nakazu ujawnienia odpowiednich dowodów przed wystąpieniem z roszczeniem odszkodowawczym. Taki nakaz ujawnienia powinno się wydać jedynie w przypadku gdy potencjalny powód przedstawi fakty i informacje wystarczające do uprawdopodobnienia roszczenia odszkodowawczego i pod warunkiem, że uprzednio zwrócił się on do dostawcy, do osoby podlegającej obowiązkom dostawcy lub do użytkownika o ujawnienie takich dowodów, którymi osoby te dysponują, dotyczących konkretnych systemów sztucznej inteligencji wysokiego ryzyka, co do których istnieje podejrzenie, że spowodowały szkody, jeżeli taki potencjalny powód spotkał się z ich strony z odmową. Nakaz ujawnienia powinien prowadzić do ograniczenia niepotrzebnych sporów sądowych i uniknięcia kosztów ponoszonych przez ewentualnych uczestników sporu spowodowanych roszczeniami, które są nieuzasadnione lub prawdopodobnie nie zostaną uwzględnione. Odmowa ujawnienia dowodów przez dostawcę, przez osobę podlegającą obowiązkom dostawcy lub przez użytkownika zanim wniosek zostanie złożony do sądu nie powinna rodzić domniemania jakoby osoba, która odmawia takiego ujawnienia nie przestrzegała odpowiednich obowiązków dochowania należytej staranności.

(18)Ograniczenie ujawniania dowodów w odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka jest zgodne z [aktem w sprawie AI], w którym przewidziano pewne szczególne obowiązki w zakresie dokumentowania, ewidencjonowania i informowania przez operatorów zaangażowanych w projektowanie, opracowywanie i wdrażanie systemów sztucznej inteligencji wysokiego ryzyka. Taka spójność zapewnia również niezbędną proporcjonalność poprzez uniknięcie sytuacji, w której od operatorów systemów sztucznej inteligencji stwarzających mniejsze lub zerowe ryzyko oczekiwano by dokumentowania informacji na poziomie podobnym do tego, który wymagany jest w przypadku systemów sztucznej inteligencji wysokiego ryzyka na podstawie [aktu w sprawie AI].

(19)Sądy krajowe powinny mieć możliwość, by w toku postępowania cywilnego wydać nakaz ujawnienia lub zabezpieczenia odpowiednich dowodów związanych ze szkodami wyrządzonymi przez systemy sztucznej inteligencji wysokiego ryzyka w stosunku do osób, które są już zobowiązane do dokumentowania lub ewidencjonowania informacji na podstawie [aktu w sprawie AI], niezależnie od tego, czy są to dostawcy, osoby podlegające tym samym obowiązkom co dostawcy, czy użytkownicy systemu sztucznej inteligencji, występujących zarówno w charakterze pozwanych, jak i osób trzecie w stosunku do roszczenia. Możliwe są sytuacje, w których dowody istotne dla sprawy znajdowałyby się w rękach podmiotów nie będących stronami postępowania odszkodowawczego, na których ciąży jednak obowiązek dokumentowania lub ewidencjonowania takich dowodów na podstawie [aktu w sprawie AI]. Konieczne jest zatem określenie warunków, na jakich można nakazać takim osobom trzecim ujawnienie istotnych dowodów.

(20)Aby zachować równowagę między interesami stron, których dotyczy roszczenie odszkodowawcze i zainteresowanych osób trzecich, sądy powinny nakazać ujawnienie dowodów jedynie w przypadku, gdy jest to niezbędne i proporcjonalne w celu uzasadnienia roszczenia lub potencjalnego roszczenia odszkodowawczego. W tym względzie ujawnienie powinno dotyczyć wyłącznie dowodów niezbędnych do podjęcia decyzji w sprawie uznania danego roszczenia odszkodowawczego, na przykład wyłącznie tych części odpowiednich zapisów lub zbiorów danych, które są niezbędne, aby udowodnić brak zgodności z wymogiem określonym w [akcie w sprawie AI]. Aby zapewnić proporcjonalność takiego ujawnienia lub środków zabezpieczających, sądy krajowe powinny dysponować skutecznymi metodami zabezpieczenia prawnie uzasadnionych interesów wszystkich zainteresowanych stron, na przykład umożliwiającymi ochronę tajemnicy przedsiębiorstwa w rozumieniu dyrektywy Parlamentu Europejskiego i Rady (UE) 2016/943 37 oraz informacji poufnych, takich jak informacje związane z bezpieczeństwem publicznym lub narodowym. W odniesieniu do tajemnicy przedsiębiorstwa lub domniemanej tajemnicy przedsiębiorstwa, którą sąd uznał za poufną w rozumieniu dyrektywy (UE) 2016/943, sądy krajowe powinny być uprawnione do stosowania szczególnych środków w celu zapewnienia poufności tajemnicy przedsiębiorstwa w trakcie postępowania i po jego zakończeniu, zachowując przy tym sprawiedliwą i proporcjonalną równowagę między interesem posiadacza tajemnicy przedsiębiorstwa, aby tę tajemnicę zachować, a interesem osoby poszkodowanej. Powinno to obejmować możliwość zastrzeżenia dostępu do dokumentów zawierających tajemnicę przedsiębiorstwa oraz dostępu do posiedzeń wyjaśniających lub dokumentów i stenogramów z nimi związanych wyłącznie dla ograniczonej liczby osób. Przy podejmowaniu decyzji dotyczącej takich środków sądy krajowe powinny uwzględnić potrzebę zapewnienia prawa do skutecznego środka odwoławczego i rzetelnego procesu, prawnie uzasadnione interesy stron i, w stosownych przypadkach, osób trzecich oraz wszelkie potencjalne szkody dla którejkolwiek ze stron i, w stosownych przypadkach, dla osób trzecich, wynikające z przyjęcia lub odrzucenia takich środków. Ponadto, aby zapewnić proporcjonalne stosowanie środka ujawniania wobec osób trzecich w przypadku roszczeń odszkodowawczych, sądy krajowe powinny nakazać osobom trzecim ujawnienie informacji tylko wtedy, gdy nie można uzyskać dowodów od pozwanego.

(21)Sądy krajowe mają możliwość egzekwowania nakazów ujawnienia informacji za pomocą różnych środków, jednak wszelkie takie środki egzekucyjne mogłyby opóźnić dochodzenie roszczeń odszkodowawczych, a tym samym potencjalnie spowodować powstanie dodatkowych kosztów dla stron sporu. Takie opóźnienia i dodatkowe koszty mogą utrudnić osobom poszkodowanym skorzystanie ze skutecznego środka ochrony prawnej przed sądem. Dlatego też, jeżeli pozwany w związku z roszczeniem odszkodowawczym nie ujawni na polecenie sądu dowodów, którymi dysponuje, właściwe jest domniemanie, że nie przestrzega on obowiązków dochowania należytej staranności, których nieprzestrzeganie dowody te miały potwierdzić. To domniemanie wzruszalne skróci czas trwania sporu i zwiększy efektywność postępowań sądowych. Pozwany powinien mieć możliwość wzruszenia tego domniemania poprzez przedstawienie dowodów przeciwnych.

(22)Ze względu na trudności w udowodnieniu, że konkretne dane wejściowe, za które odpowiada osoba, której przypisuje się potencjalną odpowiedzialność, były przyczyną tego wyniku uzyskanego przez system sztucznej inteligencji, który doprowadził do powstania danej szkody, właściwe jest umożliwienie, pod pewnymi warunkami, domniemania związku przyczynowego. Podczas gdy w przypadku roszczenia opartego na zasadzie winy powód musi zazwyczaj udowodnić szkodę, działanie lub zaniechanie człowieka stanowiące winę pozwanego oraz związek przyczynowy między nimi, niniejsza dyrektywa nie harmonizuje warunków, zgodnie z którymi sądy krajowe ustalają winę. Są one nadal regulowane przez właściwe prawo krajowe oraz, w przypadku harmonizacji, przez właściwe prawo Unii. Niniejsza dyrektywa nie harmonizuje również warunków związanych ze szkodą, na przykład tego, jakie szkody podlegają odszkodowaniu – warunki te są również regulowane przez właściwe prawo krajowe i unijne. Aby domniemanie związku przyczynowego na podstawie niniejszej dyrektywy miało zastosowanie, należy ustalić winę pozwanego jako działanie lub zaniechanie człowieka, polegające na niespełnieniu obowiązku dochowania należytej staranności w rozumieniu prawa Unii lub prawa krajowego mającego bezpośrednio na celu ochronę przed zaistniałą szkodą. Domniemanie to może więc mieć zastosowanie na przykład w stosunku do powództwa o odszkodowanie z tytułu uszkodzenia ciała, jeżeli sąd stwierdzi winę pozwanego polegającą na nieprzestrzeganiu instrukcji użycia, której celem jest zapobieganie wyrządzeniu szkody osobom fizycznym. Do zastosowania domniemania nie prowadzi natomiast nieprzestrzeganie obowiązków dochowania należytej staranności, których bezpośrednim celem nie była ochrona przed zaistniałą szkodą, na przykład nieprzedłożenie przez świadczeniodawcę wymaganej dokumentacji właściwym organom nie prowadziłoby do zastosowania domniemania w zakresie roszczenia odszkodowawczego z tytułu uszkodzenia ciała. Konieczne powinno być również ustalenie uzasadnionego prawdopodobieństwa, w oparciu o okoliczności sprawy, że wina wpłynęła na wynik uzyskany przez system sztucznej inteligencji lub na fakt nieuzyskania wyniku przez system sztucznej inteligencji. Powód powinien być także zobowiązany do udowodnienia, że taki wynik lub nieuzyskanie wyniku stanowiły przyczynę zaistniałej szkody.

(23)Taką winę można stwierdzić w odniesieniu do nieprzestrzegania przepisów unijnych, w szczególny sposób regulujących systemy sztucznej inteligencji wysokiego ryzyka, takich jak wymogi wprowadzone w odniesieniu do niektórych systemów sztucznej inteligencji wysokiego ryzyka w [akcie w sprawie AI], wymogi, które mogą zostać wprowadzone przez przyszłe przepisy sektorowe w odniesieniu do innych systemów sztucznej inteligencji wysokiego ryzyka zgodnie z [art. 2 ust. 2 aktu w sprawie AI] lub obowiązki dochowania należytej staranności związane z określonymi rodzajami działalności i mające zastosowanie niezależnie od tego, czy w działalności tej wykorzystuje się sztuczną inteligencję. Jednocześnie dyrektywa nie ustanawia i nie harmonizuje kwestii obowiązków lub odpowiedzialności podmiotów, których działalność jest regulowana na podstawie tych aktów prawnych, a zatem nie prowadzi do powstania nowych roszczeń z tytułu odpowiedzialności. Stwierdzenie naruszenia takiego obowiązku, które jest równoznaczne z winą, następuje zgodnie z tymi obowiązującymi przepisami prawa Unii, ponieważ niniejsza dyrektywa nie wprowadza nowych obowiązków, ani nie wpływa na obowiązki już istniejące. Na przykład niniejsza dyrektywa nie ma wpływu na zwolnienie dostawców usług pośrednich z odpowiedzialności ani na obowiązki w zakresie należytej staranności, którym tacy dostawcy podlegają na podstawie [aktu o usługach cyfrowych]. Także zgodność z wymogami nałożonymi na platformy internetowe w celu uniknięcia nieuprawnionego publicznego udostępniania utworów chronionych prawem autorskim ustala się zgodnie z dyrektywą (UE) 2019/790 w sprawie prawa autorskiego i praw pokrewnych na jednolitym rynku cyfrowym oraz innych właściwych przepisów unijnego prawa autorskiego.

(24)W obszarach niezharmonizowanych prawem Unii nadal obowiązuje prawo krajowe, a winę ustala się na podstawie właściwego prawa krajowego. We wszystkich krajowych systemach odpowiedzialności istnieją obowiązki dochowania należytej staranności, przyjmujące za normę postępowania różne wykładniki zasady określającej, jak powinna postępować osoba racjonalna, które zapewniają również bezpieczne działanie systemów sztucznej inteligencji, aby zapobiec szkodom na uznanych interesach prawnych. Takie obowiązki dochowania należytej staranności mogą na przykład wyrażać się w wymogu, aby użytkownicy systemów sztucznej inteligencji wybierali do pewnych zadań konkretne systemy sztucznej inteligencji o określonych cechach, lub w wykluczeniu pewnych segmentów populacji z kontaktu z danym systemem sztucznej inteligencji. Prawo krajowe może również wprowadzić szczególne obowiązki służące zapobieganiu ryzyku w odniesieniu do niektórych rodzajów działalności, mające zastosowanie niezależnie od tego, czy w danej działalności wykorzystuje się sztuczną inteligencję, na przykład przepisy ruchu drogowego, lub obowiązki opracowane specjalnie dla systemów sztucznej inteligencji, takie jak dodatkowe krajowe wymogi dla użytkowników systemów sztucznej inteligencji wysokiego ryzyka zgodnie z art. 29 ust. 2 [aktu w sprawie AI]. Niniejsza dyrektywa nie wprowadza takich wymogów ani nie wpływa na warunki stwierdzenia winy w przypadku ich naruszenia.

(25)Nawet w przypadku stwierdzenia winy polegającej na nieprzestrzeganiu obowiązku dochowania należytej staranności, którego bezpośrednim celem jest ochrona przed zaistniałą szkodą, nie każda wina powinna prowadzić do zastosowania domniemania wzruszalnego wiążącego ją z wynikiem działania sztucznej inteligencji. Takie domniemanie powinno mieć zastosowanie tylko wtedy, gdy na podstawie okoliczności powstania szkody można uznać, że istnieje uzasadnione prawdopodobieństwo, iż stwierdzona wina miała wpływ na wynik uzyskany przez system sztucznej inteligencji lub na fakt nieuzyskania przez ten system wyniku, co spowodowało powstanie szkody. Można na przykład uznać, że istnieje uzasadnione prawdopodobieństwo, iż wina miała wpływ na wynik lub na jego nieuzyskanie, jeżeli wina ta polega na naruszeniu obowiązku dochowania należytej staranności dotyczącego ograniczenia zakresu działania systemu sztucznej inteligencji, a szkoda powstała poza tym zakresem. Natomiast nie można by uznać, że istnieje uzasadnione prawdopodobieństwo, iż naruszenie wymogu złożenia określonych dokumentów lub zarejestrowania się w określonym urzędzie wpłynęło na wynik uzyskany przez system sztucznej inteligencji lub na fakt nieuzyskania wyniku przez taki system, nawet jeżeli wymogi te byłyby przewidziane względem tej konkretnej działalności lub wręcz miałyby zastosowanie bezpośrednio do działania systemu sztucznej inteligencji.

(26)Niniejsza dyrektywa dotyczy winy polegającej na braku zgodności z konkretnie wskazanymi wymogami określonymi w rozdziałach 2 i 3 [aktu w sprawie AI] obowiązującymi dostawców i użytkowników systemów sztucznej inteligencji wysokiego ryzyka, których niespełnienie może w pewnych warunkach rodzić domniemanie zaistnienia związku przyczynowego. W akcie w sprawie AI przewidziano pełną harmonizację wymogów dotyczących systemów sztucznej inteligencji, chyba że wyraźnie wskazano w nim inaczej. Harmonizuje się w nim konkretne wymagania dotyczące systemów sztucznej inteligencji wysokiego ryzyka. W związku z tym, do celów roszczeń odszkodowawczych, w stosunku do których stosuje się domniemanie związku przyczynowego zgodnie z niniejszą dyrektywą, potencjalną winę dostawców lub osób podlegających obowiązkom dostawcy zgodnie z [aktem w sprawie AI] ustala się wyłącznie w oparciu o niespełnienie takich wymogów. Ponieważ w praktyce powodowi może być trudno udowodnić niespełnienie takich wymogów w przypadku, gdy pozwany jest dostawcą systemu sztucznej inteligencji, w pełnej zgodności z logiką [aktu w sprawie AI], w niniejszej dyrektywie należy przewidzieć także, że – przy ustalaniu, czy dostawca spełnił odpowiednie wymogi aktu w sprawie AI, o których mowa w niniejszej dyrektywie – powinno się uwzględniać działania podjęte przez dostawcę w ramach systemu zarządzania ryzykiem oraz wyniki działania takiego systemu, tj. decyzję o przyjęciu lub nieprzyjęciu określonych środków zarządzania ryzykiem. System zarządzania ryzykiem wprowadzony przez dostawcę zgodnie z [aktem w sprawie AI] jest ciągłym, iteracyjnym procesem prowadzonym przez cały cykl życia systemu sztucznej inteligencji wysokiego ryzyka, w ramach którego dostawca zapewnia zgodność z obowiązkowymi wymogami mającymi na celu ograniczenie ryzyka, a zatem może być elementem przydatnym w ocenie takiej zgodności. Niniejsza dyrektywa obejmuje również przypadki, gdy wina leży po stronie użytkowników i polega na nieprzestrzeganiu pewnych szczególnych wymogów określonych w [akcie w sprawie AI]. Ponadto winę użytkowników systemów sztucznej inteligencji wysokiego ryzyka można stwierdzić na podstawie nieprzestrzegania innych obowiązków dochowania należytej staranności określonych w prawie unijnym lub krajowym w świetle art. 29 ust. 2 [aktu w sprawie AI].

(27)O ile cechy szczególne niektórych systemów sztucznej inteligencji, takie jak ich autonomia i brak przejrzystości, mogą nadmiernie utrudniać powodowi sprostanie ciężarowi dowodu, o tyle mogą istnieć sytuacje, w których takie trudności nie występują, ponieważ powód ma dostęp do dowodów i wiedzy specjalistycznej wystarczających, aby udowodnić zaistnienie związku przyczynowego. Taka sytuacja może mieć miejsce na przykład w odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka, w przypadku których uzyskanie dostępu do wystarczających dowodów i wiedzy specjalistycznej przez powoda jest racjonalnie możliwe ze względu na wymogi dotyczące dokumentacji i rejestracji zdarzeń określone w [akcie w sprawie AI]. W takich sytuacjach sąd nie powinien stosować domniemania.

(28)Domniemanie związku przyczynowego mogłoby mieć zastosowanie również do systemów sztucznej inteligencji, które nie są systemami sztucznej inteligencji wysokiego ryzyka, ponieważ powód mógłby napotkać nadmierne trudności w uzyskaniu dowodów. Dla przykładu, trudności takie mogłyby być oceniane w świetle cech określonych systemów sztucznej inteligencji, takich jak ich autonomia i brak przejrzystości, które sprawiają, że wyjaśnienie wewnętrznego funkcjonowania systemu sztucznej inteligencji jest w praktyce bardzo trudne, co negatywnie wpływa na możliwość udowodnienia przez powoda związku przyczynowego między winą pozwanego a wynikiem działania sztucznej inteligencji. Sąd krajowy powinien zastosować domniemanie w przypadku, gdy powód napotkał nadmierne trudności w udowodnieniu związku przyczynowego, gdy jest on zobowiązany do wyjaśnienia, w jaki sposób ludzkie działanie lub zaniechanie stanowiące winę doprowadziło system sztucznej inteligencji do uzyskania lub nieuzyskania wyniku, co spowodowało powstanie szkody. Powód nie powinien jednak być zobowiązany do wyjaśnienia cech danego systemu sztucznej inteligencji ani tego, w jaki sposób cechy te utrudniają ustalenie związku przyczynowego.

(29)Zastosowanie domniemania związku przyczynowego ma na celu zapewnienie osobie poszkodowanej poziomu ochrony zbliżonego do tego, który miałby miejsce w sytuacjach bez udziału sztucznej inteligencji, w których związek przyczynowy może być łatwiejszy do udowodnienia. Niemniej jednak zmniejszenie ciężaru udowodnienia związku przyczynowego nie zawsze jest właściwe w rozumieniu niniejszej dyrektywy, jeżeli pozwany nie jest użytkownikiem profesjonalnym, lecz osobą wykorzystującą system sztucznej inteligencji do działań prywatnych. W takich okolicznościach, aby zrównoważyć interesy osoby poszkodowanej i użytkownika nieprofesjonalnego, należy ustalić, czy tacy użytkownicy nieprofesjonalni mogą swoim zachowaniem zwiększyć ryzyko wyrządzenia szkody przez system sztucznej inteligencji. Jeżeli dostawca systemu sztucznej inteligencji wypełnił wszystkie swoje obowiązki i w konsekwencji system ten uznano za wystarczająco bezpieczny, aby można go było wprowadzić do obrotu do celów określonego zastosowania przez użytkowników nieprofesjonalnych, a następnie wykorzystano go zgodnie z tym zastosowaniem, domniemanie związku przyczynowego nie powinno mieć zastosowania w przypadku zwykłego korzystania z takiego systemu przez użytkowników nieprofesjonalnych. Użytkownik nieprofesjonalny, który kupuje system sztucznej inteligencji i po prostu uruchamia go zgodnie z jego przeznaczeniem, nie ingerując w sposób istotny w warunki jego działania, nie powinien być objęty domniemaniem związku przyczynowego przewidzianym w niniejszej dyrektywie. Jeżeli jednak sąd krajowy ustali, że użytkownik nieprofesjonalny istotnie ingerował w warunki działania systemu sztucznej inteligencji lub gdy pozwany miał obowiązek i możliwość określenia warunków działania systemu sztucznej inteligencji, ale tego nie uczynił, wówczas domniemanie związku przyczynowego powinno mieć zastosowanie, jeżeli spełnione są wszystkie pozostałe warunki. Taka sytuacja może mieć miejsce na przykład w przypadku, gdy użytkownik nieprofesjonalny nie przestrzega instrukcji użytkowania lub innych mających zastosowanie obowiązków dochowania należytej staranności przy wyborze obszaru działania lub przy ustalaniu warunków działania systemu sztucznej inteligencji. Pozostaje to bez uszczerbku dla faktu, że dostawca powinien określić zamierzony cel systemu sztucznej inteligencji, w tym konkretny kontekst i warunki jego użytkowania, oraz odpowiednio wyeliminować lub zminimalizować ryzyko związane z tym systemem na etapie projektowania i opracowywania systemu, przy uwzględnieniu wiedzy i umiejętności użytkownika docelowego.

(30)Ponieważ niniejsza dyrektywa wprowadza domniemanie wzruszalne, pozwany powinien mieć możliwość jego wzruszenia, w szczególności poprzez wykazanie, że jego wina nie mogła spowodować szkody.

(31)Należy przewidzieć przegląd niniejszej dyrektywy [pięć lat] po zakończeniu okresu transpozycji. W ramach tego przeglądu należy w szczególności zbadać, czy istnieje potrzeba ustanowienia systemu odpowiedzialności na zasadzie ryzyka w odniesieniu do roszczeń wobec operatora – o ile nie są one już objęte innymi unijnymi przepisami dotyczącymi odpowiedzialności, w szczególności dyrektywą 85/374/EWG – w połączeniu z obowiązkowym ubezpieczeniem w zakresie eksploatacji niektórych systemów sztucznej inteligencji, zgodnie z sugestią Parlamentu Europejskiego 38 . Zgodnie z zasadą proporcjonalności należy ocenić taką potrzebę w świetle odnośnego rozwoju technologicznego i zmian regulacyjnych w nadchodzących latach, z uwzględnieniem skutków wprowadzania i upowszechniania systemów sztucznej inteligencji oraz wywieranego przez nie wpływu, zwłaszcza na MŚP. W przeglądzie tym należy uwzględnić między innymi ryzyko powstania szkód dotyczących ważnych wartości prawnych, takich jak prawo do życia, zdrowia i własności nieświadomych osób trzecich, w wyniku działania produktów lub usług opartych na sztucznej inteligencji. W ramach tego przeglądu należy również przeanalizować skuteczność środków przewidzianych w niniejszej dyrektywie w odniesieniu do takich zagrożeń, jak również odpowiednie rozwiązania opracowywane na rynku ubezpieczeń. Aby zapewnić dostępność informacji niezbędnych do przeprowadzenia takiego przeglądu, konieczne jest zgromadzenie danych i innych niezbędnych dowodów dotyczących istotnych kwestii.

(32)Z uwagi na konieczność dostosowania krajowych przepisów dotyczących odpowiedzialności cywilnej i przepisów procesowych, aby wspierać wprowadzanie produktów i usług opartych na sztucznej inteligencji w korzystnych warunkach rynku wewnętrznego, w atmosferze akceptacji społecznej i zaufania konsumentów do technologii sztucznej inteligencji i do systemu wymiaru sprawiedliwości, należy wyznaczyć państwom członkowskim termin przyjęcia niezbędnych krajowych środków transpozycji, przypadający nie później niż [dwa lata po wejściu w życie] niniejszej dyrektywy.

(33)Zgodnie ze wspólną deklaracją polityczną z 28 września 2011 r. państw członkowskich i Komisji dotyczącą dokumentów wyjaśniających 39 państwa członkowskie zobowiązały się do złożenia, w uzasadnionych przypadkach, wraz z powiadomieniem o krajowych środkach wykonawczych co najmniej jednego dokumentu wyjaśniającego związki między elementami dyrektywy a odpowiadającymi im sekcjami krajowych instrumentów transpozycyjnych. W odniesieniu do niniejszej dyrektywy prawodawca uznaje, że przekazywanie takich dokumentów jest uzasadnione,

PRZYJMUJĄ NINIEJSZĄ DYREKTYWĘ:

Artykuł 1

Przedmiot i zakres stosowania

1.Niniejsza dyrektywa ustanawia wspólne przepisy dotyczące:

a)ujawniania dowodów dotyczących systemów sztucznej inteligencji (AI) wysokiego ryzyka, aby umożliwić powodowi uzasadnienie pozaumownego cywilnoprawnego roszczenia odszkodowawczego opartego na zasadzie winy;

b)ciężaru dowodu w przypadku pozaumownych cywilnoprawnych roszczeń odszkodowawczych opartych na zasadzie winy wnoszonych do sądów krajowych z tytułu szkód spowodowanych przez system sztucznej inteligencji.

2.Niniejsza dyrektywa ma zastosowanie do pozaumownych cywilnoprawnych roszczeń odszkodowawczych opartych na zasadzie winy w sytuacjach, gdy szkoda spowodowana przez system sztucznej inteligencji powstała po [zakończeniu okresu transpozycji].

Niniejsza dyrektywa nie ma zastosowania do odpowiedzialności karnej.

3.Niniejsza dyrektywa nie ma zastosowania do:

a)przepisów prawa Unii regulujących warunki odpowiedzialności w dziedzinie transportu;

b)wszelkich praw, jakie na mocy przepisów krajowych wdrażających dyrektywę 85/374/EWG mogą przysługiwać osobie poszkodowanej;

c)przypadków zwolnienia z odpowiedzialności i obowiązków w zakresie należytej staranności przewidzianych w [akcie o usługach cyfrowych] oraz

d)przepisów krajowych określających, na której ze stron spoczywa ciężar dowodu, jaki stopień pewności jest wymagany w odniesieniu do standardu dowodu lub w jaki sposób ustalana jest wina, w zakresie innym niż objęty art. 3 i 4.

4.Państwa członkowskie mogą przyjąć lub utrzymać w mocy przepisy krajowe, które są korzystniejsze dla powodów w zakresie uzasadniania pozaumownego cywilnoprawnego roszczenia odszkodowawczego z tytułu szkody spowodowanej przez system sztucznej inteligencji, pod warunkiem że takie przepisy są zgodne z prawem Unii.

Artykuł 2

Definicje

Do celów niniejszej dyrektywy stosuje się następujące definicje:

1)„system sztucznej inteligencji” oznacza system sztucznej inteligencji określony w [art. 3 ust. 1 aktu w sprawie AI];

2)„system sztucznej inteligencji wysokiego ryzyka” oznacza system sztucznej inteligencji, o którym mowa w [art. 6 aktu w sprawie AI];

3)„dostawca” oznacza dostawcę określonego w [art. 3 ust. 2 aktu w sprawie AI];

4)„użytkownik” oznacza użytkownika określonego w [art. 3 ust. 4 aktu w sprawie AI];

5)„roszczenie odszkodowawcze” oznacza pozaumowne cywilnoprawne roszczenie odszkodowawcze oparte na zasadzie winy powstałe z tytułu szkody spowodowanej wynikiem uzyskanym przez system sztucznej inteligencji lub faktem nieuzyskania przez taki system wyniku, jeżeli należało go uzyskać;

6)„powód” oznacza osobę dochodzącą roszczenia odszkodowawczego, która:

a)poniosła szkodę spowodowaną wynikiem uzyskanym przez system sztucznej inteligencji lub faktem nieuzyskania przez taki system wyniku, jeżeli należało go uzyskać;

b)objęła prawa osoby poszkodowanej lub wstąpiła w nie na zasadzie subrogacji na podstawie przepisów prawa lub umowy lub

c)występuje w imieniu jednej lub kilku poszkodowanych osób, zgodnie z prawem unijnym lub krajowym;

7)    „potencjalny powód” oznacza osobę fizyczną lub prawną, która rozważa dochodzenie roszczenia o odszkodowanie, ale jeszcze z nim nie wystąpiła;

8)    „pozwany” oznacza osobę, przeciwko której wniesiono roszczenie odszkodowawcze;

9)    „obowiązek dochowania należytej staranności” oznacza wymagany standard postępowania, określony prawem krajowym lub unijnym, mający na celu uniknięcie szkody dla interesów prawnych uznanych w prawie krajowym lub unijnym, w tym prawa do życia, zdrowia, nienaruszalności cielesnej i własności oraz ochrony praw podstawowych.

Artykuł 3

Ujawnianie dowodów i domniemanie wzruszalne braku zgodności

 

1.Państwa członkowskie zapewniają, aby sądy krajowe były uprawnione – na wniosek potencjalnego powoda, który wcześniej zwrócił się do dostawcy, do osoby podlegającej obowiązkom dostawcy zgodnie z [art. 24 lub art. 28 ust. 1 aktu w sprawie AI] lub do użytkownika o ujawnienie istotnych dowodów, którymi osoby te dysponują, dotyczących konkretnego systemu sztucznej inteligencji wysokiego ryzyka, co do którego istnieje podejrzenie, że spowodował szkodę, jeżeli taki potencjalny powód spotkał się z ich strony z odmową, lub na wniosek powoda – do nakazania tym osobom ujawnienia takich dowodów.

Aby uzasadnić ten wniosek, potencjalny powód musi przedstawić wystarczające fakty i dowody, aby uprawdopodobnić roszczenie odszkodowawcze.

2.W kontekście roszczenia odszkodowawczego sąd krajowy nakazuje ujawnienie dowodów przez jedną z osób wymienionych w ust. 1 tylko wtedy, gdy powód podjął wszelkie proporcjonalne próby uzyskania od pozwanego takich istotnych dowodów.

3.Państwa członkowskie zapewniają, aby sądy krajowe, na wniosek powoda, były uprawnione do nakazania zastosowania szczególnych środków w celu zabezpieczenia dowodów, o których mowa w ust. 1.

4.Sądy krajowe ograniczają zakres ujawnianych informacji do tych dowodów, które są proporcjonalne i niezbędne, aby uzasadnić potencjalne lub wniesione roszczenie odszkodowawcze, oraz stosują jedynie takie zabezpieczenie dowodów, które jest proporcjonalne i niezbędne w celu uzasadnienia takiego roszczenia odszkodowawczego.

Aby ustalić, czy nakaz ujawnienia lub zabezpieczenia dowodów jest proporcjonalny, sądy krajowe uwzględniają prawnie uzasadnione interesy wszystkich stron, w tym zainteresowanych osób trzecich, w szczególności w odniesieniu do ochrony tajemnicy przedsiębiorstwa w rozumieniu art. 2 ust. 1 dyrektywy (UE) 2016/943 oraz informacji poufnych, takich jak informacje związane z bezpieczeństwem publicznym lub narodowym.

Państwa członkowskie zapewniają, aby w przypadku wydania nakazu ujawnienia tajemnicy przedsiębiorstwa lub domniemanej tajemnicy przedsiębiorstwa, którą sąd określił jako poufną w rozumieniu art. 9 ust. 1 dyrektywy (UE) 2016/943, sądy krajowe były uprawnione, w odpowiedzi na należycie uzasadniony wniosek strony lub z własnej inicjatywy, do zastosowania szczególnych środków niezbędnych do zachowania poufności, gdy dowód ten jest wykorzystywany lub przywoływany w postępowaniu sądowym.

Państwa członkowskie zapewniają również, aby osobie, której nakazano ujawnienie lub zabezpieczenie dowodów, o których mowa w ust. 1 lub 2, przysługiwały odpowiednie proceduralne środki ochrony prawnej w reakcji na taki nakaz.

5.W przypadku gdy pozwany nie zastosuje się do nakazu ujawnienia lub zabezpieczenia dowodów, którymi dysponuje, wydanego na podstawie ust. 1 lub 2 przez sąd krajowy w sprawie dotyczącej roszczenia odszkodowawczego, sąd krajowy domniemywa, że pozwany nie zastosował się do odpowiedniego obowiązku dochowania należytej staranności, w szczególności w okolicznościach, o których mowa w art. 4 ust. 2 lub 3, które miały zostać wykazane za pomocą wnioskowanych dowodów na potrzeby odpowiedniego roszczenia odszkodowawczego.

Pozwany ma prawo wzruszyć to domniemanie.

Artykuł 4

Domniemanie wzruszalne istnienia związku przyczynowego w przypadku winy

1.Z zastrzeżeniem wymogów ustanowionych w niniejszym artykule sądy krajowe domniemywają, do celów stosowania przepisów dotyczących odpowiedzialności na potrzeby roszczenia odszkodowawczego, istnienie związku przyczynowego między winą pozwanego a wynikiem uzyskanym przez system sztucznej inteligencji lub faktem nieuzyskania przez taki system wyniku, jeżeli następujące warunki zostały kumulatywnie spełnione:

a)powód wykazał winę pozwanego lub osoby, za której zachowanie pozwany ponosi odpowiedzialność, lub sąd zastosował na podstawie art. 3 ust. 5 domniemanie takiej winy, która polega na nieprzestrzeganiu obowiązku dochowania należytej staranności określonego w prawie Unii lub w prawie krajowym, bezpośrednio służącego ochronie przed zaistniałą szkodą;

b)w oparciu o okoliczności sprawy można uznać, że istnieje uzasadnione prawdopodobieństwo, że wina wpłynęła na wynik uzyskany przez system sztucznej inteligencji lub na fakt nieuzyskania przez taki system wyniku;

c)powód wykazał, że szkoda została spowodowana wynikiem uzyskanym przez system sztucznej inteligencji lub faktem nieuzyskania przez taki system wyniku.

2.W przypadku roszczenia odszkodowawczego przeciwko dostawcy systemu sztucznej inteligencji wysokiego ryzyka podlegającemu wymogom określonym w rozdziałach 2 i 3 Tytułu III [aktu w sprawie AI] lub osobie podlegającej obowiązkom dostawcy zgodnie z [art. 24 lub art. 28 ust. 1 aktu w sprawie AI] warunek określony w ust. 1 lit. a) jest spełniony wyłącznie w przypadku, gdy powód wykazał, że którykolwiek z następujących wymogów określonych w tych rozdziałach nie został spełniony przez dostawcę lub, w stosownych przypadkach, osobę podlegającą obowiązkom dostawcy, z uwzględnieniem działań podjętych w ramach systemu zarządzania ryzykiem oraz wyników tych działań zgodnie z [art. 9 i art. 16 lit. a) aktu w sprawie AI]:

a)system sztucznej inteligencji wykorzystuje techniki obejmujące trenowanie modeli z wykorzystaniem danych, które nie zostały opracowane na podstawie zbiorów danych treningowych, walidacyjnych i testowych spełniających kryteria jakościowe, o których mowa w [art. 10 ust. 2–4 aktu w sprawie AI];

b)system sztucznej inteligencji nie został zaprojektowany i opracowany w sposób spełniający wymogi w zakresie przejrzystości określone w [art. 13 aktu w sprawie AI];

c)system sztucznej inteligencji nie został zaprojektowany i opracowany w sposób umożliwiający osobom fizycznym jego skuteczne nadzorowanie w okresie wykorzystywania systemu sztucznej inteligencji zgodnie z [art. 14 aktu w sprawie AI];

d)system sztucznej inteligencji nie został zaprojektowany i opracowany w sposób umożliwiający osiągnięcie, z uwagi na jego przeznaczenie, odpowiedniego poziomu dokładności, solidności i cyberbezpieczeństwa zgodnie z [art. 15 i art. 16 lit. a) aktu w sprawie AI] lub

e)niezwłocznie nie podjęto niezbędnych działań naprawczych w celu zapewnienia zgodności systemu sztucznej inteligencji z obowiązkami określonymi w [tytule III rozdział 2 aktu w sprawie AI] lub, odpowiednio, w celu wycofania go z rynku lub wycofania go od użytkowników zgodnie z [art. 16 lit. g) i art. 21 aktu w sprawie AI].

3.W przypadku roszczenia odszkodowawczego przeciwko użytkownikowi systemu sztucznej inteligencji wysokiego ryzyka podlegającemu wymogom określonym w rozdziałach 2 i 3 Tytułu III [aktu w sprawie AI] warunek określony w ust. 1 lit. a) jest spełniony, jeżeli powód wykazał, że użytkownik:

a)nie wywiązał się z obowiązku użytkowania lub monitorowania systemu sztucznej inteligencji zgodnie z załączoną instrukcją użytkowania lub, w stosownych przypadkach, z obowiązku wstrzymania lub przerwania jego użytkowania zgodnie z [art. 29 aktu w sprawie AI] lub

b)wprowadził do systemu sztucznej inteligencji dane wejściowe, nad którymi sprawuje kontrolę i które nie są adekwatne w odniesieniu do przeznaczenia tego systemu w rozumieniu [art. 29 ust. 3 aktu].

4.W przypadku roszczenia odszkodowawczego dotyczącego systemu sztucznej inteligencji wysokiego ryzyka sąd krajowy nie stosuje domniemania określonego w ust. 1, jeżeli pozwany wykaże, że powód może uzyskać względnie łatwy dostęp do dowodów i wiedzy eksperckiej wystarczających, aby udowodnić związek przyczynowy, o którym mowa w ust. 1.

5.W przypadku roszczenia odszkodowawczego dotyczącego systemu sztucznej inteligencji, który nie jest systemem wysokiego ryzyka, domniemanie określone w ust. 1 ma zastosowanie wyłącznie wtedy, gdy sąd krajowy uzna, że udowodnienie przez powoda związku przyczynowego, o którym mowa w ust. 1, jest nadmiernie trudne.

6.W przypadku roszczenia odszkodowawczego przeciwko pozwanemu, który korzystał z systemu sztucznej inteligencji w ramach osobistej działalności pozazawodowej, domniemanie określone w ust. 1 ma zastosowanie wyłącznie wtedy, gdy pozwany w sposób istotny wpływał na warunki działania systemu sztucznej inteligencji lub gdy pozwany miał obowiązek i możliwość określenia warunków działania systemu sztucznej inteligencji, ale tego nie uczynił.

7.Pozwany ma prawo wzruszyć domniemanie określone w ust. 1.

Artykuł 5

Ocena i ukierunkowany przegląd

1.Do [DATA pięć lat po zakończeniu okresu transpozycji] Komisja przeprowadza przegląd stosowania niniejszej dyrektywy i przedstawia sprawozdanie Parlamentowi Europejskiemu, Radzie i Europejskiemu Komitetowi Ekonomiczno-Społecznemu, w razie potrzeby wraz z wnioskiem ustawodawczym.

2.W sprawozdaniu przeanalizowany zostanie wpływ art. 3 i 4 na osiągnięcie celów niniejszej dyrektywy. Sprawozdanie powinno uwzględniać w szczególności ocenę stosowności przepisów dotyczących odpowiedzialności na zasadzie ryzyka w odniesieniu do roszczeń wobec operatorów niektórych systemów sztucznej inteligencji, o ile nie są one już objęte innymi unijnymi przepisami dotyczącymi odpowiedzialności, oraz potrzebę wprowadzenia ochrony ubezpieczeniowej, przy jednoczesnym uwzględnieniu wpływu takich przepisów na wprowadzanie i upowszechnianie systemów sztucznej inteligencji, zwłaszcza w przypadku MŚP.

3.Komisja opracowuje program monitorowania w celu przygotowania sprawozdania zgodnie z ust. 1 i 2 określający odstępy czasowe, w jakich będą gromadzone dane i inne niezbędne dowody oraz sposób ich gromadzenia. W programie wskazuje się również działania podejmowane przez Komisję i przez państwa członkowskie w celu gromadzenia i analizowania danych oraz innych dowodów. Do celów tego programu państwa członkowskie przekazują Komisji odpowiednie dane i dowody do [31 grudnia drugiego pełnego roku po zakończeniu okresu transpozycji] oraz do końca każdego kolejnego roku.

Artykuł 6

Zmiana dyrektywy (UE) 2020/1828

W załączniku I do dyrektywy (UE) 2020/1828 40 dodaje się pkt 67 w brzmieniu:

„67) Dyrektywa Parlamentu Europejskiego i Rady (UE) .../... z dnia ... w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji (dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję) (Dz.U. L … z …, s. …).”.

Artykuł 7

Transpozycja

1.Państwa członkowskie wprowadzają w życie przepisy ustawowe, wykonawcze i administracyjne niezbędne do wykonania niniejszej dyrektywy najpóźniej do [dwa lata od momentu wejścia dyrektywy w życie] r. Niezwłocznie przekazują Komisji tekst tych przepisów.

Przepisy przyjęte przez państwa członkowskie zawierają odniesienie do niniejszej dyrektywy lub odniesienie takie towarzyszy ich urzędowej publikacji. Metody dokonywania takiego odniesienia określane są przez państwa członkowskie.

2.Państwa członkowskie przekazują Komisji tekst podstawowych przepisów prawa krajowego przyjętych w dziedzinie objętej niniejszą dyrektywą.

Artykuł 8

Wejście w życie

Niniejsza dyrektywa wchodzi w życie dwudziestego dnia po jej opublikowaniu w Dzienniku Urzędowym Unii Europejskiej.

Artykuł 9

Adresaci

Niniejsza dyrektywa skierowana jest do państw członkowskich.

Sporządzono w Brukseli dnia […] r.

W imieniu Parlamentu Europejskiego    W imieniu Rady

Przewodnicząca     Przewodniczący 

(1)    European enterprise survey on the use of technologies based on AI [Badanie wśród europejskich przedsiębiorstw na temat stosowania technologii opartych na sztucznej inteligencji], Ipsos 2020, sprawozdanie końcowe, s. 58, https://op.europa.eu/en/publication-detail/-/publication/f089bbae-f0b0-11ea-991b-01aa75ed71a1
(2)     https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next-commission_pl.pdf
(3)    Biała księga w sprawie sztucznej inteligencji – Europejskie podejście do doskonałości i zaufania, 19.02.2020 r., COM(2020) 65 final.
(4)    Sprawozdanie Komisji dla Parlamentu Europejskiego, Rady i Europejskiego Komitetu Ekonomiczno-Społecznego na temat wpływu sztucznej inteligencji, internetu rzeczy i robotyki na bezpieczeństwo i odpowiedzialność, 19.02.2020 r., COM(2020) 64 final.
(5)    Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję (2020/2014(INL)).
(6)    Rezolucja Parlamentu Europejskiego z dnia 3 maja 2022 r. w sprawie sztucznej inteligencji w epoce cyfrowej (2020/2266(INI)).
(7)    Wniosek dotyczący rozporządzenia Parlamentu Europejskiego i Rady ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie AI), COM(2021) 206 final.
(8)    Akt w sprawie AI wyraźnie zakazuje jedynie niewielkiej liczby przypadków użycia sztucznej inteligencji.
(9)    Dokument roboczy służb Komisji SWD(2021) 84 final, ocena skutków towarzysząca aktowi w sprawie sztucznej inteligencji, s. 88.
(10)    Wniosek dotyczący rozporządzenia Parlamentu Europejskiego i Rady w sprawie ogólnego bezpieczeństwa produktów, COM(2021) 346 final.
(11)    Wniosek dotyczący rozporządzenia Parlamentu Europejskiego i Rady w sprawie produktów maszynowych, COM(2021) 202 final.
(12)    Rozporządzenie delegowane Komisji (UE) 2022/30 uzupełniające dyrektywę Parlamentu Europejskiego i Rady 2014/53/UE w odniesieniu do stosowania zasadniczych wymagań, o których mowa w art. 3 ust. 3 lit. d), e) i f) tej dyrektywy (Dz.U. L 7 z 12.1.2022, s. 6).
(13)    Komunikat Komisji pt. „Kształtowanie cyfrowej przyszłości Europy”, COM(2020) 67 final.
(14)    Wniosek dotyczący rozporządzenia Parlamentu Europejskiego i Rady w sprawie horyzontalnych wymogów w zakresie cyberbezpieczeństwa dla produktów z elementami cyfrowymi, COM(2022) 454 final.
(15)    Komunikat Komisji pt. „Europejska strategia w zakresie danych”, COM(2020) 66 final.
(16)    Komunikat Komisji do Parlamentu Europejskiego, Rady Europejskiej, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów – Europejski Zielony Ład, COM(2019) 640 final.
(17)    Deloitte, Study to support the Commission’s IA on liability for artificial intelligence [Badanie na potrzeby oceny skutków przeprowadzanej przez Komisję dotyczącej odpowiedzialności za sztuczną inteligencję], 2021 r. („badanie ekonomiczne”).
(18)    Krajowa strategia Republiki Czeskiej w zakresie sztucznej inteligencji, 2019: https://www.mpo.cz/assets/en/guidepost/for-the-media/press-releases/2019/5/NAIS_eng_web.pdf ; AI Watch, „National strategies on Artificial Intelligence – A European perspective” [„Krajowe strategie w zakresie sztucznej inteligencji – perspektywa europejska”], wydanie z 2021 r. – sprawozdanie JRC-OECD, s. 41, https://op.europa.eu/en/publication-detail/-/publication/619fd0b5-d3ca-11eb-895a-01aa75ed71a1
(19)    2025 Strategia per l’innovazione tecnologica e la digitalizzazione del Paese: https://assets.innovazione.gov.it/1610546390-midbook2025.pdf
(20)    Deloitte, Study to support the Commission’s IA on liability for artificial intelligence [Badanie na potrzeby oceny skutków przeprowadzanej przez Komisję dotyczącej odpowiedzialności za sztuczną inteligencję], 2021 r., s. 96.
(21)    Zob. Polityka Rozwoju Sztucznej Inteligencji w Polsce na lata 2019–2027 ( www.gov.pl/attachment/0aa51cd5-b934-4bcb-8660-bfecb20ea2a9 ), 102–3.
(22)    AI Portugal 2030 [Sztuczna inteligencja w Portugalii do 2030 r.]: https://www.incode2030.gov.pt/sites/default/files/julho_incode_brochura.pdf ; AI Watch, op. cit., s. 113.
(23)    Przede wszystkim odpowiedzialność na zasadzie ryzyka, przeniesienie ciężaru dowodu lub zmniejszenie ciężaru dowodu w postaci niewzruszalnych lub wzruszalnych domniemań.
(24)    Dostępne pod adresem: https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_pl
(25)    Liability for artificial intelligence and other emerging digital technologies [Odpowiedzialność w związku ze sztuczną inteligencją i innymi rozwijającymi się technologiami cyfrowymi], listopad 2019 r., https://op.europa.eu/en/publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1/language-en  
(26)    Karner/Koch/Geistfeld, Comparative Law Study on Civil Liability for Artificial Intelligence [Badanie porównawcze prawa dotyczącego odpowiedzialności cywilnej za sztuczną inteligencję], 2021 r., https://op.europa.eu/en/publication-detail/-/publication/8a32ccc3-0f83-11ec-9151-01aa75ed71a1/language-en
(27)    Kantar, Behavioural Study on the link between challenges of Artificial Intelligence for Member States’ civil liability rules and consumer attitudes towards AI-enabled products and services [Badanie behawioralne dotyczące związku między wyzwaniami, jakie sztuczna inteligencja stwarza dla przepisów dotyczących odpowiedzialności cywilnej obowiązujących w państwach członkowskich a postawami konsumentów wobec produktów i usług opartych na sztucznej inteligencji], sprawozdanie końcowe z 2021 r.
(28)    Deloitte, Study to support the Commission’s Impact Assessment on liability for artificial intelligence [Badanie na potrzeby oceny skutków przeprowadzanej przez Komisję dotyczącej odpowiedzialności za sztuczną inteligencję], 2021 r.
(29)    Dz.U. C […] z […], s. […].
(30)    Dz.U. C […] z […], s. […].
(31)    [Wniosek w sprawie rozporządzenia ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji), COM(2021) 206 final].
(32)    [Wniosek dotyczący rozporządzenia Parlamentu Europejskiego i Rady w sprawie ogólnego bezpieczeństwa produktów (COM(2021) 346 final)].
(33)    [Wniosek dotyczący rozporządzenia Parlamentu Europejskiego i Rady w sprawie produktów maszynowych (COM(2021) 202 final)].
(34)    Rozporządzenie delegowane Komisji (UE) 2022/30 uzupełniające dyrektywę Parlamentu Europejskiego i Rady 2014/53/UE w odniesieniu do stosowania zasadniczych wymagań, o których mowa w art. 3 ust. 3 lit. d), e) i f) tej dyrektywy (Dz.U. L 7 z 12.1.2022, s. 6).
(35)    Dyrektywa Rady 85/374/EWG z dnia 25 lipca 1985 r. w sprawie zbliżenia przepisów ustawowych, wykonawczych i administracyjnych państw członkowskich dotyczących odpowiedzialności za produkty wadliwe (Dz.U. L 210 z 7.8.1985, s. 29).
(36)    [Wniosek dotyczący rozporządzenia Parlamentu Europejskiego i Rady w sprawie jednolitego rynku usług cyfrowych (akt o usługach cyfrowych) – COM(2020) 825 final].
(37)    Dyrektywa Parlamentu Europejskiego i Rady (UE) 2016/943 z dnia 8 czerwca 2016 r. w sprawie ochrony niejawnego know-how i niejawnych informacji handlowych (tajemnic przedsiębiorstwa) przed ich bezprawnym pozyskiwaniem, wykorzystywaniem i ujawnianiem (Dz.U. L 157 z 15.6.2016, s. 1).
(38)    Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję (2020/2014(INL)) – Dz.U. C 404 z 6.10.2021, s. 107.
(39)    Dz.U. C 369 z 17.12.2011, s. 14.
(40)    Dyrektywa Parlamentu Europejskiego i Rady (UE) 2020/1828 z dnia 25 listopada 2020 r. w sprawie powództw przedstawicielskich wytaczanych w celu ochrony zbiorowych interesów konsumentów i uchylająca dyrektywę 2009/22/WE (Dz.U. L 409 z 4.12.2020, s. 1).