This document is an excerpt from the EUR-Lex website
Document 52020IP0275
European Parliament resolution of 20 October 2020 with recommendations to the Commission on a framework of ethical aspects of artificial intelligence, robotics and related technologies (2020/2012(INL))
Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. zawierające zalecenia dla Komisji w sprawie ram aspektów etycznych sztucznej inteligencji, robotyki i powiązanych z nimi technologii (2020/2012(INL))
Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. zawierające zalecenia dla Komisji w sprawie ram aspektów etycznych sztucznej inteligencji, robotyki i powiązanych z nimi technologii (2020/2012(INL))
Dz.U. C 404 z 6.10.2021, p. 63–106
(BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)
6.10.2021 |
PL |
Dziennik Urzędowy Unii Europejskiej |
C 404/63 |
P9_TA(2020)0275
Ramy aspektów etycznych sztucznej inteligencji, robotyki i powiązanych z nimi technologii
Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. zawierające zalecenia dla Komisji w sprawie ram aspektów etycznych sztucznej inteligencji, robotyki i powiązanych z nimi technologii (2020/2012(INL))
(2021/C 404/04)
Parlament Europejski,
— |
uwzględniając art. 225 Traktatu o funkcjonowaniu Unii Europejskiej, |
— |
uwzględniając art. 114 Traktatu o funkcjonowaniu Unii Europejskiej, |
— |
uwzględniając Kartę praw podstawowych Unii Europejskiej, |
— |
uwzględniając rozporządzenie Rady (UE) 2018/1488 z dnia 28 września 2018 r. w sprawie ustanowienia Wspólnego Przedsięwzięcia w dziedzinie Europejskich Obliczeń Wielkiej Skali (1), |
— |
uwzględniając dyrektywę Rady 2000/43/WE z dnia 29 czerwca 2000 r. wprowadzającą w życie zasadę równego traktowania osób bez względu na pochodzenie rasowe lub etniczne (2) (dyrektywę w sprawie równości rasowej), |
— |
uwzględniając dyrektywę Rady 2000/78/WE z dnia 27 listopada 2000 r. ustanawiającą ogólne warunki ramowe równego traktowania w zakresie zatrudnienia i pracy (3) (dyrektywę o równym traktowaniu w zakresie zatrudnienia), |
— |
uwzględniając rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (4) (RODO) i dyrektywę Parlamentu Europejskiego i Rady (UE) 2016/680 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych przez właściwe organy do celów zapobiegania przestępczości, prowadzenia postępowań przygotowawczych, wykrywania i ścigania czynów zabronionych i wykonywania kar, w sprawie swobodnego przepływu takich danych oraz uchylającą decyzję ramową Rady 2008/977/WSiSW (5), |
— |
uwzględniając Porozumienie międzyinstytucjonalne z dnia 13 kwietnia 2016 r. w sprawie lepszego stanowienia prawa (6), |
— |
uwzględniając wniosek z dnia 6 czerwca 2018 r. dotyczący rozporządzenia Parlamentu Europejskiego i Rady ustanawiającego program „Cyfrowa Europa” na lata 2021–2027 (COM(2018)0434), |
— |
uwzględniając komunikat Komisji do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów z dnia 11 grudnia 2019 r. dotyczący Europejskiego Zielonego Ładu (COM(2019)0640), |
— |
uwzględniając komunikat Komisji z dnia 19 lutego 2020 r. do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego oraz Komitetu Regionów w sprawie sztucznej inteligencji – Europejskie podejście do doskonałości i zaufania (COM(2020)0065), |
— |
uwzględniając komunikat Komisji z dnia 19 lutego 2020 r. do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego oraz Komitetu Regionów w sprawie europejskiej strategii w zakresie danych (COM(2020)0066), |
— |
uwzględniając komunikat Komisji z dnia 19 lutego 2020 r. do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego oraz Komitetu Regionów w sprawie kształtowania cyfrowej przyszłości Europy (COM(2020)0067), |
— |
uwzględniając konkluzje Rady Unii Europejskiej z czerwca 2020 r. w sprawie kształtowania cyfrowej przyszłości Europy, |
— |
uwzględniając swoją rezolucję z dnia 16 lutego 2017 r. zawierającą zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki (7), |
— |
uwzględniając swoją rezolucję z dnia 1 czerwca 2017 r. w sprawie cyfryzacji europejskiego przemysłu (8), |
— |
uwzględniając swoją rezolucję z dnia 12 września 2018 r. w sprawie autonomicznych systemów uzbrojenia (9), |
— |
uwzględniając swoją rezolucję z dnia 11 września 2018 r. w sprawie równości językowej w erze cyfrowej (10), |
— |
uwzględniając swoją rezolucję z dnia 12 lutego 2019 r. w sprawie kompleksowej europejskiej polityki przemysłowej w dziedzinie sztucznej inteligencji i robotyki (11), |
— |
uwzględniając sprawozdanie z dnia 8 kwietnia 2019 r., które opracowała powołana przez Komisję grupa ekspertów wysokiego szczebla ds. sztucznej inteligencji, zatytułowane „Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji”, |
— |
uwzględniając studium na temat oceny europejskiej wartości dodanej wykonane przez Biuro Analiz Parlamentu Europejskiego pt. „European framework on ethical aspects of artificial intelligence, robotics and related technologies: European added value assessment” (Europejskie ramy dotyczące etycznych aspektów sztucznej inteligencji, robotyki i powiązanych z nimi technologii: ocena europejskiej wartości dodanej) (12), |
— |
uwzględniając dokumenty informacyjne i opracowania przygotowane na wniosek Panelu ds. Przyszłości Nauki i Technologii (STOA) pod kierownictwem Działu Prognoz Naukowych w ramach Dyrekcji Generalnej ds. Analiz Parlamentarnych Parlamentu Europejskiego, zatytułowane „What if algorithms could abide by ethical principles?” [Co by było, gdyby algorytmy mogły przestrzegać zasad etycznych?], „Artificial Intelligence ante portas: Legal & ethical reflections” [Sztuczna inteligencja u bram: rozważania prawne i etyczne], „A governance framework for algorithmic accountability and transparency” [Ramy zarządzania na rzecz rozliczalności i przejrzystości w dziedzinie algorytmów], „Should we fear artificial intelligence?” [Czy powinniśmy obawiać się sztucznej inteligencji?] oraz „The ethics of artificial intelligence: Issues and initiatives” [Etyka w zakresie sztucznej inteligencji: problemy i inicjatywy], |
— |
uwzględniając dokumenty przyjęte przez Radę Europy, jakimi są Konwencja ramowa o ochronie mniejszości narodowych, Protokół nr 12 do Konwencji o ochronie praw człowieka i podstawowych wolności oraz Europejska karta języków regionalnych lub mniejszościowych, |
— |
uwzględniając zalecenie Rady OECD w sprawie sztucznej inteligencji przyjęte w dniu 22 maja 2019 r., |
— |
uwzględniając art. 47 i 54 Regulaminu, |
— |
uwzględniając opinie przedstawione przez Komisję Spraw Zagranicznych, Komisję Rynku Wewnętrznego i Ochrony Konsumentów, Komisję Transportu i Turystyki, Komisję Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych, Komisję Zatrudnienia i Spraw Socjalnych, Komisję Ochrony Środowiska Naturalnego, Zdrowia Publicznego i Bezpieczeństwa Żywności oraz Komisję Kultury i Edukacji, |
— |
uwzględniając sprawozdanie Komisji Prawnej (A9-0186/2020), |
Wprowadzenie
A. |
mając na uwadze, że rozwijaniem, wdrażaniem i wykorzystaniem sztucznej inteligencji (zwanej także AI), robotyki i powiązanych z nimi technologii zajmują się ludzie, a dokonywane przez nich wybory decydują o potencjalnych korzyściach, jakie te technologie mogą przynieść społeczeństwu; |
B. |
mając na uwadze, że sztuczna inteligencja, robotyka i powiązane z nimi technologie, mające potencjał tworzenia możliwości dla przedsiębiorstw i korzyści dla obywateli i mogące bezpośrednio wpływać na wszystkie aspekty naszych społeczeństw, w tym na prawa podstawowe oraz zasady i wartości społeczne i gospodarcze, a także wywierać trwały wpływ na wszystkie obszary działalności, są promowane i szybko opracowywane; |
C. |
mając na uwadze, że sztuczna inteligencja, robotyka i powiązane z nimi technologie przyniosą znaczne zmiany na rynku pracy i w miejscu pracy; mając na uwadze, że potencjalnie mogą one zastąpić pracowników wykonujących powtarzalne czynności, usprawnić systemy współpracy między człowiekiem a maszyną, zwiększyć konkurencyjność i dobrobyt oraz stworzyć nowe możliwości zatrudnienia dla wykwalifikowanych pracowników, a jednocześnie stanowią poważne wyzwanie jeśli chodzi o reorganizację siły roboczej; |
D. |
mając na uwadze, że rozwój sztucznej inteligencji, robotyki i powiązanych z nimi technologii może również przyczynić się do osiągnięcia w wielu różnych sektorach celów zrównoważonego rozwoju w ramach Europejskiego Zielonego Ładu; mając na uwadze, że technologie cyfrowe mogą zwiększyć wpływ polityki w dziedzinie ochrony środowiska; mając na uwadze, że mogą one również przyczynić się do zmniejszenia zagęszczenia ruchu oraz emisji gazów cieplarnianych i zanieczyszczeń powietrza; |
E. |
mając na uwadze, że w takich sektorach jak transport publiczny opierające się na AI inteligentne systemy transportowe mogą być wykorzystywane do tego, by skrócić do minimum oczekiwanie w kolejkach, zoptymalizować trasy, umożliwić osobom z niepełnosprawnościami większą niezależność, zwiększyć efektywność energetyczną i tym samym nasilić działania na rzecz dekarbonizacji oraz zredukować ślad środowiskowy; |
F. |
mając na uwadze, że technologie te stwarzają nowe możliwości biznesowe, które mogą przyczynić się do odbudowy przemysłu unijnego po obecnym kryzysie zdrowotnym i gospodarczym, jeśli zwiększy się ich wykorzystanie, na przykład w sektorze transportu; mając na uwadze, że dzięki takim możliwościom mogą powstawać nowe miejsca pracy, ponieważ wykorzystanie tych technologii może zwiększyć produktywność przedsiębiorstw i przyczynić się do przyrostu wydajności; mając na uwadze, że programy innowacji w tej dziedzinie mogą umożliwić rozwój regionalnych klastrów; |
G. |
mając na uwadze, że na Unii i jej państwach członkowskich spoczywa szczególna odpowiedzialność za wykorzystywanie, promowanie i zwiększanie wartości dodanej sztucznej inteligencji oraz zapewnienie, aby technologie AI były bezpieczne, przyczyniały się do dobrostanu obywateli UE i leżały w ich ogólnym interesie, ponieważ mogą one w ogromnym stopniu przyczynić się do osiągnięcia wspólnego celu, jakim jest poprawa jakości życia obywateli i wspieranie dobrobytu w Unii poprzez udział w rozwoju lepszych strategii i innowacji w wielu obszarach i sektorach; mając na uwadze, że aby wykorzystać pełen potencjał sztucznej inteligencji i by użytkownicy zrozumieli korzyści i wyzwania związane z technologiami AI, trzeba uwzględnić AI lub umiejętności cyfrowe w procesie edukacji i szkolenia, m.in. jeśli chodzi o propagowanie włączenia cyfrowego, oraz prowadzić na szczeblu unijnym kampanie informacyjne rzetelnie przedstawiające wszystkie aspekty rozwoju AI; |
H. |
mając na uwadze, że wspólne unijne ramy regulacyjne obejmujące opracowywanie, wdrażanie i wykorzystywanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii (ramy regulacyjne dla AI) powinny pozwolić obywatelom uczestniczyć w korzyściach płynących z potencjału tych technologii, a jednocześnie chronić ich przed potencjalnymi zagrożeniami, jakie niosą te technologie i promować ich wiarygodność w Unii i poza nią; mając na uwadze, że ramy te powinny opierać się na prawie i wartościach Unii oraz na zasadach przejrzystości, wytłumaczalności, uczciwości, rozliczalności i odpowiedzialności; |
I. |
mając na uwadze, że takie ramy regulacyjne mają kluczowe znaczenie dla uniknięcia rozdrobnienia rynku wewnętrznego wynikającego z różniących się przepisów krajowych i przyspieszą niezwykle potrzebne inwestycje, rozwój infrastruktury danych i wsparcie dla badań naukowych; mając na uwadze, że powinny one obejmować wspólne zobowiązania prawne i zasady etyczne określone we wniosku dotyczącym rozporządzenia, o którym mowa w załączniku do niniejszej rezolucji; mając na uwadze, że należy je ustanowić zgodnie z wytycznymi dotyczącymi lepszego stanowienia prawa; |
J. |
mając na uwadze, że w Unii obowiązują ścisłe ramy prawne, aby zapewnić, między innymi, ochronę danych osobowych i prywatności, zwalczać dyskryminację oraz promować równość płci, ochronę środowiska i prawa konsumentów; mając na uwadze, że ramy te w postaci szeroko zakrojonego korpusu prawodawstwa horyzontalnego i sektorowego, w tym istniejących zasad dotyczących bezpieczeństwa produktów i odpowiedzialności, będą mieć nadal zastosowanie w odniesieniu do sztucznej inteligencji, robotyki i powiązanych z nimi technologii, choć mogą być konieczne pewne korekty poszczególnych instrumentów prawnych, by odzwierciedlić transformację cyfrową i odnieść się do nowych wyzwań stawianych przez zastosowania sztucznej inteligencji; |
K. |
mając na uwadze, że istnieją obawy, iż obecne ramy prawne Unii, w tym dorobek dotyczący praw konsumentów, dorobek prawny w dziedzinie zatrudnienia i spraw społecznych, prawodawstwo dotyczące ochrony danych, bezpieczeństwa produktów i nadzoru rynku, a także prawodawstwo antydyskryminacyjne, mogą nie być już w stanie skutecznie przeciwdziałać zagrożeniom związanym ze sztuczną inteligencją, robotyką i powiązanymi z nimi technologiami; |
L. |
mając na uwadze, że oprócz dostosowań obowiązującego prawodawstwa kwestie prawne i etyczne związane z technologiami AI należy uregulować za pomocą skutecznych, kompleksowych i zachowujących aktualność ram prawa Unii odzwierciedlających zasady i wartości Unii zapisane w Traktatach i w Karcie praw podstawowych Unii Europejskiej („Karta”), unikając nadmiernej regulacji dzięki ograniczeniu się do wypełnienia tylko istniejących luk w prawie i zwiększając pewność prawa zarówno dla przedsiębiorstw, jak i obywateli, w szczególności poprzez uwzględnienie obowiązkowych środków przeciwdziałania praktykom, które bez wątpienia podważałyby podstawowe prawa; |
M. |
mając na uwadze, że wszelkie nowe ramy regulacyjne muszą uwzględniać interesy wszystkich stron; mając na uwadze, że warunkiem wstępnym dla dalszych kroków ustawodawczych powinno być szczegółowe zbadanie, w formie oceny skutków, jakie konsekwencje dla wszystkich podmiotów będą miały nowe ramy regulacyjne; mając na uwadze, że kluczowa rola małych i średnich przedsiębiorstw (MŚP) i przedsiębiorstw typu start-up, szczególnie w unijnej gospodarce, wymaga ściśle proporcjonalnego podejścia, by umożliwić im rozwój i innowacje; |
N. |
mając na uwadze, że sztuczna inteligencja, robotyka i powiązane z nimi technologie mogą mieć poważny wpływ na integralność materialną i niematerialną osób fizycznych, grup i społeczeństwa jako całości oraz że potencjalne szkody indywidualne i zbiorowe muszą znaleźć odzwierciedlenie w reakcjach legislacyjnych; |
O. |
mając na uwadze, że w celu przestrzegania unijnych ram regulacyjnych dotyczących AI konieczne może być przyjęcie szczegółowych przepisów dotyczących unijnego sektora transportu; |
P. |
mając na uwadze, że technologie AI mają strategiczne znaczenie dla sektora transportu, również dlatego, że zwiększają bezpieczeństwo i dostępność wszystkich rodzajów transportu oraz tworzą nowe możliwości zatrudnienia i bardziej zrównoważone modele biznesowe; mając na uwadze, że unijne podejście do rozwoju sztucznej inteligencji, robotyki i powiązanych z nimi technologii w transporcie może zwiększyć globalną konkurencyjność i strategiczną niezależność gospodarki unijnej; |
Q. |
mając na uwadze, że błąd ludzki nadal jest przyczyną około 95 % wszystkich wypadków drogowych w Unii; mając na uwadze, że celem Unii było zmniejszenie do 2020 r. liczby śmiertelnych wypadków drogowych na jej terenie o 50 % rocznie w porównaniu z 2010 r., ale w związku ze stagnacją postępów wznowiła ona wysiłki w ramach unijnej polityki bezpieczeństwa ruchu drogowego na lata 2021–2030 – Kolejne kroki w kierunku „wizji zero”; mając na uwadze, że w tym względzie AI, automatyzacja i inne nowe technologie mają ogromny potencjał i żywotne znaczenie dla zwiększenia bezpieczeństwa drogowego dzięki ograniczeniu możliwości popełnienia błędu przez człowieka; |
R. |
mając na uwadze, że unijne ramy regulacyjne dotyczące AI powinny również odzwierciedlać konieczność zapewnienia poszanowania praw pracowniczych; mając na uwadze, że należy uwzględnić umowę ramową partnerów społecznych w sprawie digitalizacji z czerwca 2020 r.; |
S. |
mając na uwadze, że zakres unijnych ram regulacyjnych dotyczących AI powinien być odpowiedni, proporcjonalny i szczegółowo oceniony; mając na uwadze, że choć należy uwzględnić w nich szeroką gamę technologii i ich komponentów, w tym algorytmów, oprogramowania oraz wykorzystywanych lub generowanych przez nie danych, konieczne jest ukierunkowane i oparte na ryzyku podejście, aby uniknąć przeszkód dla przyszłych innowacji i tworzenia zbędnych obciążeń, w szczególności dla MŚP; mając na uwadze, że różnorodność aplikacji wykorzystujących sztuczną inteligencję, robotykę i powiązane z nimi technologie utrudnia znalezienie pojedynczego rozwiązania odpowiedniego dla całego spektrum zagrożeń; |
T. |
mając na uwadze, że analiza danych i AI w coraz większym stopniu wpływają na informacje udostępniane obywatelom; mając na uwadze, że takie technologie, jeśli zostaną niewłaściwie wykorzystane, mogą zagrozić podstawowym prawom do wolności wypowiedzi i informacji, a także wolności i pluralizmowi mediów; |
U. |
mając na uwadze, że zakres geograficzny unijnych ram regulacyjnych dotyczących AI powinien obejmować wszystkie komponenty sztucznej inteligencji, robotyki i powiązanych z nimi technologii opracowywanych, wdrażanych lub wykorzystywanych w Unii, w tym przypadki, w których elementy tych technologii mogą być zlokalizowane poza Unią lub mogą nie mieć konkretnej lokalizacji; |
V. |
mając na uwadze, że unijne ramy regulacyjne dotyczące AI powinny obejmować wszystkie odpowiednie etapy, a mianowicie opracowywanie, wdrażanie i wykorzystywanie odpowiednich technologii i ich komponentów, przy należytym uwzględnieniu odpowiednich zobowiązań prawnych i zasad etycznych, a także powinny określać warunki zapewniające, że wszystkie podmioty opracowujące, wdrażające oraz wykorzystujące w pełni wypełniają te zobowiązania i przestrzegają powyższych zasad; |
W. |
mając na uwadze, że zharmonizowane podejście do zasad etycznych dotyczących sztucznej inteligencji, robotyki i powiązanych z nimi technologii wymaga jednolitej interpretacji w Unii pojęć leżących u podstaw technologii takich jak algorytmy, oprogramowanie, dane czy biometria; |
X. |
mając na uwadze, że działania na szczeblu Unii są uzasadnione potrzebą uniknięcia fragmentacji regulacyjnej lub serii krajowych przepisów regulacyjnych pozbawionych wspólnego mianownika, a także zagwarantowania jednolitego stosowania wspólnych zasad etycznych zapisanych w prawie podczas opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka; mając na uwadze, że potrzebne są jasne zasady w przypadkach występowania znacznego ryzyka; |
Y. |
mając na uwadze, że wspólne zasady etyczne są skuteczne tylko wtedy, gdy są również zapisane w prawie i wskaże się podmioty odpowiedzialne za zapewnienie, ocenę i monitorowanie ich przestrzegania; |
Z. |
mając na uwadze, że wytyczne etyczne, takie jak zasady przyjęte przez grupę ekspertów wysokiego szczebla ds. AI, stanowią dobry punkt wyjścia, ale nie są w stanie zagwarantować uczciwego zachowania podmiotów opracowujących, wdrażających i wykorzystujących ani skutecznej ochrony osób fizycznych; mając na uwadze, że takie wytyczne są tym bardziej istotne w odniesieniu do sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka; |
AA. |
mając na uwadze, że każde państwo członkowskie powinno wyznaczyć krajowy organ nadzoru odpowiedzialny za zapewnianie, ocenę i monitorowanie zgodności opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka z unijnymi ramami regulacyjnymi dotyczącymi AI a także za umożliwianie dyskusji i wymiany poglądów w ścisłej współpracy z odpowiednimi zainteresowanymi stronami i społeczeństwem obywatelskim; mając na uwadze, że krajowe organy nadzoru powinny ze sobą współpracować; |
AB. |
mając na uwadze, że w celu zapewnienia zharmonizowanego podejścia w całej Unii i optymalnego funkcjonowania jednolitego rynku cyfrowego należy poddać ocenie koordynację na szczeblu unijnym, za którą odpowiedzialna jest Komisja i wszelkie odpowiednie instytucje, organy, urzędy i agencje Unii, które mogą zostać wyznaczone w tym kontekście, w odniesieniu do nowych możliwości i wyzwań, w szczególności o charakterze transgranicznym, związanych z trwającym rozwojem technologicznym; mając na uwadze, że w tym celu Komisji należy powierzyć zadanie znalezienia odpowiedniego rozwiązania dla ustrukturyzowania takiej koordynacji na szczeblu Unii; |
Sztuczna inteligencja ukierunkowana na człowieka i stworzona przez człowieka
1. |
uważa, że z zastrzeżeniem prawodawstwa sektorowego konieczne są skuteczne i zharmonizowane ramy regulacyjne oparte na prawie Unii, Karcie oraz prawie międzynarodowym dotyczącym praw człowieka, mające zastosowanie w szczególności do technologii wysokiego ryzyka, w celu ustanowienia jednakowych norm w całej Unii i skutecznej ochrony wartości Unii; |
2. |
uważa, że wszelkie nowe ramy regulacyjne dotyczące AI w postaci zobowiązań prawnych i zasad etycznych dotyczących opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii powinny być w pełni zgodne z Kartą, a tym samym respektować godność ludzką, autonomię i samostanowienie jednostki, zapobiegać szkodom, promować sprawiedliwość, włączenie i przejrzystość, eliminować nierówne traktowanie i dyskryminację, również mniejszości, a także szanować i przestrzegać zasad ograniczania negatywnych efektów zewnętrznych wykorzystywanej technologii, zapewniania wyjaśnialności technologii, a także zagwarantowania, że technologie te będą służyć ludziom, a nie ich zastępować, czy decydować za nich, przy czym ostatecznym celem jest zwiększenie dobrostanu każdego człowieka; |
3. |
podkreśla asymetrię między podmiotami stosującymi technologie sztucznej inteligencji a podmiotami wchodzącymi w interakcje z tymi technologiami i podlegającymi ich działaniu; w tym kontekście podkreśla, że zaufanie obywateli do AI można zbudować jedynie w oparciu o ramy prawne uwzględniające aspekty etyczne „domyślnie i już w fazie projektowania”, które zapewnią, aby każda oddana do użytku AI była w pełni zgodna z traktatami, Kartą i prawem wtórnym Unii; uważa, że działania w oparciu o takie podejście powinny być zgodne z zasadą ostrożności, która przyświeca prawodawstwu UE i powinna być centralnym elementem wszelkich ram dotyczących AI; apeluje w związku z tym o jasny i spójny model zarządzania, który umożliwi przedsiębiorstwom i innowatorom dalsze rozwijanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii; |
4. |
uważa, że wszelkie działania ustawodawcze w odniesieniu do sztucznej inteligencji, robotyki i powiązanych z nimi technologii powinny być zgodne z zasadami konieczności i proporcjonalności; |
5. |
uważa, że takie podejście pozwoli przedsiębiorstwom wprowadzać na rynek innowacyjne produkty i stworzy nowe możliwości, a jednocześnie zapewni ochronę unijnych wartości, prowadząc do opracowywania systemów AI, które będą uwzględniać unijne zasady etyczne już na etapie projektowania; uważa, że takie oparte na wartościach ramy regulacyjne stanowiłyby wartość dodaną, zapewniając Unii wyjątkową przewagę konkurencyjną, i w znacznym stopniu przyczyniłyby się do dobrostanu i dobrobytu obywateli Unii i unijnych przedsiębiorstw dzięki pobudzaniu rynku wewnętrznego; podkreśla, że takie ramy regulacyjne dotyczące AI stanowiłyby również wartość dodaną w odniesieniu do promowania innowacji na rynku wewnętrznym; uważa, że na przykład w sektorze transportu podejście to daje unijnym przedsiębiorstwom możliwość stania się światowymi liderami w tej dziedzinie; |
6. |
zauważa, że unijne ramy prawne powinny mieć zastosowanie do sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów i danych wykorzystywanych lub generowanych przez te technologie; |
7. |
zauważa, że rozwiązania oparte na sztucznej inteligencji, robotyce i powiązanych z nimi technologiach bazują na dużych zbiorach danych, co wiąże się z potrzebą uzyskania masy krytycznej danych, aby wytrenować algorytmy i udoskonalić wyniki; w związku z tym z zadowoleniem przyjmuje wniosek Komisji dotyczący utworzenia wspólnej przestrzeni danych w Unii z myślą o lepszej wymianie danych i o wspieraniu badań naukowych z pełnym poszanowaniem europejskich przepisów o ochronie danych; |
8. |
uważa, że obecne unijne ramy prawne, w szczególności dotyczące ochrony, prywatności i danych osobowych, będą musiały mieć w pełni zastosowanie do AI, robotyki i powiązanych z nimi technologii oraz podlegać regularnemu przeglądowi, nadzorowi i, w razie potrzeby, aktualizacji w celu skutecznego przeciwdziałania zagrożeniom stwarzanym przez te technologie, i w związku z tym korzystne byłoby uzupełnienie ich solidnymi przewodnimi zasadami etycznymi; zwraca uwagę, że w przypadkach, w których przyjęcie aktów prawnych byłoby przedwczesne, należy stosować ramy prawa miękkiego; |
9. |
oczekuje od Komisji włączenia do wniosku ustawodawczego przygotowywanego w następstwie białej księgi w sprawie sztucznej inteligencji, o którym mowa w załączniku do niniejszej rezolucji, solidnego podejścia etycznego, w tym w zakresie bezpieczeństwa, odpowiedzialności i praw podstawowych, dzięki czemu zmaksymalizowane zostaną możliwości oferowane przez technologie AI i zminimalizuje się związane z nimi zagrożenia; oczekuje, że wymagany wniosek ustawodawczy będzie obejmować rozwiązania polityczne odnoszące się do głównych rozpoznanych zagrożeń związanych ze sztuczną inteligencją, w tym m.in. w zakresie etycznego gromadzenia i wykorzystywania dużych zbiorów danych oraz kwestii przejrzystości i stronniczości algorytmów; wzywa Komisję do opracowania kryteriów i wskaźników służących do oznaczania technologii AI w celu stymulowania przejrzystości, wyjaśnialności i odpowiedzialności oraz zachęcania podmiotów opracowujących do podejmowania dodatkowych środków ostrożności; podkreśla potrzebę inwestowania we włączanie dyscyplin nietechnicznych do studiów i badań nad sztuczną inteligencją, uwzględniając kontekst społeczny; |
10. |
uważa, że sztuczna inteligencja, robotyka i powiązane z nimi technologie muszą być dostosowane do ludzkich potrzeb w oparciu o zasadę, że ich opracowywanie, wdrażanie i wykorzystywanie powinno zawsze służyć ludziom, a nigdy odwrotnie, oraz powinny dążyć do zwiększenia dobrostanu i wolności jednostki, a także do zachowania pokoju, zapobiegania konfliktom i wzmocnienia bezpieczeństwa międzynarodowego, przy maksymalizacji oferowanych korzyści oraz zapobieganiu związanym z nimi zagrożeniom lub zmniejszaniu tych zagrożeń; |
11. |
oświadcza, że opracowywanie, wdrażanie i wykorzystywanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka, w tym m.in. przez człowieka, musi zawsze odbywać się z poszanowaniem zasad etyki i uwzględnieniem przewodniej roli człowieka i demokratycznego nadzoru, a także umożliwiać w razie potrzeby odzyskanie kontroli przez człowieka dzięki wdrożeniu odpowiednich środków kontroli; |
Ocena ryzyka
12. |
podkreśla, że wszelkie przyszłe uregulowania powinny opierać się na zróżnicowanym i zorientowanym na przyszłość podejściu do regulowania sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym neutralnych pod względem technologicznym normach we wszystkich sektorach, a w stosownych przypadkach również na normach sektorowych; zauważa, że w celu zapewnienia jednolitego wdrażania systemu oceny ryzyka oraz zgodności z powiązanymi zobowiązaniami prawnymi, aby zapewnić równe warunki działania wśród państw członkowskich i zapobiec rozdrobnieniu rynku wewnętrznego, potrzebny jest wyczerpujący i łączny wykaz sektorów wysokiego ryzyka oraz zastosowań lub celów wysokiego ryzyka; podkreśla, że taki wykaz musi regularnie podlegać ponownej ocenie i zauważa, że z uwagi na ewoluujący charakter tych technologii, sposób przeprowadzania ich oceny ryzyka może zostać poddany ponownej ocenie w przyszłości; |
13. |
uważa, że ustalenie, czy sztuczna inteligencja, robotyka i powiązane z nimi technologie należy uznać za obarczone wysokim ryzykiem, a tym samym podlegające obowiązkowej zgodności ze zobowiązaniami prawnymi i zasadami etycznymi określonymi w ramach regulacyjnych dotyczących AI, powinno zawsze wynikać z bezstronnej, regulowanej i zewnętrznej oceny ex ante opartej na konkretnych i określonych kryteriach; |
14. |
uważa w tym względzie, że sztuczną inteligencję, robotykę i powiązane z nimi technologie należy uznać za obarczone wysokim ryzykiem, jeżeli ich rozwój, wdrażanie i wykorzystywanie wiąże się ze znacznym ryzykiem spowodowania obrażeń ciała lub szkody dla osób fizycznych lub społeczeństwa, z naruszeniem praw podstawowych i zasad bezpieczeństwa określonych w prawie Unii; uważa, że do celów oceny, czy technologie AI wiążą się z takim ryzykiem, należy wziąć pod uwagę sektor, w którym są opracowywane, wdrażane lub wykorzystywane, ich konkretne zastosowanie lub cel oraz stopień obrażenia lub szkody, których wystąpienia można się spodziewać; pierwsze i drugie kryterium, tj. sektor i konkretne zastosowanie lub cel, należy rozpatrywać łącznie; |
15. |
podkreśla, że oceny ryzyka tych technologii należy dokonywać na podstawie wyczerpującego i skumulowanego wykazu sektorów wysokiego ryzyka oraz zastosowań i celów wysokiego ryzyka; jest głęboko przekonany, że w Unii powinna istnieć spójność w zakresie oceny ryzyka związanego z tymi technologiami, zwłaszcza gdy są one oceniane zarówno pod kątem ich zgodności z ramami regulacyjnymi dotyczącymi AI, jak i zgodnie z wszelkimi innymi mającymi zastosowanie przepisami sektorowymi; |
16. |
uważa, że podejście oparte na ryzyku powinno być opracowane w sposób jak najbardziej ograniczający obciążenia administracyjne dla przedsiębiorstw, w szczególności MŚP, dzięki zastosowaniu istniejących narzędzi; narzędzia te obejmują m.in. wykaz ocen skutków dla ochrony danych przewidziany w rozporządzeniu (UE) 2016/679; |
Zabezpieczenia, przejrzystość i rozliczalność
17. |
przypomina, że prawo konsumentów do informacji jest zapisane jako kluczowa zasada w prawie UE; podkreśla, że w związku z tym prawo to należy w pełni wdrożyć w odniesieniu do sztucznej inteligencji, robotyki i powiązanych z nimi technologii; uważa, że powinno ono w szczególności obejmować przejrzystość interakcji z systemami sztucznej inteligencji, w tym procesów automatyzacji, oraz sposobu ich funkcjonowania, zdolności, na przykład sposobu filtrowania i przedstawiania informacji, dokładności i ograniczeń; uważa, że takie informacje powinny być przekazywane krajowym organom nadzoru i krajowym organom ochrony konsumentów; |
18. |
podkreśla, że zaufanie konsumentów ma zasadnicze znaczenie dla rozwoju i wdrażania technologii, które mogą nieść ze sobą nieodłączne ryzyko, jeżeli opierają się na nieprzejrzystych algorytmach i tendencyjnych zbiorach danych; uważa, że konsumenci powinni mieć prawo do bycia odpowiednio poinformowanymi w zrozumiały, terminowy, znormalizowany, dokładny i przystępny sposób o istnieniu systemów algorytmicznych, stosowanym w nich rozumowaniu, możliwych skutkach ich działania i konsekwencjach dla konsumentów, a także o tym, jak dotrzeć do osób mających uprawnienia decyzyjne oraz jak można kontrolować, skutecznie podważać i korygować decyzje systemu; podkreśla w związku z tym potrzebę rozważenia i poszanowania zasad informowania i ujawniania, na których opiera się dorobek prawny w dziedzinie ochrony konsumentów; uważa, że użytkowników końcowych należy szczegółowo informować o funkcjonowaniu systemów transportu i pojazdów wykorzystujących AI; |
19. |
uważa za bardzo ważne, by algorytmy i zbiory danych wykorzystywane lub tworzone przez sztuczną inteligencję, robotykę i powiązane z nimi technologie były wytłumaczalne i, jeżeli jest to absolutnie konieczne i z pełnym poszanowaniem przepisów Unii dotyczących ochrony danych, prywatności i praw własności intelektualnej oraz tajemnic przedsiębiorstwa, dostępne dla organów publicznych, takich jak krajowe organy nadzoru i organy nadzoru rynku; zauważa ponadto, że zgodnie z najwyższymi obowiązującymi normami branżowymi taka dokumentacja powinna być przechowywana przez podmioty uczestniczące w poszczególnych etapach opracowywania technologii wysokiego ryzyka; zauważa, że organy nadzoru rynku mogą mieć dodatkowe uprawnienia w tym zakresie; podkreśla w związku z tym rolę zgodnej z prawem inżynierii odwrotnej; uważa, że konieczne może okazać się przeprowadzenie analizy obecnych przepisów dotyczących nadzoru rynku, aby zapewnić etyczną reakcję na pojawienie się sztucznej inteligencji, robotyki i powiązanych z nimi technologii; |
20. |
wzywa do nałożenia na podmioty opracowujące i wdrażające technologie wysokiego ryzyka wymogu dostarczania organom publicznym – w przypadku gdy wskaże na to ocena ryzyka – odpowiedniej dokumentacji dotyczącej użytkowania, projektowania i instrukcji bezpieczeństwa, w tym, gdy jest to absolutnie konieczne i z pełnym poszanowaniem przepisów Unii dotyczących ochrony danych, prywatności, praw własności intelektualnej i tajemnic przedsiębiorstwa, kodu źródłowego, narzędzi rozwoju i danych wykorzystywanych przez system; zauważa, że taki obowiązek umożliwiłby ocenę ich zgodności z prawem Unii i zasadami etycznymi, i odnotowuje w tym względzie przykład ustanowionego prawnie przekazywania publikacji do biblioteki narodowej; odnotowuje istotne rozróżnienie między przejrzystością algorytmów i przejrzystością korzystania z algorytmów; |
21. |
zwraca ponadto uwagę, że w celu poszanowania godności, autonomii i bezpieczeństwa ludzi należy zwrócić należytą uwagę na kluczowe i zaawansowane przyrządy medyczne oraz potrzebę utrzymania przez niezależne, wiarygodne organy środków niezbędnych do świadczenia usług osobom korzystającym z tych przyrządów w przypadku gdy oryginalny wykonawca lub podmiot wdrażający nie świadczy już tych usług; na przykład: usługi takie obejmowałyby konserwację, naprawy i ulepszenia, w tym aktualizacje oprogramowania, które eliminują wady działania i niedociągnięcia; |
22. |
utrzymuje, że sztuczna inteligencja, robotyka i powiązane z nimi technologie wysokiego ryzyka, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie, bez względu na dziedzinę, w której są opracowywane, wdrażane i wykorzystywane, już na etapie projektowania powinny być opracowywane w sposób bezpieczny, identyfikowalny, technicznie niezawodny, niezawodny, etyczny i prawnie wiążący oraz powinno się je objąć niezależną kontrolą i nadzorem; uważa w szczególności, że wszystkie podmioty w łańcuchu opracowywania i dostaw produktów i usług wykorzystujących sztuczną inteligencję powinny ponosić odpowiedzialność prawną oraz zwraca uwagę na potrzebę mechanizmów zapewniających odpowiedzialność i rozliczalność; |
23. |
podkreśla, że regulacje i wytyczne dotyczące wyjaśnialności, możliwości kontroli, identyfikowalności i przejrzystości, a także dotyczące dostępu organów publicznych do technologii, danych i systemów obliczeniowych leżących u podstaw takich technologii – gdy wymaga tego ocena ryzyka, jest to absolutnie konieczne i przy pełnym poszanowaniu prawa Unii, m.in. prawa dotyczącego ochrony danych, prywatności, praw własności intelektualnej i tajemnic przedsiębiorstwa – mają zasadnicze znaczenie dla zapewnienia zaufania obywateli do tych technologii, nawet jeżeli stopień wyjaśnialności jest powiązany ze złożonością technologii; zwraca uwagę, że nie zawsze możliwe jest wyjaśnienie, dlaczego model doprowadził do konkretnego wyniku czy decyzji, a przykładem tego są algorytmy typu „czarna skrzynka”; uważa zatem, że poszanowanie tych zasad stanowi warunek wstępny dla zagwarantowania rozliczalności; |
24. |
uważa, że obywatele, w tym konsumenci, gdy wchodzą w interakcję z systemem korzystającym ze sztucznej inteligencji, w szczególności wykorzystywanym w celu personalizacji produktu czy usługi dla użytkowników, powinni być informowani, czy mogą wyłączyć lub ograniczyć personalizację i jak to zrobić; |
25. |
w związku z tym zauważa, że aby można było zaufać sztucznej inteligencji, robotyce i powiązanym z nimi technologiom, należy zadbać o tu, by były precyzyjne i technicznie niezawodne; |
26. |
podkreśla, że ważna jest ochrona sieci obejmujących połączenie AI i robotyki, że należy podejmować stanowcze kroki, by zapobiegać naruszeniom bezpieczeństwa, wyciekaniu i „zatruwaniu” danych, cyberatakom i niewłaściwemu wykorzystywaniu danych osobowych oraz że będzie to wymagać od odpowiednich agencji, organów i instytucji na szczeblu zarówno Unii, jak i krajowym, współpracy z użytkownikami końcowymi tych technologii; wzywa Komisję i państwa członkowskie, aby dopilnowały stałego przestrzegania unijnych wartości i praw podstawowych podczas opracowywania i wdrażania technologii AI w celu zapewnienia bezpieczeństwa i odporności infrastruktury cyfrowej UE; |
Brak nierównego traktowania i niedyskryminacja
27. |
przypomina, że sztuczna inteligencja, w zależności od sposobu jej opracowania i wykorzystywania, ma potencjał tworzenia i wzmacniania nierównego traktowania, w tym poprzez nieodłączną tendencyjność w podstawowych zbiorach danych, a tym samym tworzenia różnych form zautomatyzowanej dyskryminacji, w tym dyskryminacji pośredniej, w szczególności w odniesieniu do grup osób o podobnych cechach; wzywa Komisję i państwa członkowskie, aby podjęły wszelkie możliwe środki w celu unikania takiego nierównego traktowania i zapewnienia pełnej ochrony praw podstawowych; |
28. |
wyraża zaniepokojenie ryzykiem nierównego traktowania i dyskryminacji podczas opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka, w tym oprogramowania, algorytmów oraz danych wykorzystywanych lub generowanych przez te technologie; przypomina, że bez względu na okoliczności należy zapewnić przestrzeganie prawa Unii oraz poszanowanie praw i godności człowieka, autonomii i prawa do samostanowienia jednostki, a także równe traktowanie i niedyskryminację w odniesieniu do wszystkich; |
29. |
podkreśla, że technologie AI należy projektować tak, by funkcjonowały z poszanowaniem unijnych zasad oraz integralności cielesnej i psychicznej, a także respektowały różnorodność kulturową i językową UE oraz pomagały realizować podstawowe potrzeby; podkreśla, że należy unikać wszelkich zastosowań, które mogłyby prowadzić do niedopuszczalnego przymusu bezpośredniego lub pośredniego, groziłyby naruszeniem autonomii psychicznej i zdrowia psychicznego lub prowadziłyby do nieuzasadnionej inwigilacji, oszustwa lub niedopuszczalnej manipulacji; |
30. |
zdecydowanie uważa, że podstawowe prawa człowieka zapisane w Karcie powinny być ściśle przestrzegane, aby zagwarantować, że nowe technologie nie stworzą luk w zakresie ochrony; |
31. |
stwierdza, że problem ewentualnego nierównego traktowania i dyskryminacji ze strony programów komputerowych, algorytmów oraz danych może spowodować realne szkody dla jednostek i społeczeństwa, a zatem należy go rozwiązać przez zachęcanie do opracowywania i wzajemnej wymiany strategii przeciwdziałania tym zjawiskom, na przykład przez eliminację tendencyjności zbiorów danych wykorzystywanych w badaniach i rozwoju oraz przez opracowanie zasad regulujących przetwarzanie danych; uważa, że dzięki takiemu podejściu programy komputerowe, algorytmy i dane mogłyby stać się wartościowym narzędziem przeciwdziałania nierównemu traktowaniu i dyskryminacji w pewnych sytuacjach oraz siłą napędową równych praw i pozytywnych przemian społecznych; |
32. |
utrzymuje, że wartości etyczne takie jak sprawiedliwość, dokładność, poufność i przejrzystość powinny stanowić podstawę tych technologii, co w tym kontekście oznacza, że ich działania nie mogą generować tendencyjnych wyników; |
33. |
podkreśla znaczenie jakości zbiorów danych wykorzystywanych w systemach sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w zależności od ich kontekstu, zwłaszcza pod względem reprezentatywności danych szkoleniowych, eliminacji tendencyjności zbiorów danych, zastosowanych algorytmów oraz norm dotyczących danych i agregacji; podkreśla, że te zbiory danych powinny podlegać kontroli przez krajowe organy nadzoru i być udostępniane za każdym razem, gdy wystosowane zostanie wezwanie do zapewnienia zgodności tych zbiorów danych z uprzednio określonymi zasadami; |
34. |
podkreśla, że w obliczu szeroko zakrojonej wojny dezinformacyjnej, napędzanej przede wszystkim przez podmioty pozaeuropejskie, technologie AI mogą mieć niepożądane z etycznego punktu widzenia skutki w związku z wykorzystywaniem tendencyjności w danych i algorytmach lub celowym zmienianiem przez kraj trzeci danych szkoleniowych, oraz może być poddana innym formom niebezpiecznej, złośliwej manipulacji w nieprzewidziany sposób i z niemożliwymi do oszacowania skutkami; w związku z tym niezbędne jest, by Unia nadal inwestowała w badania, analizę, innowacje oraz transgraniczny i międzysektorowy transfer wiedzy, by rozwijać technologie AI, które będą całkowicie wolne od wszelkiego rodzaju profilowania, nierównego traktowania i dyskryminacji i które mogłyby skutecznie przyczyniać się do zwalczania fałszywych informacji i dezinformacji, z jednoczesnym poszanowaniem prywatności danych i unijnych ram prawnych; |
35. |
przypomina o znaczeniu zapewnienia obywatelom skutecznych środków odwoławczych oraz wzywa państwa członkowskie do zapewnienia dostępności przystępnych cenowo, niezależnych i skutecznych procedur i mechanizmów przeglądu gwarantujących bezstronną weryfikację przez człowieka wszystkich roszczeń dotyczących naruszeń praw obywateli, m.in. praw konsumenta i praw obywatelskich, w wyniku stosowania systemów algorytmicznych, niezależnie od tego, czy pochodzą od podmiotów sektora publicznego czy prywatnego; podkreśla znaczenie projektu dyrektywy Parlamentu Europejskiego i Rady w sprawie powództw przedstawicielskich w celu ochrony zbiorowych interesów konsumentów i uchylającej dyrektywę 2009/22/WE, co do której w dniu 22 czerwca 2020 r. osiągnięto porozumienie polityczne, w odniesieniu do przyszłych przypadków kwestionowania wprowadzenia lub stałego wykorzystywania systemu AI, jeżeli może to prowadzić do naruszenia praw konsumentów, lub zaskarżenia naruszenia tych praw; zwraca się do Komisji i państw członkowskich o dopilnowanie, by krajowe i unijne organizacje konsumenckie dysponowały wystarczającymi środkami finansowymi, aby pomóc konsumentom w korzystaniu z prawa do środków odwoławczych w przypadkach, w których zostały naruszone ich prawa; |
36. |
uważa zatem, że każda osoba fizyczna bądź prawna powinna mieć prawo do dochodzenia roszczeń w związku z decyzją podjętą przez system AI, robotyki lub powiązanych technologii, która to decyzja narusza prawo unijne lub krajowe; |
37. |
uważa, że w przypadkach podejrzenia naruszenia ram regulacyjnych Unii w tym kontekście pierwszym punktem kontaktowym dla konsumentów mogłyby być również krajowe organy nadzoru, do których zwracaliby się oni z wnioskami o rekompensatę w celu zapewnienia skutecznego egzekwowania wyżej wspomnianych ram; |
Odpowiedzialność społeczna i równowaga płci
38. |
uważa, że społecznie odpowiedzialne systemy AI, robotyki i powiązanych z nimi technologii mają do odegrania rolę w znajdowaniu rozwiązań, które chronią i promują podstawowe prawa i wartości naszego społeczeństwa, takie jak demokracja, praworządność, pluralistyczne i niezależne media oraz obiektywne i łatwo dostępne informacje, zdrowie i dobrobyt gospodarczy, równość szans, prawa pracowników i prawa socjalne, edukacja wysokiej jakości, ochrona dzieci, różnorodność kulturowa i językowa, równość płci, umiejętności cyfrowe, innowacje i kreatywność; przypomina o potrzebie zapewnienia, by interesy wszystkich obywateli, w tym marginalizowanych lub znajdujących się w niekorzystnej sytuacji, takich jak osoby niepełnosprawne, były odpowiednio uwzględniane i reprezentowane; |
39. |
podkreśla, że istotne znaczenie ma osiągnięcie wysokiego poziomu ogólnych umiejętności cyfrowych i kształcenie wysoko wykwalifikowanych specjalistów w tej dziedzinie oraz zapewnienie wzajemnego uznawania takich kwalifikacji w całej Unii; podkreśla potrzebę zróżnicowanych zespołów programistów i inżynierów współpracujących z głównymi podmiotami społecznymi w celu zapobiegania nieumyślnemu włączaniu nierównego traktowania ze względu na płeć i uprzedzeń kulturowych do algorytmów, systemów i zastosowań opartych na sztucznej inteligencji; wspiera tworzenie programów nauczania i podejmowanie działań na rzecz podnoszenia świadomości społecznej w zakresie społecznego, prawnego i etycznego wpływu sztucznej inteligencji; |
40. |
podkreśla kluczowe znaczenie zagwarantowania wolności myśli i wypowiedzi, zapewniając, by technologie te nie promowały mowy nienawiści ani przemocy; w związku z tym, uważa, że utrudnianie lub ograniczanie wolności wypowiedzi realizowanej przy pomocy środków cyfrowych jest niezgodne z prawem w świetle podstawowych zasad Unii, chyba że korzystanie z tego podstawowego prawa wiąże się z czynami niezgodnymi z prawem; |
41. |
podkreśla, że sztuczna inteligencja, robotyka i powiązane z nimi technologie mogą przyczynić się do zmniejszenia nierówności społecznych i stwierdza, że europejski model ich rozwoju musi opierać się na zaufaniu obywateli i większej spójności społecznej; |
42. |
podkreśla, że wdrożenie jakiegokolwiek systemu sztucznej inteligencji nie powinno nadmiernie ograniczać użytkownikom dostępu do usług publicznych, takich jak zabezpieczenie społeczne; w związku z tym wzywa Komisję do oceny, w jaki sposób można osiągnąć ten cel; |
43. |
podkreśla znaczenie odpowiedzialnych badań i rozwoju mających na celu maksymalizację pełnego potencjału sztucznej inteligencji, robotyki i powiązanych z nimi technologii dla obywateli i dobra publicznego; wzywa do mobilizacji zasobów Unii oraz państw członkowskich w celu opracowania i wsparcia odpowiedzialnej innowacyjności; |
44. |
podkreśla, że wraz z rosnącym znaczeniem umiejętności technologicznych konieczna będzie stała aktualizacja oferty edukacyjnej, zwłaszcza skierowanej do przyszłych pokoleń, i promowanie zmiany kwalifikacji osób, które są już na rynku pracy; uważa, że należy w związku z tym promować innowacje i szkolenie nie tylko w sektorze prywatnym, ale również publicznym; |
45. |
podkreśla, że opracowywanie, wdrażanie i wykorzystywanie tych technologii nie powinno powodować obrażeń ciała lub szkód dla osób fizycznych, społeczeństwa lub środowiska oraz że w związku z tym podmioty opracowujące, wdrażające i wykorzystujące te technologie powinno się pociągać do odpowiedzialności za takie obrażenia lub szkody zgodnie z odpowiednimi unijnymi i krajowymi przepisami dotyczącymi odpowiedzialności; |
46. |
wzywa państwa członkowskie do oceny, czy utrata miejsc pracy w wyniku zastosowania tych technologii powinna prowadzić do opracowania odpowiednich strategii polityki publicznej, takich jak skrócenie czasu pracy; |
47. |
utrzymuje, że projektowanie oparte na wartościach i zasadach etycznych Unii jest bardzo potrzebnym podejściem, aby stworzyć warunki dla powszechnej akceptacji społecznej sztucznej inteligencji, robotyki i powiązanych z nimi technologii; uważa, że podejście to mające na celu rozwój godnej zaufania, etycznie odpowiedzialnej i technicznie niezawodnej sztucznej inteligencji jest istotnym czynnikiem wspomagającym zrównoważoną, inteligentną, bezpieczną i dostępną mobilność; |
48. |
zwraca uwagę na dużą wartość dodaną pojazdów autonomicznych dla osób o ograniczonej możliwości poruszania się, ponieważ takie pojazdy umożliwiają tym osobom większy udział w indywidualnym transporcie drogowym, a tym samym ułatwiają im życie codzienne; podkreśla znaczenie dostępności, szczególnie przy projektowaniu systemów MaaS (mobilność jako usługa); |
49. |
wzywa Komisję, aby nadal wspierała rozwój godnych zaufania systemów AI w celu zwiększenia bezpieczeństwa, efektywności, dostępności, przystępności cenowej i inkluzywności transportu, w tym dla osób o ograniczonej możliwości poruszania się, zwłaszcza osób z niepełnosprawnościami, z uwzględnieniem dyrektywy Parlamentu Europejskiego i Rady (UE) 2019/882 (13) oraz przepisów unijnych dotyczących praw pasażerów; |
50. |
uważa, że AI może pomóc w lepszym korzystaniu z umiejętności i kompetencji osób z niepełnosprawnościami oraz że stosowanie AI w miejscu pracy może sprzyjać inkluzywnym rynkom pracy oraz wzrostowi wskaźników zatrudnienia osób z niepełnosprawnościami; |
Środowisko i zrównoważony rozwój
51. |
stwierdza, że rządy i przedsiębiorstwa powinny wykorzystywać sztuczną inteligencję, robotykę i powiązane z nimi technologie, aby przynosić korzyści ludziom i planecie, przyczyniać się do osiągnięcia zrównoważonego rozwoju, ochrony środowiska, neutralności klimatycznej i celów gospodarki o obiegu zamkniętym; opracowywanie, wdrażanie i wykorzystywanie tych technologii powinno przyczyniać się do transformacji ekologicznej, chronić środowisko oraz minimalizować i naprawiać wszelkie szkody dla środowiska w ciągu cyklu życia tych technologii i w całym związanym z nimi łańcuchu wartości zgodnie z prawem Unii; |
52. |
ze względu na ich znaczący wpływ na środowisko, do celów poprzedniego ustępu wpływ na środowisko naturalne związany z rozwojem, wdrażaniem i wykorzystywaniem sztucznej inteligencji, robotyki i powiązanych z nimi technologii mógłby być, w stosownych przypadkach i w razie potrzeby, oceniany przez organy sektorowe w całym cyklu życia tych technologii; ocena ta powinna mogłaby obejmować oszacowanie wpływu wydobycia niezbędnych surowców, zużycia energii i emisji gazów cieplarnianych wynikających z ich opracowywania, wdrażania i stosowania; |
53. |
proponuje, aby w celu opracowywania najnowocześniejszych odpowiedzialnych rozwiązań sztucznej inteligencji eksplorować, stymulować i maksymalnie zwiększać potencjał sztucznej inteligencji, robotyki i powiązanych z nimi technologii w drodze odpowiedzialnych badań i rozwoju, które wymagają mobilizacji zasobów Unii oraz państw członkowskich; |
54. |
podkreśla, że z opracowywaniem, wdrażaniem i wykorzystywaniem tych technologii wiążą się możliwości, jeśli chodzi o promowanie celów zrównoważonego rozwoju wyznaczonych przez Organizację Narodów Zjednoczonych, globalnej transformacji energetyki i dekarbonizacji; |
55. |
uważa, że cele odpowiedzialności społecznej, równouprawnienia płci, ochrony środowiska i zrównoważonego rozwoju należy realizować bez uszczerbku dla istniejących obowiązków ogólnych i sektorowych w tych dziedzinach; uważa, że należy ustanowić niewiążące wytyczne dotyczące wdrażania dla podmiotów opracowujących, wdrażających i użytkowników, zwłaszcza technologii wysokiego ryzyka, dotyczące metodologii oceny ich zgodności z niniejszym rozporządzeniem oraz osiągnięcia tych celów; |
56. |
apeluje do Unii, by w drodze stosowania podatków, udzielania zamówień lub innych zachęt promowała i finansowała opracowywanie ukierunkowanych na człowieka zastosowań sztucznej inteligencji, robotyki i powiązanych z nimi technologii, które odpowiadają na wyzwania związane ze środowiskiem i klimatem oraz zapewniają poszanowanie praw podstawowych; |
57. |
podkreśla, że pomimo obecnego silnego śladu węglowego opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym zautomatyzowanych decyzji i uczenia się maszyn, technologie te mogą przyczynić się do zmniejszenia obecnego śladu środowiskowego sektora ICT; podkreśla, że te i inne odpowiednio regulowane pokrewne technologie powinny być kluczowymi czynnikami umożliwiającymi osiągnięcie celów Zielonego Ładu, celów zrównoważonego rozwoju ONZ i porozumienia paryskiego w wielu różnych sektorach oraz powinny zwiększyć wpływ polityki zapewniającej ochronę środowiska, np. w zakresie strategii politycznych dotyczących ograniczania ilości odpadów i degradacji środowiska; |
58. |
wzywa Komisję do przeprowadzenia badania na temat wpływu śladu węglowego AI oraz pozytywnych i negatywnych skutków przejścia na stosowanie technologii AI przez konsumentów; |
59. |
zauważa, że biorąc pod uwagę coraz bardziej intensywny rozwój zastosowań AI, które wymagają zasobów obliczeniowych, środków gromadzenia i zasobów energetycznych, wpływ systemów AI na środowisko powinien być brany pod uwagę w całym ich cyklu życia; |
60. |
uważa, że w dziedzinach takich jak zdrowie, odpowiedzialność musi ostatecznie spoczywać na osobie fizycznej lub prawnej; podkreśla potrzebę identyfikowalnych i publicznie dostępnych danych treningowych dla algorytmów; |
61. |
zdecydowanie popiera utworzenie europejskiej przestrzeni danych dotyczących zdrowia zaproponowanej przez Komisję w jej komunikacie w sprawie europejskiej strategii w zakresie danych, która ma na celu promowanie wymiany danych dotyczących zdrowia oraz wspieranie badań z pełnym poszanowaniem ochrony danych, w tym przetwarzania danych za pomocą technologii AI, a także wzmocnienie i rozszerzenie wykorzystania i ponownego wykorzystania danych dotyczących zdrowia; zachęca do zwiększenia skali transgranicznej wymiany danych dotyczących zdrowia, powiązania i wykorzystywania takich danych poprzez bezpieczne, skoordynowane repozytoria szczególnego rodzaju informacji dotyczących zdrowia, takich jak europejskie rejestry zdrowia (EHR), dane genomowe i cyfrowe obrazy medyczne, aby ułatwić funkcjonowanie ogólnoeuropejskich interoperacyjnych rejestrów lub baz danych w dziedzinach takich jak badania, nauka i sektory zdrowia; |
62. |
podkreśla korzyści, jakie przynosi AI w dziedzinie zapobiegania chorobom, ich leczenia i kontroli, czego przykładem może być fakt, iż AI przewidziała epidemię COVID-19 przed WHO; wzywa Komisję, aby zapewniła ECDC odpowiednie ramy regulacyjne i zasoby umożliwiające niezależne gromadzenie niezbędnych zanonimizowanych i globalnych danych w czasie rzeczywistym, we współpracy z państwami członkowskimi, między innymi w celu rozwiązania problemów ujawnionych w związku z pandemią COVID-19; |
Prywatność i biometria
63. |
zauważa dynamiczny wzrost generowania i wykorzystywania danych, w tym danych osobowych, takich jak dane biometryczne, w następstwie opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii, a w związku z tym podkreśla potrzebę poszanowania praw obywateli do prywatności i ochrony danych osobowych zgodnie z prawem Unii; |
64. |
zwraca uwagę, że możliwości oferowane przez te technologie w zakresie wykorzystywania danych osobowych i nieosobowych do kategoryzacji i mikrotargetowania osób, określania słabych stron poszczególnych osób lub wykorzystywania precyzyjnej wiedzy predykcyjnej należy równoważyć skutecznie egzekwowanymi zasadami ochrony danych i prywatności, takimi jak zasada minimalizacji danych, prawa do sprzeciwu względem profilowania i kontroli nad własnymi danymi, prawa do uzyskania wyjaśnienia decyzji opartej na zautomatyzowanym przetwarzaniu oraz uwzględnienia ochrony prywatności już w fazie projektowania, a także zasadami proporcjonalności, konieczności i jasno określonej celowości zgodnie z RODO; |
65. |
podkreśla, że gdy technologie zdalnego rozpoznawania, takie jak rozpoznawanie identyfikatorów biometrycznych, w szczególności rozpoznawanie twarzy, są wykorzystywane przez organy publiczne do celów istotnego interesu publicznego, ich wykorzystywanie powinno zawsze być ujawniane, proporcjonalne, ukierunkowane i ograniczone do konkretnych celów, ograniczone w czasie i przeprowadzane zgodnie z prawem Unii, z należytym poszanowaniem ludzkiej godności i autonomii oraz praw podstawowych określonych w Karcie praw podstawowych; kryteria i ograniczenia ich wykorzystywania powinny podlegać kontroli sądowej i nadzorowi demokratycznemu, a także powinny uwzględniać ich oddziaływanie psychologiczne i społeczno-kulturowe; |
66. |
zwraca uwagę, że choć z wdrażania sztucznej inteligencji, robotyki i powiązanych z nimi technologii w ramach decyzji władz publicznych płyną korzyści, możliwe są także poważne nadużycia, takie jak masowa inwigilacja, prewencja policyjna i naruszenia praw procesowych; |
67. |
uważa, że technologie zdolne do podejmowania zautomatyzowanych decyzji, a tym samym mogące zastąpić podejmowanie decyzji przez organy publiczne, należy traktować z największą ostrożnością, szczególnie w dziedzinie sprawiedliwości i egzekwowania prawa; |
68. |
uważa, że państwa członkowskie powinny decydować się na stosowanie tych technologii tylko wówczas, gdy istnieją solidne dowody na ich wiarygodność oraz gdy możliwa jest istotna interwencja lub weryfikacja ze strony człowieka lub przeprowadza się je systematycznie w przypadkach zagrożenia dla praw podstawowych; podkreśla znaczenie przeprowadzania przez organy krajowe skrupulatnych ocen skutków dla praw podstawowych w odniesieniu do systemów sztucznej inteligencji wdrażanych w takich przypadkach, zwłaszcza gdy technologie te uznane zostały za obarczone wysokim ryzykiem; |
69. |
jest zdania, że każda decyzja podjęta przez technologię sztucznej inteligencji, robotyki i powiązanych z nimi technologii w ramach uprawnień władzy publicznej powinna podlegać istotnej interwencji ze strony człowieka i rzetelnym procedurom, zwłaszcza gdy technologie te uznane zostały za obarczone wysokim ryzykiem; |
70. |
uważa, że postęp technologiczny nie powinien prowadzić do wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii do samodzielnego podejmowania decyzji w sektorze publicznym, które mają bezpośredni i znaczący wpływ na prawa i obowiązki obywateli; |
71. |
zauważa, że sztuczna inteligencja, robotyka i powiązane z nimi technologie w obszarze egzekwowania prawa i kontroli granic mogą zwiększyć bezpieczeństwo publiczne, ale również wymagają szerokiej i rygorystycznej kontroli publicznej oraz najwyższego możliwego poziomu przejrzystości zarówno w odniesieniu do oceny ryzyka poszczególnych zastosowań, jak i ogólnego przeglądu wykorzystania sztucznej inteligencji, robotyki i powiązanych z nimi technologii w obszarze egzekwowania prawa i kontroli granic; uważa, że takie technologie wiążą się ze znacznym ryzykiem etycznym, z którym należy sobie odpowiednio poradzić, biorąc pod uwagę możliwe niekorzystne skutki dla obywateli, w szczególności ich prawa do prywatności, ochrony danych i niedyskryminacji; podkreśla, że nadużywanie tych technologii może stać się bezpośrednim zagrożeniem dla demokracji, a ich wdrażanie i stosowanie musi odbywać się z poszanowaniem zasad proporcjonalności i konieczności, Karty praw podstawowych i odpowiedniego prawa wtórnego Unii, takiego jak unijne przepisy o ochronie danych; podkreśla, że sztuczna inteligencja nigdy nie powinna zastępować człowieka przy wydawaniu wyroków; uważa, że decyzje takie jak zwolnienie za kaucją, zawieszenie wyroku, umożliwienie wysłuchania przed sądem czy decyzje oparte wyłącznie na automatycznym przetwarzaniu danych, wywołujące skutek prawny w odniesieniu do osoby lub mające na nią istotny wpływ, muszą zawsze obejmować wnikliwą ocenę i osąd ze strony człowieka; |
Dobre zarządzanie
72. |
podkreśla, że odpowiednie zarządzanie opracowywaniem, wdrażaniem i wykorzystywaniem sztucznej inteligencji, robotyki i powiązanych z nimi technologii, zwłaszcza technologii wysokiego ryzyka, przez wdrożenie środków ukierunkowanych na rozliczalność i wyeliminowanie potencjalnego ryzyka nierównego traktowania i dyskryminacji, może zwiększyć bezpieczeństwo obywateli oraz ich zaufanie do tych technologii; |
73. |
uważa, że wspólne ramy zarządzania tymi technologiami, koordynowane przez Komisję i/lub wszelkie właściwe instytucje, organy, urzędy lub agencje Unii, które mogą być wyznaczone do tego zadania w tym kontekście, wdrażane przez krajowe organy nadzoru w każdym państwie członkowskim, zapewniłyby spójne unijne podejście i zapobiegłyby rozdrobnieniu jednolitego rynku; |
74. |
zauważa, że w rozwoju sztucznej inteligencji, robotyki i powiązanych z nimi technologii wykorzystywane są duże ilości danych oraz że przetwarzanie, wymianę i korzystanie z takich danych oraz dostęp do nich należy uregulować zgodnie z przepisami prawa oraz określonymi w nich wymogami dotyczącymi jakości, integralności, interoperacyjności, przejrzystości, bezpieczeństwa, prywatności i kontroli; |
75. |
przypomina, że dostęp do danych stanowi niezbędny element rozwoju gospodarki cyfrowej; zwraca w związku z tym uwagę, że interoperacyjność danych, dzięki ograniczaniu efektu blokady technologicznej, odgrywa kluczową rolę w zapewnianiu sprawiedliwych warunków rynkowych i promowaniu równości szans na jednolitym rynku cyfrowym; |
76. |
podkreśla potrzebę zapewnienia odpowiedniej ochrony danych osobowych, w szczególności danych należących do słabszych grup społecznych lub ich dotyczących, takich jak osoby niepełnosprawne, pacjenci, dzieci, osoby starsze, mniejszości, migranci i inne grupy zagrożone wykluczeniem; |
77. |
zauważa, że opracowywanie, wdrażanie i wykorzystywanie przez organy publiczne sztucznej inteligencji, robotyki i powiązanych z nimi technologii bywa często zlecane podmiotom prywatnym w ramach outsourcingu; wyraża przekonanie, że nie powinno to w żaden sposób narażać na szwank ochrony wartości publicznych i praw podstawowych; uważa, że warunki udzielania zamówień publicznych powinny w stosownych przypadkach odzwierciedlać normy etyczne obowiązujące organy publiczne; |
Konsumenci i rynek wewnętrzny
78. |
podkreśla, że istotne jest, by ramy regulacyjne dotyczące sztucznej inteligencji miały zastosowanie, gdy konsumenci w Unii są użytkownikami systemu algorytmicznego, są objęci systemem algorytmicznym, taki system jest na nich ukierunkowany lub są kierowani do systemu algorytmicznego, niezależnie od miejsca prowadzenia działalności przez podmioty opracowujące, sprzedające lub wykorzystujące ten system; uważa ponadto, że w trosce o pewność prawa ustalone zasady powinny być stosowane w odniesieniu do wszystkich podmiotów opracowujących i w całym łańcuchu wartości, a mianowicie na etapach opracowywania, wdrażania i wykorzystywania odpowiednich technologii i ich elementów, a także powinny gwarantować najwyższy poziom ochrony konsumentów; |
79. |
zauważa nieodłączny związek między sztuczną inteligencją, robotyką i powiązanymi z nimi technologiami, w tym oprogramowaniem, algorytmami oraz danymi wykorzystywanymi lub generowanymi przez te technologie, a dziedzinami takimi jak internet rzeczy, uczenie się maszyn, systemy oparte na zasadach lub zautomatyzowane i wspomagane procesy decyzyjne; zauważa ponadto, że można opracować standardowe znaki graficzne, aby pomagać w wyjaśnianiu konsumentom tych systemów, gdy są one skomplikowane lub podejmują decyzje mające znaczący wpływ na ich życie; |
80. |
przypomina, że Komisja powinna przeanalizować istniejące ramy prawne i ich stosowanie, w tym dorobek w zakresie prawa ochrony konsumentów, przepisy dotyczące odpowiedzialności za produkt, przepisy dotyczące bezpieczeństwa produktów oraz przepisy dotyczące nadzoru rynku, w celu zidentyfikowania luk prawnych, a także istniejących obowiązków regulacyjnych; uważa, że jest to konieczne w celu stwierdzenia, czy są one w stanie reagować na nowe wyzwania związane z pojawieniem się sztucznej inteligencji, robotyki i powiązanych z nimi technologii oraz czy są one w stanie zapewnić wysoki poziom ochrony konsumentów; |
81. |
podkreśla potrzebę skutecznego sprostania wyzwaniom, jakie stwarzają sztuczna inteligencja, robotyka i powiązane z nimi technologie, oraz zapewnienia konsumentom mocnej pozycji i odpowiedniej ochrony; podkreśla potrzebę wyjścia poza tradycyjne zasady informowania i ujawniania informacji, na których opiera się dorobek prawny w dziedzinie ochrony konsumentów, ponieważ silniejsze prawa konsumentów oraz wyraźne ograniczenia dotyczące opracowywania, wdrażania i stosowania sztucznej inteligencji będą konieczne, aby zagwarantować, że technologia ta przyczyni się do poprawy życia konsumentów i będzie ewoluować w sposób respektujący prawa podstawowe i prawa konsumentów oraz wartości unijne; |
82. |
zwraca uwagę, że ramy prawne wprowadzone decyzją nr 768/2008/WE (14) zawierają zharmonizowany wykaz obowiązków ciążących na producentach, importerach i dystrybutorach, zachęcają do stosowania norm i przewidują kilka poziomów kontroli w zależności od rodzaju zagrożenia stwarzanego przez dany produkt; uważa, że ramy te powinny mieć zastosowanie również do produktów z wbudowaną sztuczną inteligencją; |
83. |
zauważa, że w celu przeanalizowania wpływu sztucznej inteligencji, robotyki i powiązanych z nimi technologii na konsumentów dostęp do danych mógłby zostać rozszerzony na właściwe organy krajowe, przy pełnym poszanowaniu prawa Unii, takiego jak prawo dotyczące ochrony danych, prywatności i tajemnic handlowych; przypomina o znaczeniu edukowania konsumentów, aby byli lepiej poinformowani i posiadali większe umiejętności, kiedy posługują się sztuczną inteligencją, w celu chronienia ich przed potencjalnymi zagrożeniami i zapewnienia poszanowania ich praw; |
84. |
wzywa Komisję do zaproponowania środków umożliwiających identyfikowalność danych, mając na uwadze zarówno legalność pozyskiwania danych, jak i ochronę praw konsumentów i praw podstawowych, przy pełnym poszanowaniu prawa Unii, takiego jak prawo dotyczące ochrony danych, prywatności, praw własności intelektualnej i tajemnic handlowych; |
85. |
zauważa, że technologie te powinny być ukierunkowane na użytkownika i zaprojektowane w sposób umożliwiający wszystkim korzystanie z produktów lub usług opartych na sztucznej inteligencji, niezależnie od wieku, płci, umiejętności czy cech charakterystycznych; zauważa, że szczególne znaczenie ma ich dostępność dla osób z niepełnosprawnościami; zauważa, że nie powinno się stosować ujednolicającego podejścia, lecz że należy uwzględnić zasady projektowania dla wszystkich skierowane do możliwie najszerszego kręgu użytkowników, zgodnie z odpowiednimi normami dostępności; podkreśla, że umożliwi to ludziom sprawiedliwy dostęp do istniejącej i nowo powstającej działalności człowieka prowadzonej przy użyciu komputera i technologii wspomagających oraz aktywny w nich udział; |
86. |
podkreśla, że jeżeli opracowywanie, wdrażanie lub stosowanie sztucznej inteligencji, robotyki lub powiązanych z nimi technologii jest w znaczącej mierze finansowane z pieniędzy pochodzących ze źródeł publicznych, obok norm otwartych procedur przetargowych i otwartych zamówień, wówczas domyślnie kod, wygenerowane dane – o ile nie są to dane osobowe – i wytrenowany model mogłyby zostać upublicznione za zgodą podmiotu opracowującego, aby zagwarantować przejrzystość, zwiększyć cyberbezpieczeństwo i umożliwić ich ponowne wykorzystanie w celu wspierania innowacji; podkreśla, że w ten sposób można uwolnić pełen potencjał jednolitego rynku, unikając jego fragmentacji; |
87. |
uważa, że sztuczna inteligencja, robotyka i powiązane z nimi technologie mają ogromny potencjał, aby zapewnić konsumentom dostęp do wielu udogodnień w wielu aspektach ich życia za sprawą lepszych produktów i usług, a także aby umożliwić im korzystanie z lepszego nadzoru rynku, o ile nadal będą obowiązywać wszystkie mające zastosowanie zasady, warunki (w tym przejrzystość i możliwość kontroli) i przepisy; |
Bezpieczeństwo i obrona
88. |
podkreśla, że polityka bezpieczeństwa i obrony Unii Europejskiej i jej państw członkowskich opiera się na zasadach zapisanych w europejskiej Karcie i zasadach Karty Narodów Zjednoczonych oraz na wspólnym rozumieniu uniwersalnych wartości nienaruszalnych i niezbywalnych praw człowieka, godności ludzkiej, wolności, demokracji, równości i państwa prawa; podkreśla, że we wszystkich działaniach związanych z obronnością w ramach Unii Europejskiej należy przestrzegać tych uniwersalnych wartości, jednocześnie wspierając pokój, bezpieczeństwo oraz postęp w Europie i na świecie; |
89. |
przyjmuje z zadowoleniem fakt, że w 2019 r. podczas posiedzenia Wysokich Umawiających się Stron Konwencji o zakazie lub ograniczeniu użycia pewnych broni konwencjonalnych (konwencji CCW) zatwierdzono 11 zasad przewodnich dotyczących opracowywania autonomicznych systemów uzbrojenia i korzystania z nich; ubolewa jednak nad brakiem porozumienia w sprawie wiążących prawnie instrumentów regulujących autonomiczne śmiercionośne systemy uzbrojenia (LAWS) ze skutecznymi mechanizmami egzekwowania; przyjmuje z zadowoleniem i popiera sprawozdanie Komisji grupę ekspertów wysokiego szczebla ds. sztucznej inteligencji pt. „Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji” opublikowane 9 kwietnia 2019 r. oraz jej stanowisko w sprawie autonomicznych śmiercionośnych systemów uzbrojenia; wzywa państwa członkowskie do opracowania krajowych strategii na rzecz zdefiniowania i statusu autonomicznych śmiercionośnych systemów uzbrojenia (LAWS) z myślą o kompleksowej strategii na szczeblu Unii oraz do promowania, wraz z wiceprzewodniczącym Komisji / wysokim przedstawicielem i Radą dyskusji w sprawie LAWS w ramach konwencji CCW ONZ i na innych odpowiednich forach oraz do ustanowienia międzynarodowych norm dotyczących etycznych i prawnych parametrów opracowywania i stosowania w pełni autonomicznych, półautonomicznych i zdalnie sterowanych śmiercionośnych systemów uzbrojenia; przypomina w tym kontekście swoją rezolucję z 12 września 2018 r. w sprawie autonomicznych systemów uzbrojenia i apeluje po raz kolejny o pilne opracowanie i przyjęcie wspólnego stanowiska w sprawie autonomicznych śmiercionośnych systemów uzbrojenia, o międzynarodowy zakaz opracowywania, produkcji i stosowania autonomicznych śmiercionośnych systemów uzbrojenia pozwalających na przeprowadzanie ataków bez istotnej ludzkiej kontroli i bez przestrzegania zasady udziału czynnika ludzkiego, zgodnie ze stanowiskiem najważniejszych badaczy AI na świecie wyrażonym w liście otwartym z 2015 r.; przyjmuje z zadowoleniem porozumienie Rady i Parlamentu w sprawie wyłączenia autonomicznej śmiercionośnej broni „bez możliwości istotnej ludzkiej kontroli nad decyzjami o wyborze i zaangażowaniu podczas przeprowadzania ataków” z działań finansowanych w ramach Europejskiego Funduszu Obrony (EFO); twierdzi, że nie wolno pomijać aspektów etycznych innych obszarów zastosowań AI w sektorze obronności, takich jak wywiad, obserwacja i rozpoznanie lub cyberoperacje oraz że należy zwrócić szczególną uwagę na opracowywanie i wykorzystywanie dronów w operacjach wojskowych; |
90. |
podkreśla, że powstające technologie w sektorze obrony i bezpieczeństwa nieobjęte prawem międzynarodowym powinny być oceniane w świetle przestrzegania zasady humanitaryzmu i dyktatu sumienia publicznego; |
91. |
zaleca, by wszelkie unijne ramy regulujące wykorzystanie w dziedzinie obronności, zarówno w sytuacjach bojowych, jak i niebojowych, systemów opartych na AI przestrzegały wszystkich obowiązujących systemów prawnych, w szczególności międzynarodowego prawa humanitarnego i międzynarodowego prawa dotyczącego praw człowieka, a także były zgodne z prawem, zasadami i wartościami Unii, z uwzględnieniem rozbieżności dotyczących infrastruktury technicznej i infrastruktury bezpieczeństwa w Unii; |
92. |
uznaje, że w przeciwieństwie do baz przemysłowych w dziedzinie obronności kluczowe innowacje w dziedzinie AI mogą pochodzić z mniejszych państw członkowskich, a zatem ustandaryzowane podejście w zakresie WPBiO powinno zapewniać, by mniejsze państwa członkowskie i MŚP nie były wypierane; podkreśla, że zestaw wspólnych unijnych zdolności w zakresie AI, dopasowany do koncepcji działania państw członkowskich, może wypełnić luki techniczne, które mogłyby sprawić, że państwa bez odpowiedniej technologii, branżowej wiedzy specjalistycznej lub możliwości wdrożenia systemów AI w swoich ministerstwach obrony pozostawałyby w tyle; |
93. |
uważa, że obecne i przyszłe działania związane z bezpieczeństwem i obronnością w ramach Unii będą się opierać na AI, robotyce i autonomii, a także na powiązanych technologiach, a wiarygodna, niezawodna i godna zaufania AI może przyczynić się do powstania nowoczesnego i skutecznego wojska; Unia musi zatem przyjąć wiodącą rolę w badaniach nad systemami AI w dziedzinie bezpieczeństwa i obronności oraz w ich rozwoju; uważa, że stosowanie w dziedzinie bezpieczeństwa i obronności aplikacji wykorzystujących AI może oferować szereg bezpośrednich korzyści dowodzącemu operacjami, takich jak wyższa jakość gromadzonych danych, lepsza orientacja sytuacyjna, większa szybkość podejmowania decyzji, ograniczenie ryzyka strat pobocznych dzięki lepszym połączeniom, ochrona sił w terenie, a także większa niezawodność sprzętu wojskowego, co oznacza mniejsze ryzyko dla ludzi i mniejszą liczbę ofiar w ludziach; podkreśla, że rozwój niezawodnej AI w dziedzinie obronności jest niezbędny do zapewnienia europejskiej autonomii strategicznej w zakresie zdolności i działalności operacyjnej; przypomina, że systemy AI stają się również kluczowymi elementami w przeciwdziałaniu pojawiającym się zagrożeniom dla bezpieczeństwa, takim jak wojna hybrydowa i cyberwojna, zarówno w sferze online, jak i offline; podkreśla jednocześnie wszystkie zagrożenia i wyzwania związane z nieuregulowanym stosowaniem AI; odnotowuje jednak, że AI może być poddana manipulacji, narażona na błędy i niedokładności; |
94. |
podkreśla, że technologie AI są w zasadzie technologiami podwójnego zastosowania, a rozwój AI w działaniach w dziedzinie obronności korzysta na wymianie między technologiami wojskowymi a cywilnymi; podkreśla, że zastosowanie AI w działaniach związanych z obronnością jest przełomową technologią o charakterze przekrojowym, której rozwój może zapewnić możliwości w zakresie konkurencyjności i autonomii strategicznej Unii; |
95. |
uznaje w kontekście dzisiejszej wojny hybrydowej i zaawansowanych działań zbrojnych, że objętość informacji i tempo ich napływania na wczesnych etapach kryzysu może przerosnąć ludzkich analityków, a system AI mógłby przetwarzać informacje w sposób gwarantujący, by ludzcy decydenci śledzili pełny zakres informacji w odpowiednim czasie umożliwiającym szybką odpowiedź; |
96. |
podkreśla znaczenie inwestycji w rozwój kapitału ludzkiego w zakresie sztucznej inteligencji, rozwoju koniecznych umiejętności i edukacji w obszarze technologii AI stosowanych w dziedzinie bezpieczeństwa i obronności, ze szczególnym uwzględnieniem kwestii etycznych związanych z półautonomicznymi i autonomicznymi systemami operacyjnymi w oparciu o rozliczalność człowieka w świecie wykorzystującym sztuczną inteligencję; podkreśla w szczególności, jak ważne jest, by etycy zajmujący się tą dziedziną mieli odpowiednie umiejętności i przeszli odpowiednie szkolenia; apeluje do Komisji, by jak najszybciej zaprezentowała swoją agendę wzmacniania umiejętności, ogłoszoną w białej księdze w sprawie sztucznej inteligencji z 19 lutego 2020 r.; |
97. |
podkreśla, że kwantowe technologie obliczeniowe mogą oznaczać najbardziej rewolucyjną zmianę w prowadzeniu konfliktów od wynalazku broni jądrowej, i w związku z tym apeluje, by dalszy rozwój kwantowych technologii obliczeniowych stał się priorytetem Unii i państw członkowskich; uznaje, że napaści zbrojne, w tym ataki na infrastrukturę krytyczną, przy użyciu kwantowych technologii obliczeniowych stworzą środowisko konfliktu, w którym dramatycznie skróci się czas na podjęcie decyzji – od dni i godzin do minut i sekund – co wymusi na państwach członkowskich rozwój zdolności do ochrony i wyszkolenia zarówno decydentów, jak i personelu wojskowego w zakresie skutecznej odpowiedzi w takich ramach czasowych; |
98. |
domaga się zwiększonych inwestycji w europejską AI w obszarze obronności oraz we wspierającą ją infrastrukturę krytyczną; |
99. |
przypomina, że większość obecnych sił wojskowych na świecie już podjęła znaczne wysiłki w obszarze badań i rozwoju związanych z wojskowymi aspektami AI; uważa, że Unia musi zadbać o to, by nie pozostać pod tym względem w tyle; |
100. |
apeluje do Komisji, by zawarła budowanie zdolności w zakresie cyberbezpieczeństwa w swojej polityce przemysłowej w celu zapewnienia, by rozwijano i realizowano bezpieczne, odporne i niezawodne systemy wykorzystujące AI i systemy robotyczne; wzywa Komisję do zbadania wykorzystania protokołów i rozwiązań z zakresu cyberbezpieczeństwa opartych na łańcuchach bloków w celu poprawy odporności, wiarygodności i niezawodności infrastruktur sztucznej inteligencji dzięki bezpośrednim modelom szyfrowania danych; zachęca europejskie zainteresowane strony, by prowadziły badania naukowe i inżynieryjne nad zaawansowanymi funkcjami pomagającymi w wykrywaniu uszkodzonych lub złośliwych systemów wykorzystujących AI oraz systemów robotycznych, które mogłyby naruszyć bezpieczeństwo Unii i jej obywateli; |
101. |
podkreśla, że wszystkie systemy AI w dziedzinie obronności muszą mieć konkretne i dobrze zdefiniowane ramy misji, zgodnie z którymi ludzie zachowują sprawczość w zakresie wykrywania, wyłączania lub dezaktywowania wdrożonych systemów w przypadku przekroczenia przez nie ram misji określonych i zleconych przez ludzkie dowództwo lub w przypadku podjęcia jakichkolwiek kroków nastawionych na eskalację, bądź też niezamierzonych działań; uważa, że systemy, produkty i technologie wykorzystujące AI opracowane do użytku wojskowego powinny zawierać „czarną skrzynkę” rejestrującą wszystkie działania na danych przeprowadzane przez maszynę; |
102. |
podkreśla, że cała odpowiedzialność i rozliczalność za decyzję o projektowaniu, rozwijaniu, wdrażaniu i zastosowaniu systemów AI musi spoczywać na ludziach, to ludzie muszą zapewniać istotne monitorowanie wszelkich systemów uzbrojenia i istotną ich kontrolę, a decyzji o użyciu siły przy wprowadzaniu w życie decyzji podjętej przez system broni oparty na AI, która mogłaby mieć śmiertelne skutki, musi towarzyszyć zamiar ludzki; podkreśla, że ludzka kontrola powinna nadal mieć zastosowanie w odniesieniu do dowodzenia i kontroli systemów wykorzystujących AI, zgodnie z zasadą ludzkiej interwencji, człowieka w pętli decyzyjnej i zasadą nadzoru przez człowieka na szczeblu dowództwa wojskowego; podkreśla, że systemy AI muszą umożliwiać wojskowym dowódcom sił zbrojnych przyjęcie pełnej odpowiedzialności i rozliczalności za użycie śmiercionośnej siły oraz niezbędną zdolność oceny sytuacji, której nie można powierzać maszynom, gdyż musi się ona opierać się na rozróżnieniu, proporcjonalności i ostrożności, w odniesieniu do podejmowania przez te systemy śmiercionośnych lub zakrojonych na szeroką skalę działań destrukcyjnych; podkreśla, że należy ustalić ramy jasnych i identyfikowalnych zezwoleń i rozliczalności w odniesieniu do wykorzystywania inteligentnej broni i innych systemów wykorzystujących AI, w których używa się unikalnych cech użytkownika, na przykład charakterystyk biometrycznych, by z broni tej mógł korzystać tylko upoważniony personel; |
Transport
103. |
podkreśla potencjał, jaki ma wykorzystanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii dla wszystkich autonomicznych środków transportu drogowego, kolejowego, wodnego i lotniczego, a także dla wsparcia przesunięcia międzygałęziowego i intermodalności, gdyż takie technologie mogą przyczynić się do znalezienia optymalnej kombinacji rodzajów transportu w przewozie towarów i pasażerów; ponadto podkreśla, że technologie te mogą zwiększyć efektywność transportu, logistyki i strumieni ruchu oraz sprawić, że wszystkie rodzaje transportu staną się bezpieczniejsze, inteligentniejsze i bardziej przyjazne dla środowiska; zauważa, że etyczne podejście do AI można również postrzegać jako system wczesnego ostrzegania, w szczególności jeśli chodzi o bezpieczeństwo i efektywność transportu; |
104. |
podkreśla, że globalna konkurencja między przedsiębiorstwami i regionami gospodarczymi oznacza, że Unia musi promować inwestycje i wzmacniać międzynarodową konkurencyjność przedsiębiorstw działających w sektorze transportu, tworząc środowisko sprzyjające rozwojowi i stosowaniu rozwiązań w zakresie AI i dalszym innowacjom, w którym przedsiębiorstwa unijne będą mogły stać się światowymi liderami rozwoju technologii AI; |
105. |
podkreśla, że unijny sektor transportu potrzebuje aktualizacji ram regulacyjnych dotyczących takich nowo powstających technologii oraz ich wykorzystania w sektorze transportu, a także jasnych ram etycznych dla stworzenia godnej zaufania AI, które obejmują aspekty bezpieczeństwa, ochrony, poszanowania ludzkiej autonomii, nadzoru i odpowiedzialności i które zwiększą korzyści wspólne dla wszystkich i będą zasadniczym czynnikiem pobudzającym inwestycje w badania i innowacje, rozwój umiejętności i wykorzystanie AI przez służby publiczne, MŚP, start-upy i przedsiębiorstwa, a jednocześnie zapewnią ochronę danych i interoperacyjność, bez nakładania zbędnych obciążeń administracyjnych na przedsiębiorstwa i konsumentów; |
106. |
zauważa, że rozwój i wdrażanie AI w sektorze transportu nie będą możliwe bez nowoczesnej infrastruktury, która stanowi zasadniczy element inteligentnych systemów transportowych; podkreśla, że utrzymujące się różnice w poziomie rozwoju państw członkowskich stwarzają niebezpieczeństwo pozbawienia najsłabiej rozwiniętych regionów i ich mieszkańców korzyści wynikających z rozwoju autonomicznej mobilności; apeluje o odpowiednie finansowanie modernizacji infrastruktury transportowej w Unii, w tym o jej włączenie do sieci 5G; |
107. |
zaleca opracowanie godnych zaufania ogólnounijnych norm AI dla wszystkich rodzajów transportu, w tym dla przemysłu motoryzacyjnego, a także w zakresie testowania pojazdów wykorzystujących AI oraz powiązanych produktów i usług; |
108. |
zauważa, że systemy AI mogłyby przyczynić się do znacznego zmniejszenia liczby ofiar śmiertelnych na drogach, na przykład dzięki krótszemu czasowi reakcji i lepszemu przestrzeganiu przepisów; uważa jednak, że niemożliwe jest, by korzystanie z pojazdów autonomicznych spowodowało wyeliminowanie wszystkich wypadków, i podkreśla, że z tego powodu coraz bardziej istotna staje się wytłumaczalność decyzji AI, aby móc uzasadnić braki i niezamierzone konsekwencje decyzji AI; |
Zatrudnienie, prawa pracownicze, umiejętności cyfrowe i miejsce pracy
109. |
zauważa, że stosowanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii w miejscu pracy może sprzyjać inkluzywnym rynkom pracy oraz wpłynąć na bezpieczeństwo i higienę pracy, lecz jednocześnie może być ona wykorzystywana do monitorowania, oceny i przewidywania wydajności pracowników oraz sterowania nią, z bezpośrednimi i pośrednimi konsekwencjami dla ich kariery zawodowej; mając na uwadze, że AI powinna pozytywnie wpływać na warunki pracy i podlegać zasadzie poszanowania praw człowieka, a także podstawowych praw i wartości Unii; mając na uwadze, że AI powinna być ukierunkowana na człowieka, poprawiać dobrostan obywateli i społeczeństwa oraz przyczyniać się do uczciwej i sprawiedliwej transformacji; technologie takie powinny zatem pozytywnie wpływać na warunki pracy i podlegać zasadzie poszanowania praw człowieka, a także podstawowych praw i wartości Unii; |
110. |
podkreśla potrzebę rozwoju kompetencji przez szkolenie i kształcenie pracowników i ich przedstawicieli w zakresie AI w miejscu pracy z myślą o lepszym zrozumieniu skutków rozwiązań opartych na AI; zaznacza, że kandydaci i pracownicy powinni być należycie informowani na piśmie, że AI jest wykorzystywana w procedurach rekrutacji i przy podejmowaniu innych decyzji dotyczących zasobów kadrowych, oraz o tym, jak można w takim przypadku zwrócić się o weryfikację przez człowieka w celu uchylenia zautomatyzowanej decyzji; |
111. |
zaznacza, że należy zadbać o to, by wzrost wydajności wynikający z rozwoju i wykorzystywania AI i robotyki przynosił pożytek nie tylko właścicielom i udziałowcom przedsiębiorstw, lecz także przedsiębiorstwom i pracownikom, przez lepsze warunki pracy i zatrudnienia – w tym płace – oraz wzrost i rozwój gospodarczy, jak również służył ogółowi społeczeństwa, zwłaszcza gdy wzrost wydajności skutkuje spadkiem liczby miejsc pracy; wzywa państwa członkowskie, aby starannie zbadały potencjalny wpływ AI na rynek pracy i systemy zabezpieczenia społecznego oraz opracowały strategie określające, jak zapewnić długoterminową stabilność przez reformę podatków i składek, a także inne środki w razie spadku dochodów publicznych; |
112. |
podkreśla znaczenie inwestycji przedsiębiorstw w formalne i nieformalne szkolenie oraz uczenie się przez całe życie z myślą o wspieraniu sprawiedliwej transformacji w kierunku gospodarki cyfrowej; w tym kontekście zaznacza, że przedsiębiorstwa stosujące AI odpowiadają za zapewnienie wszystkim pracownikom odpowiednich możliwości przekwalifikowania się i podniesienia kwalifikacji, aby mogli oni nauczyć się, jak korzystać z narzędzi cyfrowych i pracować z cobotami i innymi nowymi technologiami, a tym samym dostosować się do zmieniających się potrzeb rynku pracy i utrzymać zatrudnienie; |
113. |
uważa, że w związku z tym należy zwrócić szczególną uwagę na nowe formy pracy, takie jak „fuchy” i praca za pośrednictwem platform internetowych, wynikające z zastosowania nowych technologii; podkreśla, że uregulowanie warunków telepracy w całej Unii oraz zapewnienie godnych warunków pracy i zatrudnienia w gospodarce cyfrowej, muszą również uwzględniać wpływ AI; wzywa Komisję, aby przeprowadziła w tej sprawie konsultacje z partnerami społecznymi, twórcami AI, środowiskiem naukowym i innymi zainteresowanymi podmiotami; |
114. |
podkreśla, że sztuczna inteligencja, robotyka i powiązane z nimi technologie nie mogą w żaden sposób wpływać na korzystanie z praw podstawowych uznawanych w państwach członkowskich i na szczeblu Unii, w tym z prawa do strajku bądź innych działań objętych szczególnymi systemami stosunków pracy w państwach członkowskich czy też ze swobody podejmowania strajku bądź wspomnianych działań, zgodnie z prawem krajowym i/lub praktyką krajową, ani wpływać na prawo do negocjowania, zawierania i egzekwowania układów zbiorowych lub do podejmowania działań zbiorowych zgodnie z prawem krajowym lub praktyką krajową; |
115. |
ponownie zwraca uwagę na znaczenie edukacji i kształcenia ustawicznego z myślą o rozwijaniu kwalifikacji niezbędnych w epoce cyfrowej oraz o przeciwdziałaniu wykluczeniu cyfrowemu; wzywa państwa członkowskie do inwestowania w wysokiej jakości elastyczne i inkluzywne systemy kształcenia, szkolenia zawodowego i uczenia się przez całe życie, a także w politykę przekwalifikowywania pracowników i podnoszenia ich kwalifikacji w sektorach, na które AI wywiera poważny wpływ; podkreśla, że obecnych i przyszłych pracowników należy wyposażyć w niezbędne umiejętności rozumowania werbalnego i matematycznego oraz umiejętności cyfrowe, a także kompetencje w zakresie nauk przyrodniczych, technologii, inżynierii i matematyki (STEM) oraz przekrojowe umiejętności miękkie, takie jak myślenie krytyczne, kreatywność i przedsiębiorczość; podkreśla, że specjalną uwagę należy zwrócić na włączenie grup znajdujących się w niekorzystnej sytuacji; |
116. |
przypomina, że sztuczna inteligencja, robotyka i powiązane z nimi technologie wykorzystywane w miejscu pracy muszą być powszechnie dostępne, zgodnie z zasadą projektowania dla wszystkich; |
Edukacja i kultura
117. |
podkreśla potrzebę opracowania kryteriów rozwoju, wdrażania i wykorzystywania AI, mając na uwadze ich wpływ na edukację, media, młodzież, badania naukowe oraz sektor kultury i sektor kreatywny, dzięki opracowaniu wskaźników i określeniu zasad dotyczących odpowiedzialnego pod względem etycznym i akceptowanego stosowania technologii AI w tych dziedzinach, w tym jasno określonego systemu odpowiedzialności za produkty powstałe w wyniku stosowania AI; |
118. |
zauważa, że każde dziecko ma prawo do wysokiej jakości edukacji publicznej na wszystkich poziomach; wzywa w związku z tym do opracowania, wdrożenia i stosowania wysokiej jakości systemów AI, które ułatwiają i zapewniają wysokiej jakości narzędzia edukacyjne dla wszystkich na wszystkich poziomach, oraz podkreśla, że wdrożenie nowych systemów AI w szkołach nie powinno prowadzić do pogłębiania przepaści cyfrowej w społeczeństwie; dostrzega ogromny potencjał, jaki AI i robotyka mogą stanowić dla edukacji; zauważa, że zindywidualizowane systemy uczenia się z wykorzystaniem AI nie powinny zastępować kontaktów edukacyjnych z udziałem nauczycieli oraz że tradycyjne formy kształcenia nie powinny pozostać w tyle, a jednocześnie przypomina, że należy zapewnić wsparcie finansowe, technologiczne i edukacyjne, w tym specjalistyczne szkolenia w zakresie technologii informacyjno-komunikacyjnych, nauczycielom pragnącym nabyć odpowiednie umiejętności w celu dostosowania się do zmian technologicznych i nie tylko wykorzystania potencjału sztucznej inteligencji, ale również zrozumienia jej ograniczeń; wzywa do opracowania na szczeblu Unii strategii celu przyczynienia się do transformacji i uaktualnienia naszych systemów edukacji, przygotowania naszych instytucji edukacyjnych na wszystkich poziomach oraz wyposażenia nauczycieli i uczniów w niezbędne umiejętności i zdolności; |
119. |
podkreśla, że instytucje oświatowe powinny wykorzystywać do celów edukacyjnych te systemy AI, które otrzymały europejski certyfikat zgodności z zasadami etycznymi; |
120. |
podkreśla, że możliwości oferowane przez cyfryzację i nowe technologie nie mogą prowadzić do ogólnej utraty miejsc pracy w sektorze kultury i sektorze kreatywnym, do zaniedbywania ochrony oryginałów i do ograniczania tradycyjnego dostępu do dziedzictwa kulturowego, do którego należy na równi zachęcać; zauważa, że systemy AI opracowane, wdrożone i wykorzystywane w Unii powinny odzwierciedlać jej różnorodność kulturową i wielojęzyczność; |
121. |
uznaje rosnący potencjał AI w dziedzinie informacji, mediów i platform internetowych, w tym jako narzędzia do walki z dezinformacją, zgodnie z prawem Unii; podkreśla, że jeżeli nie będzie ona regulowana, może również przynieść niepożądane skutki etyczne z powodu wykorzystywania tendencyjności danych i algorytmów, co może prowadzić do rozpowszechniania dezinformacji i tworzenia baniek informacyjnych; podkreśla znaczenie przejrzystości i rozliczalności algorytmów wykorzystywanych przez platformy udostępniania plików wideo oraz platformy oferujące strumieniowe transmisje wideo, aby zapewnić dostęp do zróżnicowanych pod względem kulturowym i językowym treści; |
Krajowe organy nadzoru
122. |
zwraca uwagę na wartość dodaną wyznaczenia w każdym państwie członkowskim krajowych organów nadzoru odpowiedzialnych za zapewnienie, ocenę i monitorowanie zgodności ze zobowiązaniami prawnymi i zasadami etycznymi w zakresie opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka, przyczyniając się w ten sposób do zapewnienia zgodności tych technologii z prawem i zasadami etycznymi; |
123. |
uważa, że od organów tych należy wymagać, aby nie powielały one swoich zadań, współpracowały z organami odpowiedzialnymi za wdrażanie prawodawstwa sektorowego, tak by identyfikować technologie wysokiego ryzyka z punktu widzenia etyki oraz nadzorować wdrażanie wymaganych i odpowiednich środków po zidentyfikowaniu takich technologii; |
124. |
wskazuje, że organy te powinny współpracować nie tylko między sobą, ale także z Komisją Europejską i innymi właściwymi instytucjami, organami i jednostkami organizacyjnymi Unii, aby zagwarantować spójne działania transgraniczne; |
125. |
sugeruje, aby w kontekście takiej współpracy opracowano wspólne kryteria i procedurę ubiegania się o wydanie europejskiego certyfikatu zgodności z zasadami etycznymi, w tym na wniosek dowolnego podmiotu opracowującego, wdrażającego lub wykorzystującego technologie nieuznawane za charakteryzujące się wysokim ryzykiem, który chciałby uzyskać poświadczenie pozytywnej oceny zgodności przeprowadzonej przez odpowiedni krajowy organ nadzoru; |
126. |
apeluje, aby do zadań tych organów należało wspieranie regularnej wymiany informacji ze społeczeństwem obywatelskim oraz innowacji w całej Unii przez zapewnianie pomocy badaczom, podmiotom opracowującym oraz innym odpowiednim zainteresowanym stronom, a także mniej zaawansowanym cyfrowo przedsiębiorstwom, w szczególności małym i średnim przedsiębiorstwom lub przedsiębiorstwom typu start-up, zwłaszcza w zakresie podnoszenia świadomości i wspierania opracowywania, wdrażania, szkolenia i pozyskiwania talentów, by zapewnić sprawny transfer technologii oraz dostęp do technologii, projektów, wyników i sieci; |
127. |
wzywa do zapewnienia przez każde państwo członkowskie wystarczającego finansowania wyznaczonych przez nie krajowych organów nadzoru oraz podkreśla potrzebę wzmocnienia krajowych organów nadzoru rynku pod względem zdolności, umiejętności i kompetencji, a także pod względem wiedzy na temat konkretnych zagrożeń związanych ze sztuczną inteligencją, robotyką i powiązanymi z nimi technologiami; |
Koordynacja na szczeblu Unii
128. |
podkreśla znaczenie koordynacji na szczeblu Unii ze strony Komisji i/lub wszelkich właściwych instytucji, organów, urzędów i agencji Unii, które mogą zostać wyznaczone w tym kontekście w celu uniknięcia fragmentacji i zapewnienia zharmonizowanego podejścia w całej Unii; uważa, że koordynacja powinna koncentrować się na uprawnieniach i działaniach krajowych organów nadzoru w każdym państwie członkowskim, o których mowa w poprzedniej części, a także na wymianie najlepszych praktyk między tymi organami i przyczynianiu się do współpracy w zakresie badań i rozwoju w tej dziedzinie w całej Unii; wzywa Komisję do oceny sytuacji i znalezienia najodpowiedniejszego rozwiązania dla ustrukturyzowania takiej koordynacji; przykładami odpowiednich istniejących instytucji, organów, urzędów i agencji Unii są Agencja Unii Europejskiej ds. Cyberbezpieczeństwa (ENISA), Europejski Inspektor Ochrony Danych i Europejski Rzecznik Praw Obywatelskich; |
129. |
uważa, że taka koordynacja, a także europejska certyfikacja zgodności z zasadami etycznymi, nie tylko przyniosłaby korzyści dla rozwoju unijnego przemysłu i unijnych innowacji w tym kontekście, ale także zwiększyłaby świadomość obywateli co do możliwości i zagrożeń związanych z tymi technologiami; |
130. |
sugeruje utworzenie centrum wiedzy specjalistycznej, łączącego środowiska akademickie, badaczy, przemysł i poszczególnych ekspertów na szczeblu europejskim, w celu wspierania wymiany wiedzy, w tym technicznej wiedzy eksperckiej, a także ułatwiania współpracy w całej UE i poza nią; ponadto wzywa do zaangażowania w to centrum wiedzy specjalistycznej organizacji zainteresowanych stron, takich jak organizacje ochrony konsumentów, w celu zapewnienia szerokiej reprezentacji konsumentów; uważa, że ze względu na nieproporcjonalny wpływ systemów algorytmicznych na kobiety i mniejszości, szczeble decyzyjne takiej struktury powinny być zróżnicowane i zapewniać równouprawnienie płci; podkreśla, że państwa członkowskie muszą opracować strategie zarządzania ryzykiem w odniesieniu do sztucznej inteligencji w kontekście krajowych strategii nadzoru rynku; |
131. |
proponuje, aby Komisja i/lub wszelkie właściwe instytucje, organy, urzędy i agencje Unii, które mogą zostać wyznaczone w tym kontekście, udzieliły wszelkiej niezbędnej pomocy krajowym organom nadzoru w zakresie ich roli jako pierwszych punktów kontaktowych w przypadkach podejrzenia naruszenia zobowiązań prawnych i zasad etycznych określonych w unijnych ramach regulacyjnych dotyczących AI, w tym zasady niedyskryminacji; powinna ona również zapewniać wszelką niezbędną pomoc krajowym organom nadzoru, w przypadkach gdy przeprowadzają one oceny zgodności w celu wspierania prawa obywateli do wniesienia sprzeciwu i dochodzenia roszczeń, a mianowicie poprzez wspieranie, w stosownych przypadkach, konsultacji z innymi właściwymi organami w Unii, w szczególności z siecią współpracy w zakresie ochrony konsumentów oraz krajowymi organami ochrony konsumentów, organizacjami społeczeństwa obywatelskiego i partnerami społecznymi mającymi siedzibę w innych państwach członkowskich; |
132. |
uznaje wartościowe osiągnięcia grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji, złożonej z przedstawicieli środowisk akademickich, społeczeństwa obywatelskiego i przemysłu, oraz europejskiego sojuszu na rzecz sztucznej inteligencji, w szczególności „Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji”, i sugeruje, że grupa ta mogłaby udzielać fachowych porad Komisji i/lub wszelkim właściwym instytucjom, organom, biurom i agencjom Unii, które mogą zostać wyznaczone w tym kontekście; |
133. |
odnotowuje włączenie projektów związanych z AI do Europejskiego programu rozwoju przemysłu obronnego (EDIDP); uważa, że przyszły Europejski Fundusz Obronny (EFO) i stała współpraca strukturalna (PESCO) mogą również zapewnić ramy dla przyszłych projektów związanych z AI, które pomogłyby lepiej ukierunkować działania Unii w tej dziedzinie i jednocześnie promować cel Unii w postaci umacniania praw człowieka, prawa międzynarodowego i rozwiązań wielostronnych; podkreśla, że projekty związane z AI należy synchronizować z szerszymi cywilnymi programami Unii poświęconymi AI; zauważa, że zgodnie z białą księgą Komisji Europejskiej w sprawie sztucznej inteligencji z 19 lutego 2020 r. centra doskonałości i testowania skupione na badaniach nad AI i jej rozwoju w dziedzinie bezpieczeństwa i obronności należy ustanawiać wraz z rygorystycznymi specyfikacjami dotyczącymi udziału i inwestowania prywatnych zainteresowanych stron; |
134. |
odnotowuje białą księgę Komisji Europejskiej w sprawie sztucznej inteligencji z 19 lutego 2020 r. i ubolewa, że nie uwzględniono aspektów wojskowych; zwraca się do Komisji oraz wiceprzewodniczącego Komisji / wysokiego przedstawiciela o zaprezentowanie, również w ramach ogólnego podejścia, sektorowej strategii AI na rzecz działań w ramach Unii związanych z obronnością, która zapewnia poszanowanie zarówno praw obywateli, jak i interesów strategicznych Unii, oraz która opiera się na spójnym podejściu regulacyjnym, począwszy od powstania systemów wspomaganych przez AI po ich zastosowania wojskowe, a także apeluje do Komisji, by w ramach grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji ustanowiła grupę roboczą do spraw bezpieczeństwa i obronności, która powinna zająć się konkretnie kwestiami polityki i inwestycji oraz etycznymi aspektami AI w dziedzinie bezpieczeństwa i obronności; wzywa Radę, Komisję i wiceprzewodniczącego / wysokiego przedstawiciela do podjęcia w tym celu zorganizowanego dialogu z Parlamentem; |
Europejska certyfikacja zgodności z zasadami etycznymi
135. |
sugeruje opracowanie, w kontekście koordynacji na szczeblu Unii, wspólnych kryteriów i procedury składania wniosków w odniesieniu do wydawania europejskiego certyfikatu zgodności z zasadami etycznymi, w tym na wniosek dowolnego podmiotu opracowującego, wdrażającego lub wykorzystującego technologie nieuznawane za charakteryzujące się wysokim ryzykiem, który chciałby uzyskać poświadczenie pozytywnej oceny zgodności przeprowadzonej przez odpowiedni krajowy organ nadzoru; |
136. |
uważa, że taki europejski certyfikat zgodności z zasadami etycznymi zachęcałby do uwzględniania etyki na etapie projektowania w całym łańcuchu dostaw ekosystemów sztucznej inteligencji; sugeruje zatem, aby w przypadku technologii wysokiego ryzyka certyfikacja ta stanowiła obowiązkowy warunek wstępny kwalifikacji do uczestnictwa w procedurach udzielania zamówień publicznych w zakresie systemów sztucznej inteligencji, robotyki i powiązanych z nimi technologii; |
Współpraca międzynarodowa
137. |
jest zdania, że skuteczną współpracę transgraniczną i normy etyczne można osiągnąć tylko wtedy, gdy wszystkie zainteresowane strony zobowiążą się do zapewnienia ludzkiego czynnika i nadzoru, solidności technicznej i bezpieczeństwa, przejrzystości i odpowiedzialności, różnorodności, niedyskryminacji i sprawiedliwości, dobrostanu społecznego i środowiskowego oraz poszanowania ustalonych zasad prywatności, zarządzania danymi i ochrony danych – w szczególności tych zapisanych w rozporządzeniu (UE) 2016/679; |
138. |
podkreśla, że unijne zasady prawne i etyczne dotyczące opracowywania, wdrażania i wykorzystywania tych technologii mogłyby uczynić Europę światowym liderem w sektorze sztucznej inteligencji, a zatem należy je promować na całym świecie, współpracując z międzynarodowymi partnerami i nadal prowadząc krytyczny dialog oparty na etyce z państwami trzecimi wdrażającymi alternatywne modele uregulowania, opracowywania i wdrażania sztucznej inteligencji; |
139. |
przypomina, że możliwości i zagrożenia związane z tymi technologiami mają wymiar globalny, ponieważ wykorzystywane przez nie oprogramowanie i dane często są importowane do Unii Europejskiej i eksportowane z niej, w związku z czym potrzeba spójnego podejścia do współpracy na szczeblu międzynarodowym; wzywa Komisję do podjęcia inicjatywy na rzecz oceny, które dwustronne i wielostronne traktaty i porozumienia należy dostosować, by zapewnić spójne podejście i promować europejski model zgodności z zasadami etycznymi w skali globalnej; |
140. |
zwraca uwagę, że koordynacja na szczeblu unijnym, o której mowa powyżej, pod tym względem również przyniesie wartość dodaną; |
141. |
apeluje o ustanowienie synergii i sieci między różnymi europejskimi ośrodkami badań naukowych nad AI, a także innymi wielostronnymi forami, takimi jak Rada Europy, Organizacja Narodów Zjednoczonych do spraw Oświaty, Nauki i Kultury (UNESCO), Organizacja Współpracy Gospodarczej i Rozwoju (OECD), Światowa Organizacja Handlu i Międzynarodowy Związek Telekomunikacyjny (ITU), by zapewnić spójność ich wysiłków i lepiej koordynować rozwój sztucznej inteligencji, robotyki i powiązanych z nimi technologii; |
142. |
podkreśla, że Unia musi przodować we wspieraniu wielostronnych wysiłków w ramach Grupy Ekspertów Rządowych ds. CCW ONZ i na innych odpowiednich forach, by dyskutować nad skutecznymi międzynarodowymi ramami regulacyjnymi zapewniającymi istotną ludzką kontrolę nad autonomicznymi systemami uzbrojenia w celu opanowania tych technologii poprzez ustanowienie dobrze zdefiniowanych i opartych na punktach odniesienia procesów ich stosowania oraz poprzez przyjęcie przepisów na rzecz ich etycznego stosowania, we współpracy z wojskiem, przemysłem, organami ścigania, środowiskami akademickimi i zainteresowanymi stronami spośród społeczeństwa obywatelskiego, oraz by zrozumieć związane z nimi aspekty etyczne oraz łagodzić nieodłączne ryzyko związane z tymi technologiami i zapobiegać ich wykorzystaniu w złych zamiarach; |
143. |
uznaje rolę NATO w promowaniu bezpieczeństwa w strefie euro-atlantyckiej i apeluje o współpracę w ramach NATO w celu ustanowienia wspólnych norm i interoperacyjności systemów AI w dziedzinie obronności; podkreśla, że relacje transatlantyckie są ważne dla zachowania wspólnych wartości i zwalczania przyszłych i nowych zagrożeń; |
144. |
podkreśla znaczenie utworzenia kodeksu postępowania w zakresie etyki, na którym oparte zostanie wykorzystywanie uzbrojonych systemów wykorzystujących AI podczas operacji wojskowych, podobnego do istniejących ram regulacyjnych zakazujących stosowania broni chemicznej i biologicznej; jest zdania, że Komisja powinna zainicjować utworzenie zgodnych z międzynarodowym prawem humanitarnym norm stosowania systemów uzbrojenia wykorzystującego AI w działaniach zbrojnych, a Unia powinna dążyć do międzynarodowego przyjęcia tych norm; uważa, że Unia powinna angażować się w dyplomację dotyczącą AI na forach międzynarodowych, takich jak G7, G20 i OECD, z podobnie myślącymi partnerami; |
Kwestie końcowe
145. |
stwierdza w odniesieniu do powyższych refleksji na temat aspektów związanych z etycznym wymiarem sztucznej inteligencji, robotyki i powiązanych z nimi technologii, że wymiar prawny i etyczny należy zapisać w skutecznych, przyszłościowych i kompleksowych ramach regulacyjnych na szczeblu Unii, wspieranych przez właściwe organy krajowe, koordynowanych i wspieranych przez Komisję lub wszelkie właściwe instytucje, organy i jednostki organizacyjne Unii, które mogą zostać wyznaczone w tym kontekście, regularnie wspierane przez wspomniany ośrodek ekspercki, oraz należycie przestrzeganych i certyfikowanych w ramach rynku wewnętrznego; |
146. |
zgodnie z procedurą określoną w art. 225 Traktatu o funkcjonowaniu Unii Europejskiej wzywa Komisję do przedstawienia wniosku dotyczącego rozporządzenia w sprawie zasad etycznych dotyczących opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii na podstawie art. 114 Traktatu o funkcjonowaniu Unii Europejskiej i w oparciu o szczegółowe zalecenia określone w załączniku do niniejszego dokumentu; zwraca uwagę, że wniosek nie powinien podważać przepisów sektorowych, a jedynie obejmować zidentyfikowane luki; |
147. |
zaleca, aby po konsultacji ze wszystkimi właściwymi zainteresowanymi stronami Komisja Europejska dokonała w razie potrzeby przeglądu obowiązującego prawa Unii mającego zastosowanie do sztucznej inteligencji, robotyki i powiązanych z nimi technologii w celu uwzględnienia szybkości rozwoju tych technologii zgodnie z zaleceniami zawartymi w załączniku do niniejszego dokumentu, unikając nadmiernej regulacji, w tym w odniesieniu do MŚP; |
148. |
uważa, że okresowa ocena, a w razie potrzeby przegląd unijnych ram regulacyjnych dotyczących sztucznej inteligencji, robotyki i powiązanych z nimi technologii, będzie mieć zasadnicze znaczenie dla dopilnowania, by mające zastosowanie prawodawstwo nadążało za szybkim tempem postępu technologicznego; |
149. |
stwierdza, że postulowany wniosek ustawodawczy miałby konsekwencje finansowe, gdyby powierzyć jakiemukolwiek organowi europejskiemu powyższe funkcje koordynacyjne oraz konieczne środki techniczne i zasoby ludzkie w celu realizacji nowo powierzonych mu zadań; |
o
o o
150. |
zobowiązuje swojego przewodniczącego do przekazania niniejszej rezolucji oraz szczegółowych zaleceń zawartych w załączniku Komisji i Radzie. |
(1) Dz.U. L 252 z 8.10.2018, s. 1.
(2) Dz.U. L 180 z 19.7.2000, s. 22.
(3) Dz.U. L 303 z 2.12.2000, s. 16.
(4) Dz.U. L 119 z 4.5.2016, s. 1.
(5) Dz.U. L 119 z 4.5.2016, s. 89.
(6) Dz.U. L 123 z 12.5.2016, s. 1.
(7) Dz.U. C 252 z 18.7.2018, s. 239.
(8) Dz.U. C 307 z 30.8.2018, s. 163.
(9) Dz.U. C 433 z 23.12.2019, s. 86.
(10) Teksty przyjęte, P8_TA(2018)0332.
(11) Teksty przyjęte, P8_TA(2019)0081.
(12) https://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2020)654179.
(13) Dyrektywa Parlamentu Europejskiego i Rady (UE) 2019/882 z dnia 17 kwietnia 2019 r. w sprawie wymogów dostępności produktów i usług (Dz.U. L 151 z 7.6.2019, s. 70).
(14) Decyzja Parlamentu Europejskiego i Rady nr 768/2008/WE z dnia 9 lipca 2008 r. w sprawie wspólnych ram dotyczących wprowadzania produktów do obrotu, uchylająca decyzję Rady 93/465/EWG (Dz.U. L 218 z 13.8.2008, s. 82).
ZAŁĄCZNIK DO REZOLUCJI:
SZCZEGÓŁOWE ZALECENIA DOTYCZĄCE TREŚCI POSTULOWANEGO WNIOSKU
A. ZASADY I CELE POSTULOWANEGO WNIOSKU
I. |
Główne zasady i cele wniosku są następujące:
|
II. |
Na wniosek składają się:
|
III. |
„Rozporządzenie w sprawie zasad etycznych dotyczących opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii” opiera się na następujących zasadach:
|
IV. |
Do celów koordynacji na poziomie Unii Komisja lub wszelkie właściwe instytucje, organy i jednostki organizacyjne Unii, które mogą zostać wyznaczone w tym kontekście, wykonują następujące główne zadania:
|
V. |
Dodatkowo Komisja powinna realizować następujące zadania:
|
VI. |
„Organ nadzoru” w każdym państwie członkowskim powinien wykonywać następujące główne zadania:
|
VII. |
Kluczową rolą zainteresowanych stron powinno być współdziałanie z Komisją lub wszelkimi właściwymi instytucjami, organami i jednostkami organizacyjnymi Unii, które mogą zostać wyznaczone w tym kontekście, oraz z „organem nadzoru” w każdym państwie członkowskim. |
B. TREŚĆ POSTULOWANEGO WNIOSKU USTAWODAWCZEGO
Wniosek
ROZPORZĄDZENIE PARLAMENTU EUROPEJSKIEGO I RADY
w sprawie zasad etycznych dotyczących opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii
PARLAMENT EUROPEJSKI I RADA UNII EUROPEJSKIEJ
Uwzględniając Traktat o funkcjonowaniu Unii Europejskiej, w szczególności jego art. 114,
uwzględniając wniosek Komisji Europejskiej,
po przekazaniu projektu aktu ustawodawczego parlamentom narodowym,
uwzględniając opinię Europejskiego Komitetu Ekonomiczno-Społecznego,
stanowiąc zgodnie ze zwykłą procedurą ustawodawczą,
a także mając na uwadze, co następuje:
(1) |
Opracowywanie, wdrażanie i wykorzystywanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wytwarzanych lub generowanych przez te technologie, powinno opierać się na chęci służenia społeczeństwu. Takie technologie mogą pociągać za sobą możliwości i zagrożenia, które należy uwzględnić i uregulować w kompleksowych ramach regulacyjnych na poziomie Unii, które odzwierciedlają zasady etyczne, jakich należy przestrzegać, począwszy od opracowywania i wdrażania tych technologii, a skończywszy na ich wykorzystywaniu. |
(2) |
Zgodność z takimi ramami regulacyjnymi dotyczącymi opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wykorzystywanych lub generowanych przez takie technologie w Unii, powinna być na jednakowym poziomie we wszystkich państwach członkowskich, aby skutecznie czerpać z możliwości płynących z takich technologii oraz w sposób spójny zaradzać związanym z nimi zagrożeniom, a także uniknąć fragmentacji regulacyjnej. Należy zapewnić jednolite stosowanie w całej Unii przepisów określonych w niniejszym rozporządzeniu. |
(3) |
W tym kontekście obecne zróżnicowanie przepisów i praktyk, jakich należy przestrzegać, w całej Unii, stanowi istotne zagrożenie fragmentacją jednolitego rynku, a także zagrożenie dla ochrony pomyślności i dobrobytu poszczególnych osób oraz całego społeczeństwa, jak również dla spójnego wykorzystania pełnego potencjału sztucznej inteligencji, robotyki i powiązanych z nimi technologii pod względem wspierania innowacji i utrzymywania pomyślności i dobrobytu, o których mowa powyżej. Różnice w stopniu uwzględnienia przez podmioty opracowujące, wdrażające i wykorzystujące wymiaru etycznego powiązanego z tymi technologiami mogą uniemożliwiać ich swobodne opracowywanie, wdrażanie lub wykorzystywanie w Unii, a także mogą stanowić przeszkodę dla równych warunków działania, dążeń do postępu technologicznego i prowadzenia działalności gospodarczej na szczeblu Unii, zakłócać konkurencję oraz uniemożliwiać organom wypełnianie ich obowiązków wynikających z prawa Unii. Ponadto brak wspólnych ram regulacyjnych odzwierciedlających zasady etyczne dotyczące opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii skutkuje brakiem pewności prawa dla wszystkich zainteresowanych stron, w szczególności dla podmiotów, które je opracowują, wdrażają i wykorzystują. |
(4) |
Tym niemniej, przyczyniając się do spójnego podejścia na poziomie Unii i w granicach przez nią określonych, niniejsze rozporządzenie powinno zapewnić margines wdrażania przez państwa członkowskie, w tym w odniesieniu do sposobu wykonywania uprawnień przez odpowiedni krajowy organ nadzoru w świetle celu, jaki dlań określono w niniejszym rozporządzeniu. |
(5) |
Niniejsze rozporządzenie pozostaje bez uszczerbku dla istniejącego lub przyszłego prawodawstwa sektorowego. Powinno być proporcjonalne w odniesieniu do swojego celu, tak aby nie utrudniać nadmiernie innowacji w Unii i być zgodne z podejściem opartym na ryzyku. |
(6) |
Geograficzny zakres stosowania przedmiotowych ram powinien obejmować wszystkie elementy sztucznej inteligencji, robotyki i powiązanych z nimi technologii w całym cyklu opracowywania, wdrażania i wykorzystywania w Unii, w tym przypadki, w których elementy tych technologii mogą być zlokalizowane poza Unią lub mogą nie mieć konkretnej lub pojedynczej lokalizacji, jak ma to miejsce np. w przypadku usług przetwarzania w chmurze. |
(7) |
Niezbędna jest jednolita interpretacja w Unii takich pojęć jak sztuczna inteligencja, robotyka i powiązane z nimi technologie i biometria, aby umożliwić jednolite podejście regulacyjne i zagwarantować przez to pewność prawa tak obywatelom, jak przedsiębiorstwom. Definicje te powinny być neutralne technologicznie i w razie potrzeby podlegać przeglądowi. |
(8) |
Ponadto należy uwzględnić fakt, że istnieją technologie związane ze sztuczną inteligencją i robotyką o różnym stopniu autonomii (1) pozwalające oprogramowaniu kontrolować procesy fizyczne lub wirtualne. Przykładowo w przypadku automatycznego prowadzenia pojazdów Stowarzyszenie Inżynierów Motoryzacyjnych (SAE) zaproponowało w normie międzynarodowej J3016 sześć poziomów automatyzacji prowadzenia pojazdów. |
(9) |
Opracowywanie, wdrażanie i wykorzystywanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wykorzystywanych lub generowanych przez te technologie, powinno uzupełniać możliwości ludzkie, nie zaś je zastępować, oraz zapewniać, by ich wykonanie nie było sprzeczne z najlepszymi interesami obywateli oraz było zgodne z prawem Unii, prawami podstawowymi określonymi w Karcie praw podstawowych Unii Europejskiej („Karta”), utrwalonym orzecznictwie Trybunału Sprawiedliwości Unii Europejskiej oraz innych europejskich i międzynarodowych instrumentach mających zastosowanie w Unii. |
(10) |
Decyzje podejmowane przez systemy sztucznej inteligencji, robotyki i powiązanych z nimi technologii lub decyzje, na które taki system miał wpływ, powinny w dalszym ciągu podlegać w znacznym stopniu przeglądowi, osądowi, interwencji i kontroli ze strony ludzi. Techniczna i operacyjna złożoność takich technologii w żadnym razie nie powinna uniemożliwiać podmiotowi, który je wdraża lub wykorzystuje, przynajmniej uruchomienia wyłączenia awaryjnego, zmodyfikowania lub wstrzymania ich działania ani powrotu do poprzedniego stanu z przywróceniem bezpiecznych funkcji, w przypadkach zagrożenia zgodności z prawem Unii oraz zasadami etycznymi i zobowiązaniami prawnymi określonymi w niniejszym rozporządzeniu. |
(11) |
Sztuczną inteligencję, robotykę i powiązane z nimi technologie, których rozwój, wdrażanie i użytkowanie wiąże się ze znacznym ryzykiem spowodowania obrażeń lub szkody dla osób fizycznych lub społeczeństwa, z naruszeniem praw podstawowych i zasad bezpieczeństwa określonych w prawie Unii, należy uznać za technologie wysokiego ryzyka. Do celów takiej oceny należy wziąć pod uwagę sektor, w którym są opracowywane, wdrażane lub wykorzystywane, ich konkretne zastosowanie lub cel oraz stopień obrażenia lub szkody, których wystąpienia można się spodziewać. Powagę szkody należy określić w oparciu o zakres potencjalnego obrażenia lub szkody, liczbę poszkodowanych, całkowitą wartość spowodowanych szkód oraz szkody dla ogółu społeczeństwa. Poważne rodzaje obrażeń i szkód to np. naruszenia praw dzieci, konsumentów lub pracowników, które ze względu na swój zakres, liczbę dotkniętych dzieci, konsumentów lub pracowników lub ich wpływ na społeczeństwo jako całość pociągają za sobą poważne ryzyko naruszenia podstawowych praw i zasad bezpieczeństwa określonych w prawie Unii. Niniejsze rozporządzenie winno zawierać wyczerpujący i skumulowany wykaz sektorów wysokiego ryzyka oraz zastosowań i celów wysokiego ryzyka. |
(12) |
Obowiązki określone w niniejszym rozporządzeniu, w szczególności te dotyczące technologii wysokiego ryzyka, powinny mieć zastosowanie wyłącznie do sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów i danych wykorzystywanych lub generowanych przez takie technologie, opracowywanych, wdrażanych lub wykorzystywanych w Unii, które w następstwie oceny ryzyka przewidzianej w niniejszym rozporządzeniu uznaje się za obarczone wysokim ryzykiem. Takie obowiązki należy wypełniać bez uszczerbku dla ogólnego obowiązku, zgodnie z którym sztuczna inteligencja, robotyka i powiązane z nimi technologie, w tym oprogramowanie, algorytmy i dane wykorzystywane lub generowane przez takie technologie, powinny być opracowywane, wdrażane i wykorzystywane w Unii w sposób ukierunkowany na człowieka oraz w oparciu o zasady autonomii i bezpieczeństwa ludzi zgodnie z prawem Unii oraz przy pełnym poszanowaniu praw podstawowych, takich jak godność ludzka, prawo do wolności i bezpieczeństwa oraz prawo do integralności osoby. |
(13) |
Technologie wysokiego ryzyka powinny być zgodne z zasadami bezpieczeństwa, przejrzystości, odpowiedzialności, bezstronności lub niedyskryminacji, odpowiedzialności społecznej i równości płci, prawa do dochodzenia roszczeń, zrównoważenia środowiskowego, prywatności i dobrych rządów, po przeprowadzeniu bezstronnej, obiektywnej i zewnętrznej oceny ryzyka przez krajowy organ nadzoru zgodnie z kryteriami przewidzianymi w niniejszym rozporządzeniu i w wykazie zawartym w załączniku do niego. Ocena ta powinna uwzględniać opinie i wszelkie samooceny dokonane przez podmiot opracowujący lub wdrażający. |
(14) |
Komisja lub wszelkie właściwe instytucje, organy i jednostki organizacyjne Unii, które mogą zostać wyznaczone do tego celu, powinny przygotować niewiążące wytyczne wykonawcze dla podmiotów opracowujących, wdrażających i wykorzystujących dotyczące metodyki zapewnienia zgodności z niniejszym rozporządzeniem. Czyniąc to, powinny skonsultować się z odpowiednimi zainteresowanymi stronami. |
(15) |
W Unii powinna istnieć spójność w zakresie oceny ryzyka związanego z tymi technologiami, zwłaszcza w przypadku, gdy są one oceniane zarówno w świetle niniejszego rozporządzenia, jak i zgodnie z wszelkimi innymi mającymi zastosowanie przepisami sektorowymi. W związku z tym krajowe organy nadzoru powinny informować inne organy przeprowadzające oceny ryzyka zgodnie z wszelkimi przepisami sektorowymi, gdy technologie te zostają ocenione jako obarczone wysokim ryzykiem w wyniku oceny ryzyka przewidzianej w niniejszym rozporządzeniu. |
(16) |
Aby były wiarygodne, sztuczną inteligencję, robotykę i powiązane z nimi technologie wysokiego ryzyka, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie, należy opracowywać, wdrażać i wykorzystywać w sposób bezpieczny, przejrzysty i odpowiedzialny, zgodnie z takimi cechami bezpieczeństwa, jak solidność, odporność, bezpieczeństwo, dokładność i identyfikacja błędów, możliwość wyjaśnienia, możliwość interpretacji, możliwość kontroli, przejrzystość i identyfikowalność, oraz w sposób umożliwiający wyłączenie danych funkcji lub przywrócenie do poprzedniego stanu i przywrócenie bezpiecznych funkcji w przypadku niezgodności z tymi cechami. Należy zapewnić przejrzystość poprzez umożliwienie organom publicznym dostępu, w razie konieczności, do technologii, danych i systemów komputerowych stanowiących podstawę tych technologii. |
(17) |
Podmioty opracowujące, wdrażające i wykorzystujące sztuczną inteligencję, robotykę i powiązane z nimi technologie, zwłaszcza technologie wysokiego ryzyka, są w różnym stopniu odpowiedzialne za zgodność z zasadami bezpieczeństwa, przejrzystości i rozliczalności w zakresie, w jakim są zaangażowane w odnośne technologie, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez takie technologie. Podmioty opracowujące powinny dopilnować, aby przedmiotowe technologie były projektowane i tworzone zgodnie z cechami bezpieczeństwa określonymi w niniejszym rozporządzeniu, podczas gdy podmioty wdrażające i wykorzystujące powinny je wdrażać i wykorzystywać z zapewnieniem pełnego przestrzegania tych cech. W związku z tym podmioty opracowujące technologie wysokiego ryzyka powinny ocenić i przewidzieć ryzyko niewłaściwego stosowania, którego można racjonalnie oczekiwać w odniesieniu do opracowywanych przez nich technologii. Muszą one również zapewnić, że opracowywane przez nie systemy wskazują, w możliwym zakresie i za pomocą odpowiednich środków, takich jak komunikaty o zrzeczeniu się odpowiedzialności, prawdopodobieństwo wystąpienia błędów lub nieścisłości. |
(18) |
Podmioty opracowujące i wdrażające powinny udostępniać podmiotom wykorzystującym wszelkie kolejne aktualizacje przedmiotowych technologii, w szczególności w odniesieniu do oprogramowania, jak określono w umowie lub ustanowiono w prawie Unii lub prawie krajowym. Ponadto, jeżeli ocena ryzyka tak wskazuje, podmioty opracowujące i wdrażające powinny dostarczyć organom publicznym odpowiednią dokumentację dotyczącą wykorzystania odnośnych technologii oraz instrukcje dotyczące bezpieczeństwa w tym zakresie, w tym – w razie konieczności i z pełnym poszanowaniem prawa Unii w zakresie ochrony danych, prywatności i praw własności intelektualnej oraz tajemnic handlowych – kod źródłowy, narzędzia programowania i dane wykorzystywane przez system. |
(19) |
Osoby fizyczne mają prawo oczekiwać, że wykorzystywana technologia będzie działać w rozsądny sposób i nie naruszać ich zaufania. Zaufanie obywateli do sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wytwarzanych lub generowanych przez te technologie, zależy od zrozumienia i poznania procesów technicznych. Zakres wyjaśnialności tych procesów powinien zależeć od kontekstu tych procesów technicznych oraz od wagi konsekwencji błędnego lub niedokładnego wyniku, a także powinien być wystarczający do ich podważenia i wystąpienia z roszczeniem o naprawienie szkody. Możliwość kontroli, identyfikowalność i przejrzystość powinny uwzględniać ewentualną niezrozumiałość takich technologii. |
(20) |
Zaufanie społeczeństwa do sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wytwarzanych lub generowanych przez te technologie, zależy od dostępnych w ramach tych technologii możliwości oceny, kontroli i identyfikacji. W przypadkach gdy wymaga tego zakres ich zaangażowania, podmioty opracowujące powinny zapewnić, aby takie technologie były projektowane i tworzone w sposób umożliwiający przeprowadzenie takiej oceny, kontroli i identyfikacji. W granicach możliwości technicznych podmioty opracowujące, wdrażające i wykorzystujące powinny zapewnić, aby sztuczna inteligencja, robotyka i powiązane z nimi technologie były wdrażane i wykorzystywane przy zapewnieniu pełnego poszanowania wymogów dotyczących przejrzystości, a także z możliwością przeprowadzenia kontroli oraz identyfikowalności. |
(21) |
By zagwarantować przejrzystość i rozliczalność, obywateli należy informować o fakcie, że system korzysta ze sztucznej inteligencji, że systemy sztucznej inteligencji personalizują produkt lub usługę dla swoich użytkowników, że mogą wyłączyć lub ograniczyć personalizację oraz że wchodzą w interakcję z technologią zautomatyzowanego podejmowania decyzji. Ponadto przejrzystości środków powinny towarzyszyć, o ile jest to technicznie możliwe, jasne i zrozumiałe wyjaśnienia dotyczące wykorzystywanych danych, algorytmu, jego celu, wyników i potencjalnych zagrożeń. |
(22) |
Tendencyjność i dyskryminacja ze strony oprogramowania, algorytmów oraz danych są niezgodne z prawem i powinny zostać wyeliminowane przez uregulowanie procesów projektowania i wdrażania oprogramowania, algorytmów i danych. Tendencyjność może mieć swoje źródło zarówno w decyzjach podejmowanych przez system automatyczny lub takich, na które system ten miał wpływ, jak i w zbiorach danych, na których opiera się lub szkoli taki system. |
(23) |
Oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez sztuczną inteligencję, robotykę i powiązane z nimi technologie należy uznać za nieobiektywne, jeżeli na przykład wyświetlają nieoptymalne wyniki w odniesieniu do danej osoby lub grupy osób ze względu na stosowanie podejścia, które jest stronnicze w wymiarze jednostkowym lub społecznym, a następnie przetwarzanie danych dotyczących cech takiej osoby lub takich osób. |
(24) |
Zgodnie z prawem Unii oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez sztuczną inteligencję, robotykę i powiązane z nimi technologie należy uznać za dyskryminacyjne, jeżeli dają one nieproporcjonalnie negatywne skutki i prowadzą do odmiennego traktowania danej osoby lub grupy osób, w tym przez stawianie ich w niekorzystnej sytuacji w porównaniu z innymi, w oparciu o takie czynniki jak cechy osobowe, bez obiektywnego lub racjonalnego uzasadnienia i niezależnie od jakichkolwiek twierdzeń dotyczących neutralności tych technologii. |
(25) |
Zgodnie z prawem Unii do słusznych celów, które na mocy niniejszego rozporządzenia mogłyby zostać uznane za obiektywnie uzasadniające wszelkie odmienne traktowanie osób lub grupy osób, należą ochrona bezpieczeństwa i zdrowia publicznego, zapobieganie działaniom podlegającym sankcjom karnym, ochrona podstawowych praw i wolności, sprawiedliwa reprezentacja i obiektywne wymogi dotyczące wykonywania zawodu. |
(26) |
Funkcjonowanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wykorzystywanych lub generowanych przez te technologie, powinno przyczyniać się do zrównoważonego postępu. Takie technologie nie powinny stać w sprzeczności z ochroną środowiska lub transformacją ekologiczną. Mogą one również odegrać ważną rolę w osiąganiu celów zrównoważonego rozwoju określonych przez Organizację Narodów Zjednoczonych, aby umożliwić rozkwit przyszłych pokoleń. Takie technologie mogą wspierać monitorowanie odpowiednich postępów na podstawie wskaźników zrównoważonego rozwoju i spójności społecznej oraz przez wykorzystywanie narzędzi w ramach odpowiedzialnych badań i innowacji wymagających mobilizacji zasobów Unii i jej państw członkowskich na rzecz wspierania projektów umożliwiających osiąganie tych celów i inwestowania w takie projekty. |
(27) |
Opracowywanie, wdrażanie i wykorzystywanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wytwarzanych lub generowanych przez te technologie, w żadnym razie nie powinno celowo skutkować obrażeniami ciała lub jakimikolwiek szkodami wyrządzonymi poszczególnym osobom lub społeczeństwu bądź świadomie akceptować na etapie projektowania takich skutków. W związku z tym szczególnie technologie wysokiego ryzyka należy opracowywać, wdrażać i wykorzystywać w sposób społecznie odpowiedzialny. |
(28) |
Na podmiotach opracowujących, wdrażających i wykorzystujących powinna zatem spoczywać – stosownie do zakresu ich zaangażowania w sztuczną inteligencję, robotykę i powiązane z nimi technologie, których to dotyczy, oraz zgodnie z unijnymi i krajowymi przepisami dotyczącymi odpowiedzialności – odpowiedzialność za wszelkie obrażenia ciała lub szkody wyrządzone poszczególnym osobom i społeczeństwu. |
(29) |
W szczególności podmioty opracowujące, które podejmują decyzje określające i kontrolujące przebieg lub sposób opracowania sztucznej inteligencji, robotyki i powiązanych z nimi technologii, a także podmioty wdrażające zaangażowane w ich wdrażanie poprzez podejmowanie decyzji dotyczących takiego wdrażania oraz sprawowanie kontroli nad powiązanym ryzykiem lub czerpanie korzyści z takiego wdrażania oraz pełniące funkcję polegającą na kontroli lub zarządzaniu, należy ogólnie uznać za podmioty odpowiedzialne za zapobieganie takim obrażeniom ciała lub szkodom przez, odpowiednio, zapewnienie właściwych środków na etapie opracowywania i dokładne przestrzeganie tych środków na etapie wdrażania. |
(30) |
Społecznie odpowiedzialną sztuczną inteligencję, robotykę i powiązane z nimi technologie, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie, można zdefiniować jako technologie przyczyniające się do znajdowania rozwiązań, które zapewniają ochronę i wspieranie różnych celów życia społecznego, w szczególności demokracji, zdrowia i dobrobytu gospodarczego, równości szans, praw pracowniczych i socjalnych, różnorodnych i niezależnych mediów oraz obiektywnych i ogólnie dostępnych informacji, umożliwiania debaty publicznej, wysokiej jakości edukacji, różnorodności kulturowej i językowej, równowagi płci, umiejętności cyfrowych, innowacyjności i kreatywności. Są to również technologie opracowywane, wdrażane i wykorzystywane przy należytym uwzględnieniu ich ostatecznego wpływu na fizyczne i psychiczne samopoczucie obywateli oraz niepropagujące mowy nienawiści ani przemocy. Cele te powinny być osiągane w szczególności za pomocą technologii wysokiego ryzyka. |
(31) |
Sztuczną inteligencję, robotykę i powiązane z nimi technologie należy również opracowywać, wdrażać i wykorzystywać z myślą o wspieraniu włączenia społecznego, demokracji, pluralizmu, solidarności, sprawiedliwości, równości i współpracy, a ich potencjał w tym kontekście należy maksymalizować i analizować w drodze projektów w dziedzinie badań naukowych i innowacji. W związku z tym Unia i jej państwa członkowskie powinny zatem zmobilizować swoje zasoby komunikacyjne, administracyjne i finansowe w celu wspierania takich projektów oraz inwestowania w nie. |
(32) |
Projekty związane z potencjałem sztucznej inteligencji, robotyki i powiązanych z nimi technologii pod względem dobrostanu społecznego należy realizować w oparciu o narzędzia w ramach odpowiedzialnych badań i innowacji, aby od samego początku zagwarantować zgodność tych projektów z zasadami etycznymi. |
(33) |
Opracowywanie, wdrażanie i wykorzystywanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wytwarzanych lub generowanych przez te technologie, należy prowadzić z uwzględnieniem ich wpływu na środowisko. Zgodnie z obowiązkami określonymi w mającym zastosowanie prawie Unii takie technologie nie powinny powodować szkód w środowisku w trakcie ich cyklu życia oraz w całym łańcuchu dostaw, a także powinny być opracowywane, wdrażane i wykorzystywane w sposób, który chroni środowisko, łagodzi i rekompensuje ich wpływ na środowisko, przyczynia się do transformacji ekologicznej oraz wspiera realizację celów w zakresie neutralności klimatycznej i gospodarki o obiegu zamkniętym. |
(34) |
Na potrzeby niniejszego rozporządzenia podmioty opracowujące, wdrażające i wykorzystujące powinny ponosić odpowiedzialność – w zakresie, w jakim są odpowiednio zaangażowane w opracowywanie, wdrażanie lub wykorzystywanie jakiejkolwiek sztucznej inteligencji, robotyki i powiązanych z nimi technologii uznanych za obarczone wysokim ryzykiem – za wszelkie szkody wyrządzone w środowisku zgodnie z obowiązującymi przepisami dotyczącymi odpowiedzialności za środowisko. |
(35) |
Technologie te należy również opracowywać, wrażać i wykorzystywać z myślą o wspieraniu osiągania celów środowiskowych, zgodnie z zobowiązaniami określonymi w mającym zastosowanie prawie Unii, takich jak ograniczenie wytwarzania odpadów, zmniejszenie śladu węglowego, walka ze zmianą klimatu i ochrona środowiska, a ich potencjał w tym kontekście należy maksymalizować i analizować w drodze projektów w dziedzinie badań naukowych i innowacji. W związku z tym Unia i państwa członkowskie powinny zatem zmobilizować swoje zasoby komunikacyjne, administracyjne i finansowe w celu wspierania takich projektów oraz inwestowania w nie. |
(36) |
Projekty związane z potencjałem sztucznej inteligencji, robotyki i powiązanych z nimi technologii w zakresie uwzględnienia problemów związanych z ochroną środowiska należy realizować w oparciu o narzędzia w ramach odpowiedzialnych badań i innowacji, aby od samego początku zagwarantować zgodność tych projektów z zasadami etycznymi. |
(37) |
Opracowywanie, wdrażanie i wykorzystywanie wszelkiego rodzaju sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wykorzystywanych lub generowanych przez te technologie w Unii, należy prowadzić przy zapewnieniu pełnego poszanowania praw obywateli Unii do prywatności oraz ochrony danych osobowych. Ich opracowywanie, wdrażanie i wykorzystywanie powinno być zgodne zwłaszcza z rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2016/679 (2) oraz dyrektywą 2002/58/WE Parlamentu Europejskiego i Rady (3). |
(38) |
W szczególności granice etyczne wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wykorzystywanych lub generowanych przez te technologie, należy odpowiednio uwzględnić podczas wykorzystywania technologii zdalnego rozpoznawania, w tym rozpoznawania elementów biometrycznych, w szczególności rozpoznawania twarzy, do automatycznej identyfikacji osób. W przypadku wykorzystania tych technologii przez organy publiczne do celów istotnego interesu publicznego, tj., by zagwarantować bezpieczeństwo osób i reagować na sytuacje nadzwyczajne w kraju, nie zaś by chronić mienie, wykorzystanie tych technologii powinno być zawsze ujawniane, proporcjonalne, ukierunkowane i ograniczone do konkretnych celów, a także ograniczone w czasie zgodnie z prawem Unii oraz z należytym poszanowaniem ludzkiej godności i autonomii oraz praw podstawowych określonych w Karcie. Kryteria i ograniczenia dotyczące takiego wykorzystania powinny podlegać kontroli sądowej i nadzorowi demokratycznemu oraz muszą być przedmiotem debaty angażującej społeczeństwo obywatelskie. |
(39) |
Zarządzanie oparte na odpowiednich normach zwiększa bezpieczeństwo i sprzyja większemu zaufaniu obywateli do opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wykorzystywanych lub generowanych przez te technologie. |
(40) |
Organy publiczne powinny przeprowadzić ocenę wpływu na prawa podstawowe przed wdrożeniem technologii wysokiego ryzyka, które dostarczają wsparcia dla decyzji podejmowanych w sektorze publicznym oraz które wywierają bezpośredni i istotny wpływ na prawa i obowiązki obywateli. |
(41) |
Do obowiązujących odpowiednich norm zarządzania należą np. „Wytyczne w zakresie etyki dotyczące godnej zaufania AI” opracowane przez grupę ekspertów wysokiego szczebla ds. sztucznej inteligencji powołaną przez Komisję Europejską, a także wszelkie inne normy techniczne, jak te przyjęte przez Europejski Komitet Normalizacyjny (CEN), Europejski Komitet Normalizacyjny Elektrotechniki (CENELEC) i Europejski Instytut Norm Telekomunikacyjnych (ETSI) na szczeblu europejskim oraz Międzynarodową Organizację Normalizacyjną (ISO) i Instytut Inżynierów Elektryków i Elektroników (IEEE) na szczeblu międzynarodowym. |
(42) |
Wymiana i wykorzystywanie danych przez wielu uczestników jest wrażliwą kwestią, dlatego opracowywanie, wdrażanie i wykorzystywanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii powinno podlegać odpowiednim przepisom, normom i procedurom odzwierciedlającym wymogi dotyczące jakości, integralności, bezpieczeństwa, niezawodności, prywatności i kontroli. Strategia zarządzania danymi powinna być ukierunkowana na przetwarzanie i wymianę tych danych oraz dostęp do nich, w tym prawidłowe zarządzanie nimi oraz ich prawidłową identyfikowalność i możliwość ich kontroli, oraz powinna zapewniać odpowiednią ochronę danych dotyczących słabszych grup społecznych, w tym osób z niepełnosprawnościami, pacjentów, dzieci, mniejszości i migrantów lub innych grup zagrożonych wykluczeniem. Ponadto podmioty opracowujące, wdrażające i wykorzystujące powinny móc w odpowiednich przypadkach polegać na kluczowych wskaźnikach skuteczności działania podczas oceny wykorzystywanych przez nie zbiorów danych w celu zwiększania wiarygodności technologii przez nie opracowywanych, wdrażanych i wykorzystywanych. |
(43) |
Państwa członkowskie powinny wyznaczyć niezależny organ administracyjny pełniący funkcję organu nadzoru. W szczególności każdy krajowy organ nadzoru powinien być odpowiedzialny za identyfikowanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii uznanych za obarczone wysokim ryzykiem w świetle kryteriów oceny ryzyka określonych w niniejszym rozporządzeniu oraz za ocenę i monitorowanie zgodności tych technologii ze zobowiązaniami określonymi w niniejszym rozporządzeniu. |
(44) |
Każdy krajowy organ nadzoru powinien ponosić również odpowiedzialność za dobre zarządzanie tymi technologiami, a koordynacją powinna się zająć Komisja lub/i wszelkie właściwe instytucje, organy, urzędy lub agencje Unii, które mogą zostać wyznaczone do tego celu. W związku z tym organy te mają istotną rolę do odegrania, jeśli chodzi o wspieranie zaufania i bezpieczeństwa obywateli Unii, a także przyczynianie się do tworzenia demokratycznego, pluralistycznego i sprawiedliwego społeczeństwa. |
(45) |
Do celów oceny technologii uznanych w niniejszym rozporządzeniu za obarczone wysokim ryzykiem i monitorowania ich zgodności z rozporządzeniem krajowe organy nadzoru powinny, w stosownych przypadkach, współpracować z organami odpowiedzialnymi za ocenę i monitorowanie tych technologii oraz egzekwowanie ich zgodności z przepisami sektorowymi. |
(46) |
Krajowe organy nadzoru powinny prowadzić szeroko zakrojoną i regularną współpracę między sobą oraz z Komisją Europejską i innymi właściwymi instytucjami, organami, urzędami i agencjami Unii, aby zagwarantować spójne działania transgraniczne i umożliwić jednolite opracowywanie, wdrażanie i wykorzystywanie tych technologii w Unii przy zapewnieniu zgodności z zasadami etycznymi i zobowiązaniami prawnymi określonymi w niniejszym rozporządzeniu. |
(47) |
W kontekście takiej współpracy oraz w celu osiągnięcia pełnej harmonizacji na szczeblu Unii krajowe organy nadzoru powinny wspierać Komisję w opracowywaniu wspólnego i wyczerpującego wykazu sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka zgodnie z kryteriami przewidzianymi w niniejszym rozporządzeniu i w załączniku do niego. Ponadto należy opracować proces wystawiania europejskiego świadectwa zgodności etycznej, w tym dobrowolny proces składania wniosków dla każdego podmiotu wykonującego, wdrażającego lub wykorzystującego technologie nieuznawane za obarczone wysokim ryzykiem w celu poświadczenia ich zgodności z niniejszym rozporządzeniem. |
(48) |
Krajowe organy nadzoru powinny zagwarantować zgromadzenie jak największej liczby zainteresowanych stron, w tym przemysłu, przedsiębiorstw, partnerów społecznych, naukowców, konsumentów i organizacji społeczeństwa obywatelskiego, oraz stanowić pluralistyczne forum dla refleksji i wymiany opinii, aby wyciągać kompleksowe i precyzyjne wnioski służące kierowaniu sposobem zarządzania. |
(49) |
Krajowe organy nadzoru powinny zagwarantować zgromadzenie jak największej liczby zainteresowanych stron, w tym przemysłu, przedsiębiorstw, partnerów społecznych, naukowców, konsumentów i organizacji społeczeństwa obywatelskiego, oraz stanowić pluralistyczne forum umożliwiające rozważania i wymianę opinii w celu ułatwienia współpracy między zainteresowanymi stronami, w szczególności środowiskiem akademickim, naukowcami, przemysłem, społeczeństwem obywatelskim i indywidualnymi ekspertami, aby wyciągać kompleksowe i precyzyjne wnioski służące kierowaniu sposobem zarządzania. |
(50) |
Ponadto krajowe organy nadzoru powinny zapewniać profesjonalne wytyczne i wsparcie administracyjne podmiotom opracowującym, wdrażającym i wykorzystującym, w szczególności małym i średnim przedsiębiorstwom lub przedsiębiorstwom typu start-up mierzącym się z wyzwaniami związanymi ze stosowaniem się do zasad etycznych i zobowiązań prawnych określonych w niniejszym rozporządzeniu. |
(51) |
Komisja lub wszelkie właściwe instytucje, organy, urzędy i agencje Unii, które mogą zostać wyznaczone do tego celu, powinny ustanowić wiążące wytyczne dotyczące metodyki, jaką powinny stosować krajowe organy nadzoru przy wykonywaniu oceny zgodności. |
(52) |
Sygnalizowanie nieprawidłowości zwraca uwagę organów na przypadki potencjalnych i faktycznych naruszeń prawa Unii w celu zapobiegania obrażeniom ciała, szkodom lub uszczerbkom, które mogłyby z nich wyniknąć. Ponadto procedury sprawozdawcze usprawniają przepływ informacji w przedsiębiorstwach i organizacjach, zmniejszając w ten sposób ryzyko opracowywania wadliwych lub błędnych produktów lub usług. Przedsiębiorstwa i organizacje opracowujące, wdrażające lub wykorzystujące sztuczną inteligencję, robotykę i powiązane z nimi technologie, w tym dane wykorzystywane lub generowane przez te technologie, powinny stworzyć kanały sprawozdawcze, a osoby zgłaszające przypadki naruszeń należy chronić przed działaniami odwetowymi. |
(53) |
Szybki rozwój sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wytwarzanych lub generowanych przez te technologie, a także technicznego uczenia maszynowego, procesów wyciągania wniosków oraz innych technologii leżących u podstaw tego rozwoju przebiega w nieprzewidywalny sposób. W związku z tym właściwe i konieczne jest ustanowienie mechanizmu przeglądu, zgodnie z którym oprócz sprawozdawczości w zakresie stosowania rozporządzenia obowiązkiem Komisji będzie regularne przedkładanie sprawozdań dotyczących możliwej zmiany zakresu zastosowania niniejszego rozporządzenia. |
(54) |
Ponieważ cel niniejszego rozporządzenia, tj. ustanowienie wspólnych ram regulacyjnych w zakresie zasad etycznych i zobowiązań prawnych dotyczących opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii w Unii, nie może zostać osiągnięty w sposób wystarczający przez państwa członkowskie, lecz raczej ze względu na jego rozmiar lub skutki działań możliwe jest jego lepsze osiągnięcie na szczeblu Unii, Unia może podjąć działania zgodnie z zasadą pomocniczości zgodnie z art. 5 Traktatu o Unii Europejskiej. Zgodnie z zasadą proporcjonalności określoną w tym artykule niniejsze rozporządzenie nie wykracza poza to, co jest konieczne do osiągnięcia tego celu. |
(55) |
Koordynacja na poziomie Unii określona w niniejszym rozporządzeniu zostałaby najlepiej osiągnięta przez Komisję lub wszelkie odpowiednie instytucje, organy, urzędy i agencje Unii, które mogą zostać wyznaczone w tym celu, aby uniknąć fragmentacji i zapewnić spójne stosowanie niniejszego rozporządzenia. Komisji należy zatem powierzyć zadanie znalezienia odpowiedniego rozwiązania jeśli chodzi o ustrukturyzowanie takiej koordynacji na szczeblu Unii w celu koordynacji uprawnień i działań krajowych organów nadzoru w poszczególnych państwach członkowskich, w szczególności jeśli chodzi o ocenę ryzyka związanego ze sztuczną inteligencją, robotyką i powiązanymi z nimi technologiami, ustanowienie wspólnych ram zarządzania opracowywaniem, wdrażaniem i wykorzystywaniem tych technologii, opracowanie i wydanie świadectwa zgodności z zasadami etycznymi i zobowiązaniami prawnymi określonymi w niniejszym rozporządzeniu, wspieranie regularnej wymiany informacji z zainteresowanymi stronami i społeczeństwem obywatelskim, utworzenie centrum wiedzy specjalistycznej zrzeszającego środowisko akademickie, badaczy, przemysł i indywidualnych ekspertów na szczeblu Unii w celu promowania wymiany wiedzy ogólnej i technicznej wiedzy eksperckiej, propagowanie unijnego podejścia w drodze współpracy międzynarodowej oraz zapewnianie spójnego reagowania na całym świecie na możliwości i zagrożenia związane z tymi technologiami. |
PRZYJMUJĄ NINIEJSZE ROZPORZĄDZENIE:
Rozdział I
Przepisy ogólne
Artykuł 1
Cel
Celem niniejszego rozporządzenia jest ustanowienie wszechstronnych i zachowujących aktualność unijnych ram regulacyjnych w zakresie zasad etycznych i zobowiązań prawnych dotyczących opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii w Unii.
Artykuł 2
Zakres
Niniejsze rozporządzenie stosuje się do sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wykorzystywanych lub generowanych przez te technologie opracowywane, wdrażane i wykorzystywane w Unii.
Artykuł 3
Zakres geograficzny
Niniejsze rozporządzenie stosuje się do sztucznej inteligencji, robotyki i powiązanych z nimi technologii w przypadku, gdy ich dowolny element jest opracowywany, wdrażany lub wykorzystywany w Unii, niezależnie od tego, czy oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie są zlokalizowane poza Unią lub nie posiadają konkretnej lokalizacji geograficznej.
Artykuł 4
Definicje
Do celów niniejszego rozporządzenia stosuje się następujące definicje:
a) |
„sztuczna inteligencja” oznacza system, który opiera się na oprogramowaniu albo na wbudowanym urządzeniu i wykazuje się inteligentnym zachowaniem poprzez, między innymi, gromadzenie, przetwarzanie, analizowanie i wyciąganie wniosków dotyczących otoczenia oraz podejmowanie działań, w pewnym stopniu autonomicznie, aby osiągnąć konkretne cele (4); |
b) |
„autonomiczny” oznacza system sztucznej inteligencji, który działa na podstawie interpretacji określonych danych wejściowych i wykorzystuje zestaw wcześniej zdefiniowanych instrukcji, lecz nie jest do tych instrukcji ograniczony, mimo że zachowanie systemu jest ograniczone celem, który mu postawiono, i ukierunkowane na jego osiągnięcie, oraz uwarunkowane innymi odnośnymi wyborami twórcy systemu; |
c) |
„robotyka” oznacza technologie umożliwiające automatycznie sterowanym, programowalnym i wielozadaniowym maszynom (5) wykonywanie działań w świecie fizycznym, które są tradycyjnie wykonywane lub inicjowane przez człowieka, w tym z zastosowaniem sztucznej inteligencji lub powiązanych z nimi technologii; |
d) |
„powiązane technologie” oznaczają technologie umożliwiające oprogramowaniu sterowanie procesem fizycznym lub wirtualnym w sposób częściowo lub w pełni autonomiczny, technologie zdolne do wykrywania danych biometrycznych, genetycznych i innych, a także technologie powielające lub w inny sposób wykorzystujące cechy ludzkie; |
e) |
„wysokie ryzyko” oznacza znaczne ryzyko spowodowania obrażeń ciała lub szkód dla osób fizycznych lub społeczeństwa związane z opracowywaniem, wdrażaniem i wykorzystywaniem sztucznej inteligencji, robotyki i powiązanych z nimi technologii z naruszeniem praw podstawowych i zasad bezpieczeństwa zapisanych w prawie Unii, biorąc pod uwagę ich konkretne zastosowanie lub cel, sektor, w którym są one opracowywane, wdrażane lub wykorzystywane, oraz stopień obrażenia lub szkody, których wystąpienia można się spodziewać; |
f) |
„opracowywanie” oznacza tworzenie i projektowanie algorytmów, pisanie i projektowanie oprogramowania lub gromadzenie i przechowywanie danych oraz zarządzanie nimi w celu tworzenia lub szkolenia sztucznej inteligencji, robotyki i powiązanych z nimi technologii bądź w celu tworzenia nowego zastosowania istniejącej sztucznej inteligencji, robotyki i powiązanych z nimi technologii; |
g) |
„podmiot opracowujący” oznacza dowolną osobę fizyczną lub prawną podejmującą decyzje określające i kontrolujące przebieg lub sposób opracowywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii; |
h) |
„wdrażanie” oznacza obsługę sztucznej inteligencji, robotyki i powiązanych z nimi technologii oraz zarządzanie nimi, jak również wprowadzanie ich do obrotu lub udostępnianie ich w inny sposób podmiotom wykorzystującym; |
i) |
„podmiot wdrażający” oznacza dowolną osobę fizyczną lub prawną, która jest zaangażowana w konkretne wdrażanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii, pełni funkcje polegające na kontroli lub zarządzaniu poprzez podejmowanie decyzji, sprawowanie kontroli nad ryzykiem, i odnoszącą korzyści z tego wdrażania; |
j) |
„wykorzystywanie” oznacza dowolne działanie w zakresie sztucznej inteligencji, robotyki i powiązanych z nimi technologii, inne niż opracowywanie lub wdrażanie; |
k) |
„podmiot wykorzystujący” oznacza dowolną osobę fizyczną lub prawną korzystającą ze sztucznej inteligencji, robotyki i powiązanych z nimi technologii w celach innych niż opracowywanie lub wdrażanie; |
l) |
„nierówne traktowanie” oznacza wszelkie indywidualne lub społeczne stronnicze uprzedzenia do dowolnej osoby lub grupy osób z powodu ich cech osobowych; |
m) |
„dyskryminacja” oznacza odmienne traktowanie dowolnej osoby lub grupy osób z przyczyny niemającej obiektywnego lub racjonalnego uzasadnienia, a przez to zakazanej na mocy prawa Unii; |
n) |
„obrażenia ciała lub szkoda” oznaczają – w tym spowodowane przez mowę nienawiści, nierówne traktowanie, dyskryminację lub stygmatyzację – uszczerbek pod względem fizycznym lub psychicznym, szkody materialne lub niematerialne, takie jak straty finansowe lub gospodarcze, utratę zatrudnienia lub możliwości kształcenia, nieuzasadnione ograniczenia wolności wyboru i wypowiedzi lub utratę prywatności, oraz wszelkie naruszenia prawa Unii mające szkodliwy wpływ na daną osobę; |
o) |
„dobre zarządzanie” oznacza sposób zapewniania, by podmioty opracowujące, wdrażające i wykorzystujące stosowały odpowiednie i rozsądne normy i procedury w zakresie zachowania i ich przestrzegały, kierując się oficjalnym zbiorem zasad, procedur i wartości, i mogły odpowiednio rozwiązywać kwestie natury etycznej w miarę ich występowania lub przed ich wystąpieniem. |
Artykuł 5
Zasady etyczne dotyczące sztucznej inteligencji, robotyki i powiązanych z nimi technologii
1. Wszelkiego rodzaju sztuczną inteligencję, robotykę i powiązane z nimi technologie, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie, należy opracowywać, wdrażać i wykorzystywać w Unii zgodnie z prawem Unii i przy pełnym poszanowaniu godności, autonomii i bezpieczeństwa ludzi oraz innych praw podstawowych określonych w Karcie;
2. Wszelkich czynności przetwarzania danych osobowych prowadzonych przy opracowywaniu, wdrażaniu i wykorzystywaniu sztucznej inteligencji, robotyki i powiązanych technologii, w tym w zakresie danych osobowych pochodzących z danych nieosobowych i biometrycznych, dokonuje się zgodnie z rozporządzeniem (UE) 2016/679 i dyrektywą 2002/58/WE.
3. Unia i jej państwa członkowskie zachęcają do prowadzenia projektów badawczych ukierunkowanych na dostarczanie rozwiązań, które są oparte na sztucznej inteligencji, robotyce i powiązanych z nimi technologiach i mają na celu upowszechnianie włączenia społecznego, pluralizmu, solidarności, sprawiedliwości, równości i współpracy.
Rozdział II
Obowiązki względem technologii wysokiego ryzyka
Artykuł 6
Obowiązki względem technologii wysokiego ryzyka
1. Przepisy niniejszego rozdziału mają zastosowanie wyłącznie do sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wykorzystywanych lub generowanych przez te technologie, opracowywanych, wdrażanych i wykorzystywanych w Unii, które są uznawane za technologie wysokiego ryzyka.
2. Wszelkiego rodzaju sztuczną inteligencję, robotykę i powiązane z nimi technologie wysokiego ryzyka, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie, należy opracowywać, wdrażać i wykorzystywać w sposób zapewniający, aby nie naruszały one zasad etycznych określonych w niniejszym rozporządzeniu.
Artykuł 7
Sztuczna inteligencja ukierunkowana na człowieka i stworzona przez człowieka
1. Wszelkie technologie sztucznej inteligencji wysokiego ryzyka, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie, należy opracowywać, wdrażać i wykorzystywać w sposób gwarantujący pełny nadzór człowieka w dowolnym momencie.
2. Technologie, o których mowa w ust. 1 należy opracowywać, wdrażać i wykorzystywać w sposób umożliwiający odzyskanie pełnej kontroli przez człowieka w razie potrzeby, w tym przez modyfikację lub wstrzymanie działania tych technologii.
Artykuł 8
Bezpieczeństwo, przejrzystość i odpowiedzialność
1. Wszelkiego rodzaju sztuczną inteligencję, robotykę i powiązane z nimi technologie wysokiego ryzyka, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie, należy opracowywać, wdrażać i wykorzystywać w sposób zapewniający, że są one:
a) |
opracowywane, wdrażane i wykorzystywane w sposób odporny, aby zapewniały one odpowiedni poziom bezpieczeństwa, przestrzegając minimalnych poziomów bazowych w zakresie cyberbezpieczeństwa, proporcjonalnych do zidentyfikowanego ryzyka, a także taki, który zapobiega wykorzystywaniu wszelkich słabych pod względem technicznym stron w celach nieuczciwych lub niezgodnych z prawem; |
b) |
opracowywane, wdrażane i wykorzystywane w sposób bezpieczny, zapewniający zabezpieczenia obejmujące plan awaryjny i działania awaryjne w przypadku ryzyka dla bezpieczeństwa; |
c) |
opracowywane, wdrażane i wykorzystywane w sposób zapewniający wiarygodne działanie, jakiego podmiot wykorzystujący może racjonalnie oczekiwać w odniesieniu do osiągania celów i realizowania działań, do których technologie te zostały stworzone, w tym przez zapewnienie możliwości odtworzenia wszystkich operacji; |
d) |
opracowywane, wdrażane i wykorzystywane w sposób zapewniający precyzyjne osiąganie celów i realizowanie działań przewidzianych dla poszczególnych technologii; jeżeli uniknięcie sporadycznych niedokładności nie jest możliwe, system musi, w możliwym zakresie, sygnalizować podmiotom wdrażającym i wykorzystującym prawdopodobieństwo błędów i niedokładności za pomocą odpowiednich środków; |
e) |
opracowywane, wdrażane i wykorzystywane w sposób, który jest łatwo wyjaśnialny, aby zapewnić możliwość przeglądu procesów technicznych prowadzonych w ramach tych technologii; |
f) |
opracowywane, wdrażane i wykorzystywane w taki sposób, aby informowały podmioty wykorzystujące o tym, że prowadzą one komunikację z systemami sztucznej inteligencji, przy jednoczesnym odpowiednim i kompleksowym powiadomieniu podmiotów opracowujących, wdrażających i wykorzystujących sztuczną inteligencję o zdolnościach tych systemów, ich dokładności oraz ograniczeniach; |
g) |
zgodnie z art. 6 ust. 3 opracowywane, wdrażane i wykorzystywane w taki sposób, aby w przypadku niezgodności z zabezpieczeniami określonymi w lit. a)–g) można było dokonać tymczasowej dezaktywacji funkcji, których to dotyczy, oraz przywrócić wcześniejszy stan, określany jako przywrócenie bezpiecznych funkcji. |
2. Zgodnie z art. 6 ust. 1 technologie, o których mowa w ust. 1 niniejszego artykułu, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie, należy opracowywać, wdrażać i wykorzystywać w sposób przejrzysty i możliwy do identyfikacji, aby ich elementy, procesy i etapy zostały udokumentowane, spełniając najwyższe obowiązujące normy, oraz aby krajowe organy nadzoru, o których mowa w art. 18, mogły dokonać oceny zgodności tych technologii z zobowiązaniami określonymi w niniejszym rozporządzeniu. W szczególności podmiot opracowujący, wdrażający lub wykorzystujący te technologie ponosi odpowiedzialność za zgodność z zabezpieczeniami określonymi w ust. 1 i musi być w stanie udowodnić tę zgodność.
3. Podmiot opracowujący, wdrażający lub wykorzystujący technologie, o których mowa w ust. 1, zapewnia, aby krajowe organy nadzoru, o których mowa w art. 18, lub, w stosownych przypadkach, inne krajowe lub europejskie sektorowe organy nadzoru, mogły przeprowadzić audyt środków przyjętych w celu zagwarantowania zgodności z zabezpieczeniami określonymi w ust. 1.
Artykuł 9
Brak nierównego traktowania i niedyskryminacja
1. Wszelkie oprogramowanie, algorytmy lub dane wykorzystywane lub generowane przez sztuczną inteligencję, robotykę i powiązane z nimi technologie opracowywane, wdrażane lub wykorzystywane w Unii są bezstronne i, bez uszczerbku dla ust. 2, nie dyskryminują ze względów takich jak rasa, płeć, orientacja seksualna, ciąża, niepełnosprawność, cechy fizyczne lub genetyczne, wiek, mniejszość narodowa, pochodzenie etniczne lub społeczne, język, religia lub przekonania, poglądy polityczne lub aktywność obywatelska, obywatelstwo, stan cywilny lub status ekonomiczny, wykształcenie lub uprzednia karalność.
2. W drodze odstępstwa od ust. 1 oraz nie naruszając prawa Unii regulującego niezgodną z prawem dyskryminację, wszelkie odmienne traktowanie osób lub grup osób może być uzasadnione wyłącznie wtedy, gdy istnieje obiektywny, racjonalny i uzasadniony cel, który jest jednocześnie proporcjonalny i niezbędny w zakresie, w jakim nie istnieje alternatywne rozwiązanie pociągające za sobą mniejszą ingerencję w zasadę równego traktowania.
Artykuł 10
Odpowiedzialność społeczna i równowaga płci
Wszelkiego rodzaju sztuczną inteligencję, robotykę i powiązane z nimi technologie wysokiego ryzyka, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie, opracowywane, wdrażane i wykorzystywane w Unii, należy opracowywać, wdrażać i wykorzystywać zgodnie ze stosownymi przepisami, zasadami i wartościami Unii w sposób, który nie ingeruje w wybory ani nie przyczynia się do rozpowszechniania dezinformacji, respektuje prawa pracowników, promuje wysokiej jakości edukację i umiejętności cyfrowe, nie zwiększa różnic w traktowaniu kobiet i mężczyzn poprzez uniemożliwianie równych szans dla wszystkich i nie narusza praw własności intelektualnej oraz wszelkich powiązanych ograniczeń i wyjątków.
Artykuł 11
Zrównoważenie środowiskowe
Krajowe organy nadzoru, o których mowa w art. 18, lub, w stosownych przypadkach, inne krajowe lub europejskie sektorowe organy nadzoru, dokonują oceny zrównoważenia środowiskowego wszelkiego rodzaju sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka, w tym oprogramowania, algorytmów oraz danych wykorzystywanych lub generowanych przez te technologie, zapewniając wdrożenie środków mających na celu zmniejszenie i naprawienie ogólnego wpływu tych technologii pod względem zasobów naturalnych, zużycia energii, wytwarzania odpadów, śladu węglowego, kryzysu związanego ze zmianą klimatu i degradacji środowiska, aby zapewnić zgodność z mającym zastosowanie prawem Unii lub krajowym oraz wszelkimi innymi międzynarodowymi zobowiązaniami w dziedzinie środowiska naturalnego podjętymi przez Unię.
Artykuł 12
Poszanowanie prywatności i ochrona danych osobowych
Wykorzystanie i gromadzenie danych biometrycznych na potrzeby zdalnej identyfikacji w sferze publicznej, jak rozpoznawanie elementów biometrycznych lub rozpoznawanie twarzy, wiąże się ze szczególnym zagrożeniem dla praw podstawowych i jest stosowane lub wykorzystywane tylko przez organy publiczne państw członkowskich do celów istotnego interesu publicznego. Organy te zapewniają, aby takie stosowanie lub wykorzystywanie było ujawniane publiczne, proporcjonalne, ukierunkowane i ograniczało się do konkretnych celów i lokalizacji, było ograniczone w czasie i odbywało się zgodnie z prawem Unii i prawem krajowym, w szczególności z rozporządzeniem (UE) 2016/679 i dyrektywą 2002/58/WE, z należytym uwzględnieniem godności i autonomii człowieka oraz praw podstawowych określonych w Karcie, zwłaszcza prawa do poszanowania prywatności i ochrony danych osobowych.
Artykuł 13
Prawo do dochodzenia roszczeń
Każda osoba fizyczna lub prawna ma prawo do dochodzenia roszczeń za obrażenia lub szkody spowodowane opracowywaniem, wdrażaniem lub wykorzystywaniem sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka, w tym oprogramowania, algorytmów oraz danych wykorzystywanych lub generowanych przez te technologie, z naruszeniem prawa Unii i obowiązków określonych w niniejszym rozporządzeniu.
Artykuł 14
Ocena ryzyka
1. Do celów niniejszego rozporządzenia sztuczną inteligencję, robotykę i powiązane z nimi technologie, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie, uznaje się za technologie wysokiego ryzyka, jeżeli po przeprowadzeniu oceny ryzyka opartej na obiektywnych kryteriach, takich jak konkretne zastosowanie lub cel, sektor, w którym są one opracowywane, wdrażane lub wykorzystywane, oraz stopień ewentualnego obrażenia lub szkody, ich opracowanie, wdrożenie lub wykorzystanie wiąże się ze znacznym ryzykiem spowodowania szkód lub obrażeń, co do których można się spodziewać, że wystąpią u osób lub w społeczeństwie z naruszeniem praw podstawowych i zasad bezpieczeństwa określonych w prawie Unii.
2. Bez uszczerbku dla obowiązujących przepisów sektorowych, ocena ryzyka związanego ze sztuczną inteligencją, robotyką i powiązanymi z nimi technologiami, w tym z oprogramowaniem, algorytmami i danymi wykorzystywanymi lub generowanymi przez takie technologie, przeprowadzana jest, zgodnie z obiektywnymi kryteriami przewidzianymi w ust. 1 niniejszego artykułu oraz w wyczerpującym i zbiorczym wykazie przedstawionym w załączniku do niniejszego rozporządzenia, przez krajowe organy nadzoru, o których mowa w art. 18, w koordynacji z Komisją i/lub wszelkimi innymi właściwymi instytucjami, organami, urzędami i agencjami Unii, które mogą zostać wyznaczone w tym celu w kontekście ich współpracy.
3. We współpracy z krajowymi organami nadzoru, o których mowa w ust. 2, Komisja, w drodze aktów delegowanych zgodnie z art. 20, sporządza, a następnie aktualizuje wspólny wykaz technologii wysokiego ryzyka zidentyfikowanych w Unii.
4. Komisja dokonuje również, w drodze aktów delegowanych zgodnie z art. 20, regularnej aktualizacji wykazu przewidzianego w załączniku do niniejszego rozporządzenia.
Artykuł 15
Ocena zgodności
1. Sztuczna inteligencja, robotyka i powiązane z nimi technologie wysokiego ryzyka podlegają ocenie zgodności z obowiązkami określonymi w art. 6–12 niniejszego rozporządzenia, a następnie monitorowaniu, które są przeprowadzane przez krajowe organy nadzoru, o których mowa w art. 18, w koordynacji z Komisją i/lub innymi właściwymi instytucjami, organami, urzędami i agencjami Unii, które mogą zostać wyznaczone w tym celu.
2. Oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez technologie wysokiego ryzyka, które zostały ocenione jako zgodne z obowiązkami określonymi w niniejszym rozporządzeniu zgodnie z ust. 1, są uznawane za zgodne z tymi obowiązkami, chyba że właściwy krajowy organ nadzoru podejmie decyzję o przeprowadzeniu oceny z własnej inicjatywy lub na wniosek podmiotu opracowującego, wdrażającego lub wykorzystującego.
3. Bez uszczerbku dla przepisów sektorowych Komisja i/lub wszelkie właściwe instytucje, organy, urzędy i agencje Unii, które mogą zostać specjalnie wyznaczone do tego celu, przygotowują wiążące wytyczne dotyczące metodyki, jaką powinny stosować krajowe organy nadzoru przy wykonywaniu oceny zgodności, o której mowa w ust.1, do dnia wejścia w życie niniejszego rozporządzenia.
Artykuł 16
Europejski certyfikat zgodności z zasadami etycznymi
1. W przypadku pozytywnej oceny zgodności sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka, w tym oprogramowania, algorytmów i danych wykorzystywanych lub wytwarzanych przez takie technologie, przeprowadzonej zgodnie z art. 15, odpowiedni krajowy organ nadzoru wydaje europejski certyfikat zgodności z zasadami etycznymi.
2. Każdy podmiot opracowujący, wdrażający lub wykorzystujący sztuczną inteligencję, robotykę i powiązane z nimi technologie, w tym oprogramowanie, algorytmy i dane wykorzystywane lub generowane przez takie technologie, które nie są uznawane za obarczone wysokim ryzykiem i w związku z tym nie podlegają obowiązkom określonym w art. 6–12 ani ocenie ryzyka i ocenie zgodności, o których mowa w art. 14 i 15, może również starać się o poświadczenie zgodności z obowiązkami określonymi w niniejszym rozporządzeniu lub z ich częścią, jeżeli jest to uzasadnione charakterem danej technologii, zgodnie z decyzją krajowych organów nadzoru. Certyfikat jest wydawany tylko wtedy, gdy ocena zgodności została przeprowadzona przez właściwy krajowy organ nadzoru i gdy ocena ta jest pozytywna.
3. Do celów wydania certyfikatu, o którym mowa w ust. 2, Komisja i/lub inne właściwe instytucje, organy, urzędy i agencje Unii, które mogą zostać wyznaczone do tego celu, opracowują procedurę składania wniosków.
Rozdział III
Nadzór instytucjonalny
Artykuł 17
Normy zarządzania i wytyczne wykonawcze
1. Sztuczna inteligencja, robotyka i powiązane z nimi technologie opracowywane, wdrażane i wykorzystywane w Unii spełniają stosowne normy zarządzania określone zgodnie z przepisami, zasadami i wartościami Unii przez krajowe organy nadzoru, o których mowa w art. 18, zgodnie z przepisami, zasadami i wartościami Unii, w koordynacji z Komisją i/lub właściwymi instytucjami, organami, urzędami i agencjami Unii, które mogą zostać wyznaczone w tym celu i w porozumieniu z odpowiednimi zainteresowanymi stronami.
2. Normy, o których mowa w ust. 1, obejmują niewiążące wytyczne wykonawcze dotyczące metodyki zapewnienia zgodności z niniejszym rozporządzeniem przez podmioty opracowujące, wdrażające i wykorzystujące oraz są publikowane do dnia wejścia w życie niniejszego rozporządzenia.
3. Podmioty opracowujące, wdrażające lub wykorzystujące zarządzają danymi wykorzystywanymi lub generowanymi przez sztuczną inteligencję, robotykę i powiązane z nimi technologie opracowywane, wdrażane lub wykorzystywane w Unii zgodnie ze stosownymi przepisami i normami krajowymi i międzynarodowymi, a także Unii i innych organizacji europejskich, jak również zgodnie z odpowiednimi procedurami branżowymi i dotyczącymi przedsiębiorstw. W szczególności podmioty opracowujące i wdrażające, w przypadkach, w których jest to możliwe, prowadzą kontrole jakości zewnętrznych źródeł danych wykorzystywanych przez sztuczną inteligencję, robotykę i powiązane z nimi technologie oraz wprowadzają mechanizmy nadzoru w odniesieniu do gromadzenia, przechowywania, przetwarzania i wykorzystywania tych danych.
4. Bez uszczerbku dla praw do przenoszenia danych oraz praw osób, które w wyniku wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii doprowadziły do wygenerowania danych, gromadzenie, przechowywanie, przetwarzanie, wymiana oraz udostępnianie danych wykorzystywanych lub generowanych przez sztuczną inteligencję, robotykę i powiązane z nimi technologie opracowywane, wdrażane lub wykorzystywane w Unii musi spełniać stosowne normy krajowe i międzynarodowe, a także Unii i innych organizacji europejskich, jak również być zgodnie z odpowiednimi procedurami branżowymi i dotyczącymi przedsiębiorstw. W szczególności podmioty opracowujące i wdrażające zapewniają stosowanie tych procedur podczas opracowywania i wdrażania sztucznej inteligencji, robotyki i powiązanych z nimi technologii przez jednoznaczne zdefiniowanie wymogów dotyczących przetwarzania danych wykorzystywanych lub generowanych przez te technologie oraz udzielania do nich dostępu, a także celu, zakresu i adresatów przetwarzania takich danych oraz udzielania do nich dostępu, przy czym w odniesieniu do każdego z tych aspektów musi być możliwe w dowolnym czasie przeprowadzenie kontroli i dokonanie identyfikacji.
Artykuł 18
Organy nadzoru
1. Każde państwo członkowskie wyznacza niezależny organ publiczny odpowiedzialny za monitorowanie stosowania niniejszego rozporządzenia („organ nadzoru”) i przeprowadzanie ocen ryzyka i zgodności oraz wydawanie certyfikatów przewidzianych w art. 14, 15 i 16, bez uszczerbku dla przepisów sektorowych.
2. Każdy organ nadzoru przyczynia się do spójnego stosowania niniejszego rozporządzenia w całej Unii. W tym celu organy nadzoru poszczególnych państw członkowskich współpracują między sobą, z Komisją lub z innymi właściwymi instytucjami, organami i jednostkami organizacyjnymi Unii, które mogą zostać wyznaczone do tego celu.
3. Każdy krajowy organ nadzoru stanowi pierwszy punkt kontaktowy w przypadkach podejrzenia naruszenia zasad etycznych i zobowiązań prawnych ustanowionych w niniejszym rozporządzeniu, w tym dyskryminacyjnego traktowania lub naruszenia innych praw, w wyniku opracowania, wdrożenia lub wykorzystania sztucznej inteligencji, robotyki i powiązanych z nimi technologii. W takich przypadkach odpowiedni krajowy organ nadzoru przeprowadza ocenę zgodności w celu wspierania prawa obywateli do wniesienia sprzeciwu i dochodzenia roszczeń.
4. Każdy krajowy organ nadzoru ponosi odpowiedzialność za nadzorowanie odpowiednich krajowych, europejskich i międzynarodowych zasad i standardów zarządzania, o których mowa w art. 17, w odniesieniu do sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym w drodze współpracy z jak największą liczbą odnośnych zainteresowanych stron. W tym celu organy nadzoru poszczególnych państw członkowskich zapewniają forum regularnej wymiany informacji z i między zainteresowanymi stronami takimi jak środowisko akademickie, naukowcy, przemysł i społeczeństwo obywatelskie.
5. Każdy krajowy organ nadzoru zapewnia profesjonalne wytyczne i wsparcie administracyjne w zakresie ogólnego wdrażania prawa Unii mającego zastosowanie do sztucznej inteligencji, robotyki i powiązanych z nimi technologii oraz zasad etycznych określonych w niniejszym rozporządzeniu, zwłaszcza odpowiednim instytucjom badawczo-rozwojowym oraz małym i średnim przedsiębiorstwom lub przedsiębiorstwom typu start-up.
6. Każde państwo członkowskie zgłasza Komisji Europejskiej przepisy przyjęte zgodnie z niniejszym artykułem do dnia [Dz.U.: proszę wstawić datę wypadającą po upływie roku od dnia wejścia w życie] oraz, niezwłocznie, wszelkie kolejne zmiany mające na nie wpływ.
7. Państwa członkowskie podejmują wszelkie niezbędne środki, aby zapewnić stosowanie zasad etycznych i zobowiązań prawnych określonych w niniejszym rozporządzeniu. Państwa członkowskie wspierają stosowne zainteresowane strony oraz społeczeństwo obywatelskie zarówno na poziomie Unii, jak i na szczeblu krajowym, w wysiłkach na rzecz zapewnienia terminowej, etycznej i popartej należytymi informacjami reakcji na nowe możliwości i wyzwania, w szczególności o charakterze transgranicznym, związane z postępem technologicznym w zakresie sztucznej inteligencji, robotyki i powiązanych z nimi technologii.
Artykuł 19
Zgłaszanie naruszeń i ochrona zgłaszających
Do zgłaszania naruszeń przepisów niniejszego rozporządzenia oraz ochrony osób zgłaszających przypadki naruszeń stosuje się dyrektywę Parlamentu Europejskiego i Rady (UE) 2019/1937 (6).
Artykuł 20
Koordynacja na poziomie Unii
1. Komisja lub wszelkie właściwe instytucje, organy, urzędy i agencje Unii, które mogą zostać wyznaczone w tym kontekście, wykonują następujące zadania:
— |
zapewnienie spójnej oceny ryzyka w zakresie sztucznej inteligencji, robotyki i powiązanych z nimi technologii, o których mowa w art. 14, przeprowadzanej przez krajowe organy nadzoru, o których mowa w art. 18, na podstawie wspólnych obiektywnych kryteriów przewidzianych w art. 8 ust. 1 oraz w wykazie sektorów wysokiego ryzyka oraz zastosowań lub celów wysokiego ryzyka określonym w załączniku do niniejszego rozporządzenia; |
— |
uwzględnianie oceny zgodności, a następnie monitorowanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka, o których mowa w art. 15, przeprowadzane przez krajowe organy nadzoru, o których mowa w art. 18; |
— |
opracowanie procesu składania wniosków o certyfikat, o którym mowa w art. 16, wydawany przez krajowe organy nadzoru, o których mowa w art. 18; |
— |
bez uszczerbku dla przepisów sektorowych, przygotowanie wiążących wytycznych, o których mowa w art. 17 ust. 4, dotyczących metodyki stosowanej przez krajowe organy nadzoru, o których mowa w art. 18; |
— |
koordynowanie ustanawiania odpowiednich standardów zarządzania, o których mowa w art. 17, przez krajowe organy nadzoru, o których mowa w art. 18, w tym niewiążących wytycznych wykonawczych dla podmiotów opracowujących, wdrażających i wykorzystujących, dotyczących metodyki zapewnienia zgodności z niniejszym rozporządzeniem; |
— |
współpraca z krajowymi organami nadzoru, o których mowa w art. 18, w zakresie ich wkładu w jednolite stosowanie niniejszego rozporządzenia w całej Unii zgodnie z art. 18 ust. 2; |
— |
służenie jako ośrodek wiedzy specjalistycznej poprzez promowanie wymiany informacji związanych ze sztuczną inteligencją, robotyką i powiązanymi z nimi technologiami oraz wspieranie rozwoju wspólnego zrozumienia w ramach jednolitego rynku, wydawanie dodatkowych wytycznych i opinii oraz służenie wiedzą specjalistyczną krajowym organom nadzoru, o których mowa w art. 18, monitorowanie wdrażania stosownego prawa Unii, określanie standardów dotyczących najlepszych praktyk oraz, w stosownych przypadkach, wydawanie zaleceń dotyczących środków regulacyjnych; należy przy tym współpracować z jak największą liczbą zainteresowanych stron i zapewnić zróżnicowany skład poziomów decyzyjnych oraz zagwarantować równość płci; |
— |
przyjęcie grupy roboczej ds. bezpieczeństwa i obrony, której celem jest przeanalizowanie kwestii politycznych i inwestycyjnych związanych konkretnie z etycznym wykorzystaniem sztucznej inteligencji, robotyki i powiązanych z nimi technologii w dziedzinie bezpieczeństwa i obrony. |
Artykuł 21
Wykonywanie przekazanych uprawnień
1. Powierzenie Komisji uprawnień do przyjmowania aktów delegowanych podlega warunkom określonym w niniejszym artykule.
2. Uprawnienia do przyjęcia aktów delegowanych, o których mowa w art. 14 ust. 3 i 4, powierza się Komisji na okres 5 lat od dnia [data wejścia w życie niniejszego rozporządzenia].
3. Przekazanie uprawnień, o którym mowa w art. 14 ust. 3 i 4, może zostać w dowolnym momencie odwołane przez Parlament Europejski lub przez Radę. Decyzja o odwołaniu kończy przekazanie określonych w niej uprawnień. Decyzja o odwołaniu staje się skuteczna od następnego dnia po jej opublikowaniu w Dzienniku Urzędowym Unii Europejskiej lub w określonym w tej decyzji późniejszym terminie. Nie wpływa ona na ważność już obowiązujących aktów delegowanych.
4. Przed przyjęciem aktu delegowanego Komisja konsultuje się z ekspertami wyznaczonymi przez każde państwo członkowskie zgodnie z zasadami określonymi w Porozumieniu międzyinstytucjonalnym z dnia 13 kwietnia 2016 r. w sprawie lepszego stanowienia prawa.
5. Niezwłocznie po przyjęciu aktu delegowanego Komisja przekazuje go równocześnie Parlamentowi Europejskiemu i Radzie.
6. Akt delegowany przyjęty na podstawie art. 14 ust. 3 i 4 wchodzi w życie tylko wówczas, gdy ani Parlament Europejski, ani Rada nie wyraziły sprzeciwu w terminie trzech miesięcy od przekazania tego aktu Parlamentowi Europejskiemu i Radzie, lub gdy, przed upływem tego terminu, zarówno Parlament Europejski, jak i Rada poinformowały Komisję, że nie wniosą sprzeciwu. Termin ten przedłuża się o trzy miesiące z inicjatywy Parlamentu Europejskiego lub Rady.
Artykuł 22
Zmiana w dyrektywie (UE) 2019/1937
W dyrektywie (UE) 2019/1937 wprowadza się następujące zmiany:
1) |
w art. 2 ust. 1 dodaje się literę w brzmieniu:
|
2) |
w części I załącznika dodaje się literę w brzmieniu:
|
Artykuł 23
Przegląd
Komisja poddaje regularnemu przeglądowi rozwój sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wytwarzanych lub generowanych przez te technologie, oraz do dnia [Dz.U.: proszę wstawić datę wypadającą po upływie trzech lat od dnia wejścia w życie], a następnie co trzy lata, przedstawia Parlamentowi Europejskiemu, Radzie i Europejskiemu Komitetowi Ekonomiczno-Społecznemu sprawozdanie dotyczące stosowania niniejszego rozporządzenia, w tym ocenę możliwej zmiany zakresu zastosowania niniejszego rozporządzenia.
Artykuł 24
Wejście w życie
Niniejsze rozporządzenie wchodzi w życie dwudziestego dnia po jego opublikowaniu w Dzienniku Urzędowym Unii Europejskiej.
Niniejsze rozporządzenie stosuje się od dnia XX r.
Niniejsze rozporządzenie wiąże w całości i jest bezpośrednio stosowane we wszystkich państwach członkowskich.
Sporządzono w …,
W imieniu Parlamentu Europejskiego
Przewodniczący
W imieniu Rady
Przewodniczący
ZAŁĄCZNIK
Wyczerpujący i skumulowany wykaz sektorów wysokiego ryzyka oraz zastosowań lub celów wysokiego ryzyka, które wiążą się z ryzykiem naruszenia praw podstawowych i zasad bezpieczeństwa.
Sektory wysokiego ryzyka |
|
||||||||||||||||||||||||||||
Zastosowania lub cele wysokiego ryzyka |
|
(1) W przypadku automatycznego prowadzenia pojazdów Stowarzyszenie Inżynierów Motoryzacyjnych (SAE) zaproponowało w normie międzynarodowej J3016 sześć poziomów automatyzacji prowadzenia pojazdów; dokument aktualizowano ostatnio w 2018 r. do wersji J3016_201806. https://www.sae.org/standards/content/j3016_201806/
(2) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych), (Dz.U. L 119 z 4.5.2016, s. 1).
(3) Dyrektywa 2002/58/WE Parlamentu Europejskiego i Rady z dnia 12 lipca 2002 r. dotycząca przetwarzania danych osobowych oraz ochrony prywatności w sektorze telekomunikacyjnym (dyrektywa o prywatności i łączności elektronicznej) (Dz.U. L 201 z 31.7.2002, s. 37).
(4) Definicja zgodna z komunikatem Komisji COM(2018)0237 z dnia 25.4.2018 r., s. 1, dostosowana.
(5) Na podstawie definicji robotów przemysłowych zawartej w normie ISO 8373.
(6) Dyrektywa Parlamentu Europejskiego i Rady (UE) 2019/1937 z dnia 23 października 2019 r. w sprawie ochrony osób zgłaszających naruszenia prawa Unii (Dz.U. L 305 z 26.11.2019, s. 17).