This document is an excerpt from the EUR-Lex website
Document 52018IE1473
Opinion of the European Economic and Social Committee on ‘Artificial intelligence: anticipating its impact on work to ensure a fair transition’ (own-initiative opinion)
Opinia Europejskiego Komitetu Ekonomiczno-Społecznego „Sztuczna inteligencja: przewidywanie jej wpływu na pracę w celu zapewnienia sprawiedliwej transformacji” (opinia z inicjatywy własnej)
Opinia Europejskiego Komitetu Ekonomiczno-Społecznego „Sztuczna inteligencja: przewidywanie jej wpływu na pracę w celu zapewnienia sprawiedliwej transformacji” (opinia z inicjatywy własnej)
EESC 2018/01473
Dz.U. C 440 z 6.12.2018, p. 1–7
(BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)
6.12.2018 |
PL |
Dziennik Urzędowy Unii Europejskiej |
C 440/1 |
Opinia Europejskiego Komitetu Ekonomiczno-Społecznego „Sztuczna inteligencja: przewidywanie jej wpływu na pracę w celu zapewnienia sprawiedliwej transformacji”
(opinia z inicjatywy własnej)
(2018/C 440/01)
Sprawozdawca: |
Franca SALIS-MADINIER |
Decyzja Zgromadzenia Plenarnego |
15.2.2018 |
Podstawa prawna |
Art. 29 ust. 2 regulaminu wewnętrznego |
Sekcja odpowiedzialna |
Sekcja Jednolitego Rynku, Produkcji i Konsumpcji |
Data przyjęcia przez sekcję |
4.9.2018 |
Data przyjęcia na sesji plenarnej |
19.9.2018 |
Sesja plenarna nr |
537 |
Wynik głosowania (za/przeciw/wstrzymało się) |
183/1/2 |
1. Wnioski i zalecenia
1.1. |
Sztuczna inteligencja (SI) i robotyka rozszerzą zakres skutków cyfryzacji gospodarki na rynkach pracy i spotęgują je (1). Postęp technologiczny zawsze oddziaływał na pracę i zatrudnienie, wymagając nowych form wsparcia socjalnego i społecznego. EKES żywi przekonanie, że rozwój technologiczny może przyczynić się do rozwoju gospodarki i społeczeństwa. Jednak jest zdania, że lekceważenie jego ogólnych skutków dla społeczeństwa byłoby błędem. W świecie pracy sztuczna inteligencja rozszerzy i zwiększy zakres automatyzacji miejsc pracy (2). Z tego względu EKES pragnie uczestniczyć w procesie przygotowania transformacji społecznej, która będzie towarzyszyć rozwojowi sztucznej inteligencji i robotyki, poprzez wzmocnienie i modernizację europejskiego modelu społecznego. |
1.2. |
EKES pragnie zwrócić uwagę na potencjał SI i jej zastosowań, w szczególności w dziedzinie opieki zdrowotnej, bezpieczeństwa transportu i energetyki, przeciwdziałania zmianie klimatu, zapobiegania zagrożeniom w zakresie cyberbezpieczeństwa. Unia Europejska, rządy i organizacje społeczeństwa obywatelskiego mają istotną rolę do odegrania w celu pełnego wykorzystania korzyści, jakie może przynieść z sobą sztuczna inteligencja, zwłaszcza osobom niepełnosprawnym, osobom o ograniczonej możliwości poruszania się, a także osobom starszym i ludziom przewlekle chorych. |
1.3. |
Jednakże UE nie posiada wystarczających danych na temat gospodarki cyfrowej i przemian społecznych, które ona za sobą pociąga. EKES zaleca ulepszenie narzędzi statystycznych i badawczych, w szczególności w zakresie sztucznej inteligencji, zastosowania robotów przemysłowych i usługowych, internetu rzeczy oraz nowych modeli ekonomicznych (gospodarka platformowa, nowe formy zatrudnienia i pracy). |
1.4. |
EKES zwraca się do Komisji Europejskiej o promowanie i wspieranie realizacji badań na szczeblu europejskich komitetów sektorowego dialogu społecznego na temat sektorowego oddziaływania SI i robotyki oraz, w szerszym ujęciu, cyfryzacji gospodarki. |
1.5. |
Wiadomo, że sztuczna inteligencja i robotyka spowodują przenoszenie i transformację miejsc pracy – niektóre zanikną, a powstaną nowe. W każdym przypadku UE powinna zagwarantować wszystkim pracownikom – najemnym, samozatrudnionym i fikcyjnie samozatrudnionym – dostęp do ochrony socjalnej, zgodnie z Europejskim filarem praw socjalnych. |
1.6. |
Komisja zaproponowała wzmocnienie Europejskiego Funduszu Dostosowania do Globalizacji, aby mogli z niego skorzystać pracownicy, którzy tracą pracę, i samozatrudnieni, którzy zaprzestają prowadzenia działalności z powodu cyfryzacji gospodarki (3). EKES widzi w tym krok w kierunku utworzenia prawdziwego Europejskiego Funduszu Transformacji, który przyczyniałby się do społecznie odpowiedzialnego zarządzania transformacją cyfrową. |
1.7. |
EKES zaleca stosowanie i wzmocnienie zasad, zobowiązań i obowiązków zawartych w istniejących tekstach przyjętych przez instytucje europejskie, a także przez partnerów społecznych, dotyczących informowania pracowników i konsultacji z nimi (4), zwłaszcza podczas wprowadzania nowych technologii, w tym sztucznej inteligencji i robotyki. EKES wzywa do opracowania europejskiego programu w dziedzinie sztucznej inteligencji, który sprzyjałby włączeniu społecznemu, byłby oparty na wyżej wspomnianych tekstach i na Europejskim filarze praw socjalnych oraz angażowałby wszystkie zainteresowane strony. |
1.8. |
EKES zaleca, aby w wytycznych w dziedzinie etyki odnośnie do SI, które opracuje Komisja, określono wyraźną granicę dotyczącą interakcji między pracownikami i inteligentnymi maszynami, tak aby człowiek nigdy nie stał się wykonawcą poleceń maszyny. Z myślą o sztucznej inteligencji sprzyjającej włączeniu społecznemu wytyczne te powinny ustanawiać zasady uczestnictwa, rozliczalności, odpowiedzialności za procesy produkcji, tak aby – jak to podkreślono w Konstytucji MOP-u – praca dawała wykonującym ją osobom satysfakcję, że wykorzystują wszystkie swoje zdolności i wiedzę i jak najlepiej przyczyniają się do dobrostanu społecznego. |
1.9. |
EKES zaleca również, by w wytycznych tych zawarto zasady przejrzystości wykorzystywania systemów SI w procesie rekrutacji, oceny i kontroli zarządczej pracowników, a także zasady dotyczące bezpieczeństwa i zdrowia oraz poprawy warunków pracy. Ponadto wytyczne powinny zapewniać ochronę praw i wolności w zakresie przetwarzania danych pracowników, z poszanowaniem zasad niedyskryminacji. |
1.10. |
Wdrażanie wytycznych w zakresie etyki dotyczących sztucznej inteligencji powinno podlegać monitorowaniu. To zadanie nadzoru lub czujnej obserwacji można by powierzyć europejskiemu obserwatorium etyki w zakresie sztucznej inteligencji, które monitorowałoby także przedsiębiorstwa. |
1.11. |
EKES zaleca prowadzenie szkoleń w dziedzinie etyki dla inżynierów i projektantów inteligentnych maszyn, aby zapobiec wprowadzaniu nowych form cyfrowego tayloryzmu, w ramach którego człowiek jedynie wykonywałby polecenia maszyn. Należy wspierać rozpowszechnianie dobrych praktyk i wymianę pozytywnych doświadczeń w tej dziedzinie. |
1.12. |
EKES wzywa do wyjaśnienia zasady odpowiedzialności prawnej. Jeśli chodzi o relację między człowiekiem a maszyną, pojawiające się zagrożenia w zakresie zdrowia i bezpieczeństwa powinny być przedmiotem ambitniejszego podejścia w ramach dyrektywy w sprawie odpowiedzialności za produkty (5). |
1.13. |
Wobec ryzyka wystąpienia polaryzacji społecznej w procesie transformacji cyfrowej EKES wzywa instytucje UE do rozpoczęcia dyskusji na temat kwestii finansowania budżetów publicznych i systemów zabezpieczenia społecznego w gospodarce o coraz większej ilości robotów (6) w sytuacji, gdy podstawowym źródłem przychodów podatkowych w Europie pozostaje podatek od pracy. W debacie tej należałoby również uwzględnić kwestię redystrybucji zysków płynących z cyfryzacji, aby zastosować zasadę sprawiedliwości. |
2. Wstęp
2.1. |
Rozwój sztucznej inteligencji przebiegał nierównomiernie przez całą drugą połowę XX w., od czasu narodzin tego pojęcia w 1956 r. Wiązano z nią wielkie nadzieje, ale przyniosła również wiele rozczarowań. Jednak od kilku lat jej rozwój nabrał na nowo rozpędu dzięki bezprecedensowym w historii ludzkości możliwościom gromadzenia, organizacji i magazynowania danych (technologia dużych zbiorów danych) oraz gwałtownemu wzrostowi mocy obliczeniowej komputerów i możliwości algorytmów. |
2.2. |
W 2017 r. EKES opracował opinię na temat sztucznej inteligencji (7), w której poruszono wiele zagadnień. Jak podkreślono w opinii, nie istnieje dokładna definicja sztucznej inteligencji. Na potrzeby niniejszej opinii sztuczną inteligencję uznaje się za dyscyplinę mającą na celu zastosowanie technologii cyfrowych do tworzenia systemów zdolnych do niezależnego odtwarzania ludzkich funkcji poznawczych, obejmujących w szczególności pobieranie danych, formę rozumienia i dostosowywania (maszynowe rozwiązywanie problemów, rozumowanie i uczenie się). |
2.3. |
Systemy SI są już dzisiaj zdolne do rozwiązywania złożonych problemów, czasami poza zasięgiem ludzkiej inteligencji. Zastosowania SI są potencjalnie niezliczone, zarówno w sektorze bankowości, ubezpieczeń, transportu, opieki zdrowotnej, edukacji, energetyki, marketingu, obronności, jak i w sektorach przemysłu, budownictwa, rolnictwa, rzemiosła itp. (8) Oczekuje się od SI poprawy wydajności procesów produkcji, pobudzenia zyskowności przedsiębiorstw i przyczynienia się do wzrostu gospodarczego. |
2.4. |
Nowy etap rozwoju SI skłania również do szukania odpowiedzi na liczne pytania na temat jej potencjalnej roli w społeczeństwie, stopnia jej niezależności i interakcji z ludźmi. Jak podkreślono w opinii Komitetu na temat SI przyjętej w 2017 r. (9), pytania te dotyczą w szczególności etyki, bezpieczeństwa, przejrzystości, prywatności i norm pracy, edukacji, dostępności, ustawodawstwa i regulacji, rządów i demokracji. |
2.5. |
W dyskusji na temat SI należy połączyć różne podejścia, aby wyszła ona poza kwestie ekonomiczne, do których czasem się ogranicza. Takie multidyscyplinarne ramy byłyby przydatne w analizie oddziaływania sztucznej inteligencji na świat pracy, ponieważ stanowi on jedno z głównych miejsc interakcji między człowiekiem a maszyną. Od zawsze technika miała wpływ na pracę. Skutki SI dla zatrudnienia i pracy wymagają więc szczególnej uwagi na szczeblu politycznym, ponieważ zadaniem instytucji jest przede wszystkim zapewnienie zrównoważonego pod względem społecznym charakteru procesów transformacji gospodarczej (10). |
2.6. |
Celem niniejszej opinii z inicjatywy własnej jest przedstawienie wyzwań, jakie stawia SI w dziedzinie zatrudnienia, łącznie z jego charakterem, oraz w dziedzinie warunków pracy i jej organizacji. Jak już zauważył Komitet (11), potrzebne są lepsze statystyki i badania, by bardziej szczegółowo ująć prognozy dotyczące rozwoju sytuacji na rynku pracy, oraz jasne wskaźniki dotyczące pewnych tendencji związanych w szczególności z jakością pracy, polaryzacją zatrudnienia i dochodów oraz warunkami pracy w procesie transformacji cyfrowej. UE nie posiada wystarczających danych na temat tak zwanej gospodarki dzielenia się, platform pracy na wezwanie, nowych modeli podwykonawstwa online, a także korzystania z robotów przemysłowych i robotów wykonujących usługi na rzecz osób, internetu rzeczy oraz zastosowania i rozpowszechniania systemów SI. |
3. SI i zmiana wielkości zatrudnienia
3.1. |
Kwestia wpływu wdrożenia sztucznej inteligencji i robotyki do procesów produkcji na wielkość zatrudnienia budzi kontrowersje. W wielu badaniach próbowano udzielić odpowiedzi na to pytanie, lecz nie udało się dojść do naukowego konsensusu. Rozbieżność wyników (sięgających od 9 % do 54 % zagrożonych miejsc pracy (12)) stanowi odzwierciedlenie złożonego charakteru doboru metodyki i jej decydującego wpływu na wyniki badania. |
3.2. |
Prognozy są niepewne, ponieważ występują również czynniki inne niż potencjał techniczny automatyzacji: zmiany polityczne, regulacyjne, ekonomiczne, demograficzne, a także dotyczące akceptacji społecznej. Nie wystarczy dysponować dopracowaną technologią, by zagwarantować jej stosowanie i rozpowszechnianie. |
3.3. |
Ponadto nie da się przewidzieć, jaki będzie bilans netto miejsc pracy podlegających automatyzacji w każdym sektorze, jeśli nie uwzględni się przekształceń zawodów i tempa tworzenia nowych miejsc pracy. W istocie rozwój systemów SI będzie wymagał nowych miejsc pracy w dziedzinie inżynierii, informatyki i telekomunikacji (inżynierowie, technicy i operatorzy), a także w dziedzinie technologii dużych zbiorów danych: specjalistów ds. danych, analityków danych, eksploratorów danych itd. |
3.4. |
Zadaniem instytucji publicznych będzie zapewnienie zrównoważonego pod względem społecznym charakteru transformacji cyfrowej, która będzie mogła wpłynąć jednocześnie na ilość i jakość miejsc pracy (13). Jednym z zagrożeń podkreślanych przez ekspertów jest ryzyko polaryzacji miejsc pracy na „supergwiazdy” z jednej strony, posiadające kwalifikacje przydatne dla gospodarki cyfrowej, oraz „przegranych” z drugiej strony, których kwalifikacje, doświadczenie i wiedza fachowa stopniowo będą tracić przydatność w wyniku tej transformacji. W swoim niedawnym komunikacie (14) Komisja Europejska proponuje w reakcji na to wyzwanie podjęcie działań w dziedzinie edukacji, szkolenia, poprawy umiejętności podstawowych w zakresie pisania, czytania i liczenia oraz umiejętności cyfrowych. Reakcja ta zasługuje na wsparcie podmiotów gospodarczych i społecznych, przede wszystkim w ramach dialogu społecznego na szczeblu krajowym, europejskim, międzybranżowym i sektorowym (15). |
3.5. |
EKES uważa jednakże że działania te nie wystarczą, by sprostać wszystkim wyzwaniom, w szczególności niepewności dotyczącej zmian w zatrudnieniu. Warte opracowania są trzy dodatkowe ścieżki: sztucznej inteligencji sprzyjającej włączeniu społecznemu, przewidywania zmian oraz odpowiedzialnych społecznie i uregulowanych restrukturyzacji w przypadku, gdy nie będzie można uniknąć planów socjalnych. |
4. SI i automatyzacja sprzyjające włączeniu i inteligentne
4.1. |
EKES wspiera stosowanie programu SI i automatyzacji sprzyjających włączeniu. Oznacza to, że podczas wprowadzania w przedsiębiorstwach nowych procesów opartych na nowych technologiach warto włączać pracowników w zasady działania tych procesów. Jak zauważa WRR (16), „sprzyjające włączeniu i inteligentne” wdrażanie nowych technologii, w którym pracownicy pozostają w centrum procesów i uczestniczą w ich ulepszaniu, może przyczynić się do ułatwienia doskonalenia procesów produkcji (17). |
4.2. |
Mając na uwadze, jaki wpływ wywierają algorytmy na warunki pracy, rekrutację i ocenę zawodową, EKES popiera zasadę przejrzystości algorytmów, która nie polega na ujawnianiu kodów, lecz na zadbaniu o zrozumiałość parametrów i kryteriów stanowiących podstawę podejmowanych decyzji. Zawsze możliwe powinno być odwołanie się do człowieka. |
4.3. |
SI stawiająca pracownika w centrum zainteresowania bierze pod uwagę opinie osób, które będą miały za zadanie pracować w ramach nowych procesów technologicznych, jasno definiuje zadania i obowiązki, które pozostaną w gestii pracowników, oraz utrzymuje formy poczucia sprawczości pracowników, tak aby nie stali się jedynie wykonawcami poleceń. |
4.4. |
Należy wyjaśnić zasadę odpowiedzialności prawnej. Roboty przemysłowe lub usługowe w coraz większym stopniu współpracują z człowiekiem. SI pozwala robotom na „wyjście z klatek” i może dochodzić do wypadków (18). Dlatego należy jasno określić zakres odpowiedzialności niezależnych systemów w razie wypadku; należy zapewnić możliwość pokrycia ryzyka w zakresie zdrowia i bezpieczeństwa pracowników. Komisja Europejska inicjuje refleksję nad tymi nowymi zagrożeniami w kontekście dyrektywy w sprawie odpowiedzialności za produkty (19). Jeśli chodzi o bezpieczeństwo w miejscu pracy, podejście to powinno być ambitniejsze. |
4.5. |
Zasada sprawiedliwości w świecie pracy polega na niepozbawianiu pracownika jego pracy. Niektórzy eksperci podkreślają, że sztuczna inteligencja przyczynia się do swoistego pozbawienia pracowników kwalifikacji. Dlatego też należy zadbać o to, aby – jak to ujęto w Konstytucji MOP-u – praca dawała wykonującym ją osobom satysfakcję, że wykorzystują wszystkie swoje zdolności i wiedzę i jak najlepiej przyczyniają się do dobrostanu społecznego. Z menedżerskiego punktu widzenia jest to również sposób na utrzymanie motywacji do pracy. |
5. Przewidywanie zmiany
5.1. |
W ostatnich latach w wielu badaniach zauważono osłabienie europejskiego, a czasem również krajowego dialogu społecznego, pomimo woli jego „odnowienia” wyrażanej przez Komisję i Radę Europejską. Tymczasem dialog społeczny jest jednym z narzędzi najlepiej dostosowanych do sprostania wyzwaniom społecznym związanym z cyfryzacją. Właśnie dlatego EKES apeluje, by dialog ten był nieprzerwanie prowadzony w przedsiębiorstwach i na wszystkich odpowiednich szczeblach, aby przygotować transformacje w sposób akceptowalny społecznie. Komitet przypomina, że dialog społeczny jest jedną z najlepszych gwarancji spokoju społecznego i niwelowania nierówności. Oprócz deklaracji politycznych dotyczących odnowienia dialogu społecznego instytucje unijne w znacznym stopniu ponoszą odpowiedzialność za zachęcanie do tego dialogu i pobudzanie go. |
5.2. |
W szczególności w odniesieniu do wdrażania nowych technologii dialog ten powinien umożliwić poznanie perspektyw transformacji procesów produkcji na poziomie przedsiębiorstw i sektorów oraz ocenę nowych potrzeb w dziedzinie kwalifikacji i szkolenia, ale również wcześniejsze zastanowienie się nad zastosowaniem SI do celów ulepszenia procesów organizacyjnych i produkcyjnych, poprawy kwalifikacji pracowników i optymalizacji zasobów uwolnionych przez SI, aby rozwijać nowe produkty, nowe usługi czy też poprawić jakość obsługi klienta. |
5.3. |
Restrukturyzacja odpowiedzialna społecznie |
5.4. |
W przypadku uznania planów socjalnych za nieuniknione – wyzwania dotyczą społecznego zarządzania restrukturyzacją. Jak podkreślili europejscy partnerzy społeczni w „Wytycznych referencyjnych w odniesieniu do zarządzania zmianą i jej konsekwencji społecznych” (20), w licznych studiach przypadków podkreślono znaczenie szukania wszystkich możliwych alternatyw dla zwolnienia z pracy, takich jak szkolenie, przekwalifikowanie czy wspieranie tworzenia przedsiębiorstw. |
5.5. |
W przypadku restrukturyzacji informowanie pracowników i przeprowadzanie z nimi konsultacji powinno umożliwić, zgodnie z odpowiednimi dyrektywami europejskimi (21), poprawę przewidywalności wystąpienia ryzyka, ułatwienie pracownikom dostępu do szkoleń w przedsiębiorstwie, zwiększenie elastyczności organizacji pracy z zachowaniem bezpieczeństwa czy wspieranie zaangażowania pracowników w działalność i przyszłość przedsiębiorstwa. |
5.6. |
Na koniec, jak słusznie podkreśla Komisja Europejska, UE powinna zagwarantować wszystkim obywatelom, łącznie z pracownikami najemnymi, samozatrudnionymi lub fikcyjnie samozatrudnionymi, dostęp do ochrony socjalnej, „bez względu na rodzaj i czas trwania ich stosunku pracy”, zgodnie z Europejskim filarem praw socjalnych (22). |
6. SI i zmieniające się warunki pracy
6.1. |
W dniu 25 kwietnia 2018 r. Komisja Europejska przedstawiła „europejskie podejście” mające na celu promowanie polityki inwestowania w rozwój SI i wdrożenie wytycznych w zakresie etyki. Komisja podkreśla potencjał transformacji naszych społeczeństw przez technologie SI, przede wszystkim w sektorze transportu, opieki zdrowotnej i przemysłu wytwórczego. |
6.2. |
Ten potencjał transformacji widoczny jest w procesach produkcji i oddziałuje również na przedmiot pracy. Wpływ ten może okazać się pozytywny, w szczególności jeśli chodzi o sposób, w jaki SI może przyczynić się do udoskonalenia tych procesów i poprawy jakości pracy. Podobne pozytywne skutki mogą zaistnieć dla elastycznych form organizacji pracy, gdzie podział zdolności decyzyjnych ma większe znaczenie, podobnie jak niezależność zespołów, wszechstronność, organizacja pozioma, praktyki innowacyjne i partycypacyjne (23). |
6.3. |
Jak podkreślają EKES (24) i sama Komisja, SI może pomagać pracownikom w powtarzalnych, żmudnych, a nawet niebezpiecznych zadaniach, a niektóre zastosowania SI mogą poprawić dobrostan pracowników i ułatwić im codzienne życie. |
6.4. |
Jednak temu spojrzeniu towarzyszą kolejne pytania, w szczególności dotyczące interakcji między SI a pracownikiem oraz zmian w przedmiocie pracy. W jakim stopniu niezależne będą inteligentne maszyny w fabrykach, przedsiębiorstwach i biurach oraz jakie będą formy komplementarności z pracą ludzi? EKES podkreśla, że w nowym świecie pracy zasadnicze znaczenie ma zdefiniowanie relacji człowieka z maszyną. Bardzo ważne jest przyjęcie podejścia opartego na kontroli człowieka nad maszyną (25). |
6.5. |
Co do zasady, z etycznego punktu widzenia jest niemożliwe do przyjęcia, by SI ograniczała człowieka lub by był on uznawany za podległego maszynie, która narzucałaby mu zadania do wykonania, sposób i terminy ich wykonania. Jednakże wydaje się, że czasami dochodzi do przekroczenia tej granicy etycznej (26). Dlatego należy jasno określić tę granicę w wytycznych w zakresie etyki dotyczących sztucznej inteligencji. |
6.6. |
Obecnie unijnym priorytetem powinno być zapobieganie powielaniu nowych form cyfrowego tayloryzmu pod wodzą projektantów inteligentnych maszyn. Właśnie dlatego, jak niedawno stwierdził Komitet, europejscy badacze, inżynierowie, projektanci i przedsiębiorcy współpracujący przy rozwoju i wprowadzaniu do obrotu systemów sztucznej inteligencji muszą działać według kryteriów odpowiedzialności społecznej i etycznej. Włączenie etyki i nauk humanistycznych do programu nauczania inżynierów może być właściwą odpowiedzią na ten wymóg (27). |
6.7. |
Inną kwestią jest nadzór i kontrola menedżerska. Panuje powszechna zgoda co do konieczności racjonalnego nadzorowania procesów produkcji, czyli również wykonywanej pracy. Obecnie nowe narzędzia technologiczne pozwalają potencjalnie na wdrożenie inteligentnych systemów całkowitej kontroli pracowników w czasie rzeczywistym, co stwarza ryzyko nadzoru i kontroli o nieproporcjonalnej skali. |
6.8. |
Kwestia racjonalnego i proporcjonalnego charakteru kontroli wykonania pracy i wskaźników wydajności oraz opartej na zaufaniu relacji między osobą kierującą i kierowaną jest tematem, który również zasługuje na uwagę w ramach dialogu społecznego na szczeblu krajowym, europejskim, międzybranżowym i sektorowym. |
6.9. |
Kwestia tendencyjności algorytmów i danych treningowych oraz możliwych szkodliwych skutków dyskryminacji wciąż budzi kontrowersje. Zdaniem jednych algorytmy i inne prognozujące programy rekrutacyjne mogą ograniczyć dyskryminację w momencie zatrudnienia i sprzyjać bardziej „inteligentnej” rekrutacji. Zdaniem innych programy rekrutacyjne mogą stanowić odzwierciedlenie uprzedzeń programistów tych automatów rekrutacyjnych, nawet w niezamierzony sposób. Niektórzy eksperci sądzą, że modele algorytmiczne pozostaną na zawsze opiniami zamaskowanymi matematyką (28). Dlatego należy jednocześnie dbać o możliwość odwołania się do człowieka (w związku z zasadą przejrzystości opisaną powyżej: prawo do zapytania o kryteria decyzji) oraz czuwać nad tym, by gromadzenie danych i ich przetwarzanie odbywało się zgodnie z zasadami proporcjonalności i celu. W każdym przypadku dane mogą być użyte tylko do tych celów, dla których zostały zebrane (29) |
6.10. |
Przewidziana w ogólnym rozporządzeniu o ochronie danych możliwość zawarcia przez państwa członkowskie w swoich przepisach lub w układach zbiorowych bardziej szczegółowych przepisów mających zapewnić ochronę praw i wolności w przypadku przetwarzania danych osobowych pracowników w związku z zatrudnieniem stanowi prawdziwą dźwignię, z której powinni skorzystać partnerzy społeczni i państwa (30). |
6.11. |
Należy tutaj zaznaczyć, że ryzyko dotyczy nie tylko pracowników najemnych. Rozwojowi podwykonawstwa online, pracy za pośrednictwem platform, różnych form crowdworkingu towarzyszą również nowe systemy automatycznego zarządzania wydajnością i starannością, które czasem wydają się przekraczać granice etyczne (włączanie kamery internetowej pracownika przez platformę, zdalne przechwytywanie widoku ekranu itp.). |
6.12. |
Często algorytmy tych platform, określające między innymi wynagrodzenie osoby pracującej na własny rachunek, jej reputację cyfrową i możliwości dostępu do zadań, są nieprzejrzyste. Sposobów ich działania nie wyjaśnia się pracownikom, którzy nie mają dostępu do stosujących się do nich kryteriów działania. |
7. Przygotowanie sprawiedliwej transformacji
7.1. |
W perspektywie średnioterminowej ryzyko polaryzacji społecznej podkreślane przez wielu ekspertów skłania do głębokiej refleksji na temat przyszłości naszych modeli społecznych, a także ich finansowania. EKES wzywa Komisję do rozpoczęcia dyskusji na temat kwestii opodatkowania i finansowania budżetów publicznych i systemów zabezpieczenia społecznego w gospodarce o coraz szybciej rosnącej ilości robotów (31) w sytuacji, gdy podstawowym źródłem przychodów podatkowych w Europie pozostaje podatek od pracy. W debacie tej należałoby również uwzględnić kwestię redystrybucji zysków płynących z cyfryzacji. |
7.2. |
Komisja proponuje wzmocnienie Europejskiego Funduszu Dostosowania do Globalizacji (EFG), m.in. po to, aby mogli z niego skorzystać pracownicy najemni, którzy tracą pracę, i samozatrudnieni, którzy zaprzestają prowadzenia działalności z powodu transformacji cyfrowej w gospodarce (cyfryzacja, automatyzacja) (32). EKES widzi w tym krok w kierunku utworzenia prawdziwego Europejskiego Funduszu Transformacji, który przyczyniałby się do przewidywania transformacji cyfrowej i wynikających z niej restrukturyzacji oraz do społecznie odpowiedzialnego zarządzania nimi. |
7.3. |
Społeczne aspekty SI coraz częściej stają się przedmiotem debat na szczeblu krajowym. Niedawne dyskusje w Parlamencie brytyjskim (33) oraz w Senacie Francji zwróciły uwagę na konieczność promowania etycznego podejścia do SI, opartego na pewnej liczbie zasad, takich jak uczciwość, przejrzystość i możliwość wytłumaczenia systemów algorytmów, etyka i odpowiedzialność systemów SI, podnoszenie świadomości badaczy, ekspertów i specjalistów na temat potencjalnie nieprawidłowego wykorzystania wyników ich badań. We Francji sprawozdanie Villaniego stawia sobie za cel „nadanie kierunku” SI (34). Liczni eksperci z uniwersytetów Yale, Stanforda, w Cambridge i Oksfordzie ostrzegają przed „nierozwiązaną kwestią słabych punktów” SI i wskazują na absolutną konieczność przewidywania ich, zapobiegania im i łagodzenia ich skutków (35). Również Fundacja Badań Naukowych Quebecu (FRQ), w partnerstwie z Uniwersytetem w Montrealu, pracuje od kilku miesięcy nad projektem światowego obserwatorium wpływu SI i technologii cyfrowych na społeczeństwo (36). |
7.4. |
Wszystkie te inicjatywy wskazują na konieczność rozszerzenia zakresu debaty na temat SI poza jej ramy gospodarcze i techniczne i wysłuchania głosu opinii publicznej na temat roli, jaką SI powinna odgrywać według społeczeństwa, także w świecie pracy. Tego rodzaju dyskusja pozwoli uniknąć wpadnięcia w pułapkę „fałszywej dychotomii” między całkowicie naiwną i optymistyczną wizją SI i jej skutków a wizją katastroficzną (37). Zainicjowanie tej dyskusji na szczeblu krajowym stanowi pierwszy i potrzebny etap, lecz UE również ma odegrania swoją rolę, w szczególności poprzez zdefiniowanie wytycznych w zakresie etyki, nad którymi zaczęła już pracować Komisja. |
7.5. |
Kwestię wdrożenia tych wytycznych należy powierzyć obserwatorium poświęconemu etyce systemów sztucznej inteligencji. SI i jej zastosowania powinny służyć dobrostanowi i upodmiotowieniu obywateli i pracowników, przy poszanowaniu praw podstawowych; należy też zwracać uwagę, by pośrednio lub bezpośrednio nie przyczyniały się one do procesów rozwoju utraty poczucia sprawczości oraz utraty umiejętności, kwalifikacji i niezależności. Zasada „człowieka u sterów” musi znaleźć praktyczne zastosowanie we wszystkich kontekstach, w tym w kontekście pracy. |
7.6. |
Zasadę tę należy również stosować do innych sektorów działalności, takich jak personel służby zdrowia, w ramach których świadczy się usługi ściśle związane z życiem, zdrowiem, bezpieczeństwem i jakością życia ludzkiego. Jedynie rygorystyczne zasady etyczne mogą zagwarantować, że nie tylko pracownicy, ale również konsumenci, pacjenci, klienci i inni usługodawcy będą mogli w pełni korzystać z nowych zastosowań SI. |
Bruksela, dnia 19 września 2018 r.
Luca JAHIER
Przewodniczący Europejskiego Komitetu Ekonomiczno-Społecznego
(1) Acemoglu, D., Restrepo, P., „Artificial Intelligence, Automation and Work”, NBER Working Paper 24196, styczeń 2018 r. Zob. również Conseil d’orientation pour l’emploi (2017), Automatisation, numérisation et emploi. (Tom 1) (www.coe.gouv.fr).
(2) Acemoglu, D., op.cit.; Rada Zatrudnienia (2017), op. cit.
(3) COM(2018) 380 final.
(4) Dyrektywa 2002/14/WE; wspólna deklaracja intencji UNICE, CEEP i ETUC w sprawie dialogu społecznego i nowych technologii, 1985; wspólna opinia partnerów społecznych na temat nowych technologii, organizacji pracy i zdolności dostosowawczych rynku pracy, 1991; wytyczne referencyjne w odniesieniu do zarządzania zmianą i jej konsekwencji społecznych, 2003.
(5) COM(2018) 246 final.
(6) https://ifr.org/ifr-press-releases/news/robots-double-worldwide-by-2020.
(7) Dz.U. C 288 z 31.8.2017, s. 1.
(8) Zob. w szczególności: https://www.techemergence.com.
(9) Dz.U. C 288 z 31.8.2017, s. 1.
(10) Eurofound, Automation, digitalisation and platforms: Implications for work and employment, Urząd Publikacji Unii Europejskiej, Luksemburg, 2018.
(11) Dz.U. C 13 z 15.1.2016, s. 161.
(12) Frey i Osborne, 2013; Bowles, 2014; Arntz, Gregory i Zierahn, 2016; Le Ru, 2016; McKinsey, 2016; OECD, 2017; zob. również opinia rozpoznawcza CCMI/136 (Dz.U. C 13 z 15.1.2016, s. 161).
(13) http://www.oecd.org/fr/emploi/avenir-du-travail/.
(14) COM(2018) 237 final.
(15) Dz.U. C 367 z 10.10.2018, s. 15.
(16) Niderlandzka Rada Naukowa ds. Polityki Rządu.
(17) https://english.wrr.nl/latest/news/2015/12/08/wrr-calls-for-inclusive-robot-agenda.
(18) Zob. poświęcone nowym zagrożeniom prace Europejskiej Agencji Bezpieczeństwa i Zdrowia w Pracy (https://osha.europa.eu/en/emerging-risks). Jej zdaniem „obecnie przyjęte podejścia i normy techniczne mające na celu ochronę pracowników przed zagrożeniami wynikającymi z pracy z robotami współpracującymi będą musiały zostać poddane przeglądowi w świetle tych przemian”.
(19) COM(2018) 246 final.
(20) Wspólny tekst UNICE, CEEP, UEAPME i ETUC, 16 października 2003 r.
(21) Dyrektywa 2002/14/WE ustanawiająca ogólne ramowe warunki informowania i przeprowadzania konsultacji z pracownikami we Wspólnocie Europejskiej.
(22) Dz.U. C 303 z 19.8.2016, s. 54; Dz.U. C 173 z 31.5.2017, s. 15; Dz.U. C 129 z 11.4.2018, s. 7; Dz.U. C 434 z 15.12.2017, s. 30.
(23) Dz.U. C 434 z 15.12.2017, s. 30.
(24) Dz.U. C 367 z 10.10.2018, s. 15.
(25) Dz.U. C 288 z 31.8.2017, s. 1; Dz.U. C 367 z 10.10.2018, s. 15.
(26) Liczne europejskie środki przekazu donosiły o warunkach pracy w niektórych centrach logistycznych, gdzie pracownicy całkowicie podlegają kontroli algorytmów wyznaczających im zadania do wykonania w określonym czasie, a ich wyniki są mierzone w czasie rzeczywistym.
(27) Dz.U. C 367 z 10.10.2018, s. 15.
(28) Cathy O’Neil, doktor Uniwersytetu Harvarda zajmująca się nauką o danych: „Models are opinions embedded in mathematics” [Modele są opiniami wyrażonymi językiem matematyki] (https://www.theguardian.com/books/2016/oct/27/cathy-oneil-weapons-of-math-destruction-algorithms-big-data).
(29) Zob. w szczególności prace CNIL we Francji („Comment permettre à l’homme de garder la main? Les enjeux éthiques des algorithmes et de l’intelligence artificielle”, https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_main_web.pdf).
(30) Rozporządzenie (UE) 2016/679 (art. 88).
(31) https://ifr.org/ifr-press-releases/news/robots-double-worldwide-by-2020.
(32) COM(2018) 380 final.
(33) https://www.parliament.uk/ai-committee.
(34) http://www.enseignementsup-recherche.gouv.fr/cid128577/rapport-de-cedric-villani-donner-un-sens-a-l-intelligence-artificielle-ia.html.
(35) https://www.eff.org/files/2018/02/20/malicious_ai_report_final.pdf.
(36) http://nouvelles.umontreal.ca/article/2018/03/29/le-quebec-jette-les-bases-d-un-observatoire-mondial-sur-les-impacts-societaux-de-l-ia/.
(37) Acemoglu, D., op.cit. Zob. również Eurofound, Automation, digitalisation and platforms: Implications for work and employment, Urząd Publikacji Unii Europejskiej, Luksemburg, 2018, s. 23: „The risks comprise unwarranted optimism, undue pessimism and mistargeted insights” [Ryzyka obejmują nieuzasadniony optymizm, nadmierny pesymizm i błędne zrozumienie zagadnienia].