Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52019AE1830

    Az Európai Gazdasági és Szociális Bizottság véleménye – A Bizottság közleménye az Európai Parlamentnek, a Tanácsnak, az Európai Gazdasági és Szociális Bizottságnak és a Régiók Bizottságának: Az emberközpontú mesterséges intelligencia iránti bizalom növelése[COM(2019) 168 final]

    EESC 2019/01830

    HL C 47., 2020.2.11, p. 64–68 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    11.2.2020   

    HU

    Az Európai Unió Hivatalos Lapja

    C 47/64


    Az Európai Gazdasági és Szociális Bizottság véleménye – A Bizottság közleménye az Európai Parlamentnek, a Tanácsnak, az Európai Gazdasági és Szociális Bizottságnak és a Régiók Bizottságának: Az emberközpontú mesterséges intelligencia iránti bizalom növelése

    [COM(2019) 168 final]

    (2020/C 47/09)

    Előadó: Franca SALIS-MADINIER

    Felkérés:

    Európai Bizottság, 2019.6.3.

    Jogalap:

    az Európai Unió működéséről szóló szerződés 304. cikke

    Illetékes szekció:

    „Egységes piac, termelés és fogyasztás” szekció

    Elfogadás a szekcióülésen:

    2019.10.18.

    Elfogadás a plenáris ülésen:

    2019.10.30.

    Plenáris ülés száma:

    547.

    A szavazás eredménye:

    (mellette/ellene/tartózkodott)

    198/1/4

    1.   Következtetések és ajánlások

    1.1.

    A mesterséges intelligencia (AI) nem maga a cél, hanem egy eszköz, amely radikális kedvező változásokat idézhet elő, de kockázatokkal is járhat. Ezért meg kell határozni a használatának kereteit.

    1.2.

    Az Európai Bizottságnak intézkedéseket kellene hoznia a mesterséges intelligencia és a gépi tanulás rosszindulatú használatával kapcsolatos előrejelzés, megelőzés és tilalom kapcsán, és jobban szabályoznia kellene a rosszindulatú szándékkal előállított termékek forgalmazását.

    1.3.

    Az EU-nak különösen támogatnia kellene az ökológiai és éghajlatvédelmi átállás felgyorsítását lehetővé tevő konkrét alkalmazásokra irányuló AI-rendszerek kifejlesztését.

    1.4.

    Meg kell határozni, hogy a kihívások közül melyek azok, amelyek etikai kódexekkel, önszabályozással és önkéntes vállalásokkal kezelhetők, és melyek azok, amelyeket nyomonkövetési mechanizmusokkal és a szabályok megszegése esetén szankciókkal kiegészített szabályozási és jogi eszközökkel kell kezelni. Az AI-rendszereknek minden körülmények között igazodniuk kell a különböző meglévő jogszabályokhoz.

    1.5.

    A mesterséges intelligenciához olyan megközelítésre van szükség, amely a műszaki szempontokat, valamint a társadalmi és etikai szempontokat egyaránt magában foglalja. Az EGSZB üdvözli, hogy az EU a mesterséges intelligencia emberközpontú és az alapértékeivel – az emberi méltóság tiszteletben tartása, a szabadság, a demokrácia, az egyenlőség és a megkülönböztetésmentesség, a jogállamiság és az emberi jogok tiszteletben tartása – összhangban álló megközelítését kívánja kialakítani.

    1.6.

    Az EGSZB ismételten megerősíti (1), hogy a munkaszervezésben, annak felügyeletében és ellenőrzésében, valamint az értékelési és munkaerő-felvételi rendszerekben változást előidéző AI-rendszerek bevezetésekor konzultációt kell folytatni a munkavállalókkal és képviselőikkel, és tájékoztatni kell őket. Az Európai Bizottságnak elő kell mozdítania a szociális párbeszédet annak érdekében, hogy a munkavállalókat bevonják az AI-rendszerek használatába.

    1.7.

    Az EGSZB hangsúlyozza (2), hogy a megbízható mesterséges intelligencia feltétele az, hogy az ember ellenőrzést gyakorolhasson a gép felett és a polgárokat tájékoztassák annak céljairól. A mesterséges intelligencián alapuló rendszereknek megmagyarázhatónak kell lenniük, vagy ha ez nem lehetséges, a polgárok és a fogyasztók számára információkat kell nyújtani azok korlátairól és kockázatairól.

    1.8.

    Az EU-nak foglalkoznia kell a munkahelyi egészségvédelem és biztonság terén „újonnan felmerülő kockázatokkal” (3). Előírásokat kell kidolgozni annak érdekében, hogy az autonóm rendszerek ne okozhassanak kárt vagy személyi sérülést. A munkavállalókat ki kell képezni arra, hogyan dolgozzanak a géppel és vészhelyzetben hogyan állítsák le azt.

    1.9.

    Az EGSZB olyan, tesztelési eljárásokon alapuló, hatékony tanúsítási rendszer bevezetésére szólít fel, amelynek segítségével a vállalatok igazolhatják AI-rendszereik megbízhatóságát és biztonságosságát. Az átláthatóság, az algoritmikus döntéshozatali folyamatok nyomonkövethetősége és megmagyarázhatósága továbbra is technikai kihívást jelentenek, amelyhez szükség van az olyan uniós eszközök támogatására, mint az Európai horizont program.

    1.10.

    A magánélet- és az adatvédelem tiszteletben tartása fogja meghatározni, hogy a polgárok és a fogyasztók milyen fokú bizalommal viseltetnek a mesterséges intelligencia iránt. Az adatok tulajdonjoga, azok ellenőrzése, illetve a vállalatok és szervezetek általi felhasználása olyan kérdések, amelyek még bőven szabályozásra szorulnak (különösen a dolgok internetével együtt). Az EGSZB arra ösztönzi az Európai Bizottságot, hogy a technológiai fejlődés fényében rendszeresen vizsgálja felül az általános adatvédelmi rendeletet (GDPR) (4) és a kapcsolódó jogszabályokat.

    1.11.

    Az EGSZB szerint nagyon fontos átgondolni, hogy az AI-rendszerek milyen módon tudnak hozzájárulni az üvegházhatásúgáz-kibocsátások csökkentéséhez, különösen az ipari, a szállítási, az energetikai, az építőipari és a mezőgazdasági ágazatokban. Szót emel amellett, hogy az éghajlatvédelmi és a digitális átállást összekapcsoltan kell kezelni.

    1.12.

    Az EGSZB szerint nem biztos, hogy az AI-rendszerek ellenőrzése elég lesz a felelősségi körök meghatározásához és a bizalomkeltéshez. Az EGSZB azt javasolja, hogy kezeljék prioritásként olyan világos szabályok meghatározását, amelyek mulasztás esetén a felelősséget jogi személyiségekre: természetes személyekre vagy jogi személyiséggel rendelkező szervezetekre ruházzák. Az EGSZB kéri továbbá, hogy az Európai Bizottság kiemelt fontossággal vizsgálja meg az AI-rendszerek biztosíthatóságának alapvető kérdését.

    1.13.

    Az EGSZB javasolja, hogy az előírásokat betartó vállalatok számára dolgozzanak ki egy „megbízható európai vállalkozás” tanúsítványt a mesterséges intelligencia területén, amelynek alapját többek között a mesterséges intelligenciával foglalkozó magas szintű szakértői csoport által összeállított értékelési lista képezi.

    1.14.

    Az EU-nak azáltal, hogy a G7 és a G20 keretein belül, illetve a kétoldalú megbeszélések során előmozdítja az ezzel a területtel kapcsolatos munkákat, arra kell törekednie, hogy a mesterséges intelligencia szabályozása túllépjen az európai határokon. A megbízható mesterséges intelligencia érdekében nemzetközi megállapodást kell kialakítani, amely lehetővé teszi nemzetközi szabványok kidolgozását és azok helytállóságának rendszeres ellenőrzését.

    2.   Az Európai Bizottság javaslatának összefoglalása

    2.1.

    A vizsgált közlemény az Európai Bizottság által 2018 júniusában kijelölt magas szintű szakértői csoport munkáján alapul. A közleményben az Európai Bizottság hét kulcsfontosságú követelményt határoz meg a megbízható mesterséges intelligencia megvalósításához, amelyeket a 4. pontban sorolunk fel.

    2.2.

    Az Európai Bizottság kísérleti időszakot indított el az érdekelt felek széles körének bevonásával. Ennek gerincét az az értékelési lista képezi, amelyet a magas szintű szakértői csoport állított össze az egyes kulcsfontosságú követelmények teljesülésének ellenőrzése céljából. A magas szintű szakértői csoport 2020 elején fogja felülvizsgálni és frissíteni az értékelési listát, és az Európai Bizottság adott esetben újabb intézkedésekre tesz javaslatot.

    2.3.

    Az Európai Bizottság a nemzetközi színtéren is érvényesíteni kívánja a mesterséges intelligenciával kapcsolatos megközelítését, és továbbra is aktív szerepet fog játszani, többek között a G7 és a G20 keretében is.

    3.   Általános megjegyzések

    3.1.

    Az emberközpontú mesterséges intelligenciához olyan megközelítésre van szükség, amely a műszaki szempontokat, valamint a társadalmi és etikai szempontokat egyaránt magában foglalja. Az EGSZB üdvözli, hogy az uniós intézmények egyértelműen a mesterséges intelligencia olyan megközelítését kívánják kialakítani, amely megfelel az Unió alapértékeinek. Ezek: az emberi méltóság tiszteletben tartása, a szabadság, a demokrácia, az egyenlőség és a megkülönböztetésmentesség, a jogállamiság és az emberi jogok tiszteletben tartása. Ahogy azt az Európai Bizottság is hangsúlyozta (5), a mesterséges intelligencia nem maga a cél, hanem egy eszköz, amely radikális kedvező változásokat idézhet elő. Mint minden eszköz, a mesterséges intelligencia is egyszerre teremt lehetőségeket és idéz elő kockázatokat. Ezért az EU-nak le kell fektetnie a használatának kereteit, és világosan meg kell határoznia az ezzel kapcsolatos felelősségi köröket.

    3.2.

    Az emberközpontú mesterséges intelligencia iránti bizalmat az értékek és az elvek megerősítése, egy jól kidolgozott keretszabályozás és a legfontosabb követelményeket tartalmazó etikai iránymutatás teremti majd meg.

    3.3.

    Az összes érdekelt féllel együtt meg kell határozni, hogy a mesterséges intelligenciával kapcsolatos számos kihívás közül melyek azok, amelyeket szabályozási nyomonkövetési mechanizmusokkal és a szabályok megszegése esetén szankciókkal kiegészített szabályozási és jogi eszközökkel kell kezelni, és melyek azok, amelyek etikai kódexekkel, önszabályozással és önkéntes vállalásokkal kezelhetők. Az EGSZB üdvözli, hogy az Európai Bizottság átvett néhány, eredetileg az EGSZB által felvetett elvet, viszont sajnálja, hogy a mostani szakaszban semmilyen konkrét intézkedést nem javasol a fogyasztói jogokkal, a rendszerbiztonsággal és a felelősséggel kapcsolatos jogos aggályok kezelése érdekében.

    3.4.

    Az AI-rendszereknek be kell tartaniuk a meglévő keretszabályozást, különös tekintettel a személyes adatok védelmére, a termékfelelősségre, a fogyasztóvédelemre, a megkülönböztetésmentességre, a szakképesítésekre, valamint a munkahelyeken a munkavállalók tájékoztatására és a velük folytatott konzultációra. Biztosítani kell, hogy ezek a jogszabályok illeszkedjenek a digitalizáció és a mesterséges intelligencia által támasztott új kihívásokhoz.

    3.5.

    Ahogy azt az Európai Bizottság is megjegyzi, „olyan eljárásokat kell létrehozni, amelyek segítségével tisztázhatók és értékelhetők az AI-rendszerek használatához kötődően a különböző alkalmazások esetében felmerülő esetleges kockázatok” (6). Az EGSZB nagyon nagy fontosságot tulajdonít ezen értékelés jövőbeli módozatainak, valamint az értékelés elvégzéséhez figyelembe vehető mutatók kidolgozásának. A magas szintű munkacsoport által összeállított értékelési lista tervezete kiindulópontot jelent az ezzel kapcsolatos folyamatok végrehajtásához.

    3.6.

    Ez az AI-rendszerektől várt hozzáadott érték méltányos elosztásának kérdését is érinti. Az EGSZB úgy véli, hogy a kedvező változásoknak, amelyeket a mesterséges intelligencia a gazdasági fejlődés, a termelési és fogyasztási folyamatok fenntarthatósága (különösen az energia tekintetében), az erőforrás-felhasználás javulása szempontjából előidézhet, minden ország és az országok minden polgárának javát kell szolgálniuk.

    4.   Részletes megjegyzések

    4.1.   Az emberi cselekvőképesség támogatása és emberi felügyelet

    4.1.1.

    Az Európai Bizottság biztosítani szeretné, hogy az AI-rendszerek semmiképpen se veszélyeztethessék az emberek önállóságát és ne idézhessenek elő kedvezőtlen hatásokat. Az EGSZB egyetért az ember gép feletti ellenőrzésére összpontosító megközelítéssel, ahogy ezt korábbi véleményeiben is kifejtette.

    4.1.2.

    Ehhez arra van szükség, hogy a polgárok megfelelő tájékoztatást kapjanak e rendszerek céljairól, hogy ezek megmagyarázhatók legyenek, vagy ha ez nem lehetséges (például a mélytanulás esetében), a polgároknak információkat kell nyújtani a rendszer korlátairól és kockázatairól. A polgárok számára minden esetben lehetővé kell tenni, hogy szabadon máshogy dönthessenek, mint a mesterséges intelligencia.

    4.1.3.

    A vállalatoknál és az állami hatóságoknál a munkavállalókat és képviselőiket megfelelően tájékoztatni kell és konzultációt kell folytatni velük azon AI-rendszerek bevezetésekor, amelyek megváltoztathatják a munkaszervezést, és amelyek az ellenőrzés, a felügyelet, az értékelés és a munkaerőfelvétel szempontjából őket is érinthetik. Az Európai Bizottságnak elő kell mozdítania a szociális párbeszédet annak érdekében, hogy a munkavállalókat bevonják az AI-rendszerek használatába.

    4.1.4.

    A humánerőforrás tekintetében különösen nagy figyelmet kell fordítani az AI-rendszerek tisztességtelen használatának – például a korlátlan felügyelet, az egészségügyi adatokra kiterjedő személyesadat-gyűjtés, ezen adatok harmadik felekkel történő megosztása – veszélyeire, valamint a munkahelyi egészségvédelem és biztonság terén újonnan felmerülő kockázatokra (7). Egyértelmű előírásokat kell kidolgozni annak érdekében, hogy az ember és gép közötti együttműködés ne okozhasson kárt vagy személyi sérülést. A Nemzetközi Szabványügyi Szervezet (ISO) által az együttműködő robotokról kidolgozott szabvány (8), amely a gyártóknak, az integrátoroknak és a felhasználóknak szól, iránymutatásokat ad a munkaterület megtervezéséhez és megszervezéséhez, valamint azon kockázatok csökkentéséhez, amelyeknek az emberek ki lehetnek téve. A munkavállalókat ki kell képezni a mesterséges intelligencia és a robotika használatára, az ezekkel való munkavégzésre és különösen arra, hogy vészhelyzetben hogyan állítsák le azokat („vészfékezés” elve).

    4.2.   Műszaki stabilitás és biztonság

    4.2.1.

    Az EGSZB kéri, hogy vezessenek be európai biztonsági szabványokat és alakítsanak ki egy olyan, tesztelési eljárásokon alapuló, hatékony tanúsítási rendszert, amelynek segítségével a vállalatok igazolhatják AI-rendszereik megbízhatóságát. Az EGSZB hangsúlyozni kívánja, hogy az AI-rendszerek biztosíthatóságának kérdése is fontos szerepet játszik.

    4.2.2.

    Az Európai Bizottság keveset foglalkozik a mesterséges intelligencia és a gépi tanulás rosszindulatú használatával kapcsolatos előrejelzés, megelőzés és tilalom aspektusával, amelyre sok kutató felhívta a figyelmet (9). Jobban figyelembe kellene venni e kutatók ajánlásait, különösen azokat, amelyek az ilyen technológiák kettős használatával kapcsolatosak; az ugyanis érintheti a digitális biztonságot (az informatikai támadások elterjedése, az emberek és a mesterséges intelligencia sebezhetőségének kihasználása, adatmérgezés), a fizikai biztonságot (az autonóm rendszerek, köztük az önvezető járművek, drónok, automata fegyverek feltörése) vagy a politikai biztonságot (tömeges személyesadat-gyűjtés, célzott propaganda, videó manipuláció stb.). A kutatóknak, mérnököknek és állami hatóságoknak szorosan együtt kell működniük e kockázatok kivédése érdekében; a szakértőket és egyéb érintett feleket, például a felhasználókat és a fogyasztókat be kell vonni az ezekről a kihívásokról folytatott vitákba.

    4.3.   Adatvédelem és adatkezelés

    4.3.1.

    Az Európai Bizottság hangsúlyozza, hogy az adatokhoz való hozzáférést „megfelelően irányítani és ellenőrizni kell” (10). Az EGSZB úgy gondolja, hogy túl kell lépni az általános nyilatkozatokon. Az, hogy a polgár milyen fokú bizalommal viseltetik az AI-rendszerek iránt, a mesterséges intelligencia fejlődését is meg fogja határozni. Az adatok tulajdonjogának, azok ellenőrzésének, illetve a vállalatok és szervezetek általi felhasználásának kérdéseit még bőven szabályozni kell. Például az autók által az autógyártóknak továbbított adatmennyiség, valamint a továbbított adatok típusa komoly kérdéseket vetnek fel (11). A beépített adatvédelem elve ellenére, amelynek a GDPR értelmében az összekapcsolt dolgoknak meg kell felelniük, azt tapasztalhatjuk, hogy a fogyasztó csak nagyon kevés vagy semmilyen információval nem rendelkezik erről a kérdésről, és semmilyen ellenőrzési lehetősége nincs ezen adatok felett. Ezért az EGSZB sürgeti az Európai Bizottságot, hogy a technológiai fejlődés fényében vizsgálja felül a GDPR-t és a kapcsolódó jogszabályokat (12).

    4.4.   Átláthatóság

    4.4.1.

    Az EGSZB úgy véli, hogy az algoritmikus döntéshozatali folyamatok megmagyarázhatósága alapvető fontosságú nem is annyira maguknak a mechanizmusoknak, hanem a döntéshozatali folyamatok során alkalmazott logikáknak, valamint annak a megértéséhez, hogy ezeket milyen módon befolyásolják az AI-rendszerek. A gépi tanulási rendszerekre vonatkozó standard tesztelési eljárások kialakítása továbbra is technikai kihívást jelent, amelyhez szükség van az olyan uniós eszközök támogatására, mint az Európai horizont program.

    4.4.2.

    Az EGSZB egyetért az Európai Bizottság azon megközelítésével, hogy az AI-rendszereket azonosíthatóvá kell tenni oly módon, hogy „a felhasználók felismerjék, hogy egy AI-rendszerrel kommunikálnak” (13), például a beteg és az egészségügyi dolgozó közötti kapcsolat, valamint a polgárok egészségéhez és jóllétéhez kapcsolódó szakmai szolgálatok keretében is. Az EGSZB kitart amellett, hogy azt is lehetővé kell tenni, hogy a felhasználó vagy a fogyasztó tájékoztatást kaphasson az emberek által végzett szolgáltatásokról. Sok AI-rendszer valójában meglehetősen nagy mennyiségű emberi munka közreműködését igényli, amelyről a végfelhasználók gyakran nem is tudnak (14). E kérdés mögött a felhasználókkal és a szolgáltatás fogyasztóival szembeni átláthatóság hiányával, valamint a rejtett és el nem ismert munka kihasználásával kapcsolatos probléma is meghúzódik.

    4.4.3.

    Az EGSZB másfelől úgy véli, hogy a fogyasztót mindig tájékoztatni kell arról, hogy AI-rendszereket építettek be az általa vásárolt termékekbe, és mindig lehetővé kell tenni, hogy hozzáférhessen ezekhez az adatokhoz és azokat ellenőrizhesse.

    4.5.   Sokféleség, megkülönböztetésmentesség és méltányosság

    4.5.1.

    A polgárok, felhasználók és fogyasztók profiljának elkészítését lehetővé tevő egyes AI-alkalmazások a hátrányos megkülönböztetés szempontjából rejtenek kockázatot (például a munkaerőfelvételnél, az ingatlanbérlésnél, egyes személyi szolgáltatásoknál). Az Európai Uniónak van az egyenlő bánásmódra és a megkülönböztetésmentességre vonatkozó joganyaga (15). Az AI-rendszereknek igazodniuk kell ehhez. Ezeket a jogszabályokat azonban ki kell igazítani és adott esetben meg kell erősíteni (a betartásuk ellenőrzése tekintetében is), hogy megfeleljenek az új gyakorlatoknak. Valós a veszélye annak, hogy az algoritmikus profilalkotás a megkülönböztetés új hathatós eszközévé válik. Az EU-nak meg kell előznie ezt a veszélyt.

    4.5.2.

    A rasszizmusellenes irányelv (16) és a nemek közötti egyenlő bánásmód elvének a munkaerőpiacon kívüli érvényesítéséről szóló irányelv (17) a nők és a férfiak közötti egyenlő bánásmód előmozdítását szolgáló, különleges szervek létrehozását írja elő. Az EGSZB fontosnak tartja, hogy ezek a szervek aktív szerepet játsszanak az AI-rendszereknek a közvetlen vagy közvetett megkülönböztetés kockázatával kapcsolatos nyomon követésében és ellenőrzésében.

    4.6.   Társadalmi és környezeti jólét

    4.6.1.

    Az Európai Bizottság nem jelöl meg pontos irányvonalakat arra vonatkozóan, hogy milyen módon lehet összekapcsolni az éghajlatvédelmi és a digitális átállást, különösen az AI-rendszerek használatával kapcsolatban. Nagyon fontos átgondolni, hogy az AI-rendszerek milyen módon tudnak hozzájárulni az üvegházhatásúgáz-kibocsátások csökkentéséhez, különösen az ipari, a szállítási, az energetikai, az építőipari és a mezőgazdasági ágazatokban.

    4.6.2.

    Az Európai Bizottság állítása szerint az AI-rendszerek felhasználhatók a szociális készségek megerősítésére, de annak a veszélye is fennáll, hogy hozzájárulnak ezek leépüléséhez. Az EGSZB úgy véli, hogy az EU-nak jobban fel kell mérnie egyes társadalmi kockázatokat. Például tanulmányok mutattak rá arra, hogy egyes, AI-rendszereket is magukban foglaló alkalmazásokat úgy terveztek meg, hogy az online szolgáltatások (közösségi hálózatok, játékok, videók stb.) felhasználóit a lehető leghosszabb ideig a kapcsolatban tartsák. Céljuk, hogy a lehető legtöbb adatot gyűjthessék össze a felhasználók magatartásáról. Az ennek érdekében alkalmazott stratégiák az algoritmikus ajánlások vég nélküli ismétlésétől a játékokon stb. át az emlékeztetőkig és értesítésekig terjednek. Vizsgálták, hogy a túl sok netezés és túl nagy igénybevétel milyen hatásokat gyakorol a gyermekekre (18), és az eredmények azt igazolták, hogy ezek hatására nő a szorongás, az agresszív társas viselkedés, az alváshiány, továbbá kihatnak a tanulásra, a társas kapcsolatokra, az egészségre és a jóllétre. A megbízható mesterséges intelligencia megteremtéséhez az EU-nak figyelembe kell vennie ezeket a hatásokat és meg kell előznie azokat.

    4.6.3.

    Végül az általános jóllét egyik tényezője a munkahelyi biztonságérzethez kapcsolódik. A digitalizáció hatásai azonban alááshatják a biztonságérzetet és stresszforrások lehetnek (19). Ezért stratégiákat kell kidolgozni a változásokra való felkészülésre – még az esetleges szerkezetátalakítások bekövetkezése előtt – és a munkavállalók továbbképzésére. Ehhez a vállalaton belül minőségi szociális párbeszédre van szükség a munkáltatók és a munkavállalók képviselői között, amely többek között lehetővé teszi az új technológiák, különösen a mesterséges intelligencia és a robotika inkluzív kiépítését. Az igazgatóságok és a munkavállalók közötti bizalom megerősítése érdekében fontos, hogy a menedzsmentre, az értékelésekre, a munkavállalók ellenőrzésére vonatkozó AI-rendszerek megmagyarázhatók, paramétereik ismertek legyenek, a működésük pedig átlátható legyen.

    4.7.   Elszámoltathatóság

    4.7.1.

    A gépi tanulási rendszerek által hozott döntéseket nem egyszerű elmagyarázni, ráadásul azokat rendszeresen frissítik is. Az EGSZB szerint nem biztos, hogy az AI-rendszerek ellenőrzése elég lesz a felelősségi körök meghatározásához és a bizalomkeltéshez. Ezért olyan szabályok meghatározását javasolja, amelyek mulasztás esetén a felelősséget jogi személyiségekre: természetes személyekre vagy jogi személyiséggel rendelkező szervezetekre ruházzák. Az EGSZB azt ajánlja, hogy inkább megbízható vállalatokra vagy szakemberekre kell támaszkodni, mint algoritmusokra, és javasolja, hogy az előírásokat betartó vállalatok számára dolgozzanak ki egy „megbízható európai vállalkozás” tanúsítványt a mesterséges intelligencia területén, amelynek alapját többek között a magas szintű szakértői csoport által összeállított értékelési lista képezi.

    4.7.2.

    A termékfelelősségről szóló irányelv (20) megállapítja az európai gyártókra alkalmazandó objektív felelősség elvét: ha egy hibás termék kárt okoz a fogyasztónak, a gyártó felelősségre vonható, még akkor is, ha nem követett el hibát vagy nem járt el hanyagul. Az AI-rendszerek egyre elterjedtebb tervezése, kiépítése és használata következtében az EU-nak megfelelő felelősségi szabályokat kell elfogadnia azokra a helyzetekre vonatkozóan, amelyekben a fogyasztónak kínált digitális tartalmú termékek vagy szolgáltatások veszélyesek és károsak lehetnek. Fontos, hogy a fogyasztók hozzáférhessenek az igazságszolgáltatáshoz olyan esetekben, amikor egy AI-rendszer okoz kárt nekik.

    5.   Európán túl is szabályozásra van szükség

    5.1.

    A globalizált világban a mesterséges intelligencia szabályozásának túl kell lépnie az európai határokon. Európának elő kellene mozdítania, hogy a mesterséges intelligenciával kapcsolatban széles körű megállapodás jöjjön létre a G7 és a G20 keretein belül, és folytatnia kellene a kétoldalú megbeszéléseket annak érdekében, hogy az országok többsége részt vehessen a mesterséges intelligencia szabványosítási folyamataiban és rendszeresen ellenőrizhesse azok helytállóságát.

    Kelt Brüsszelben, 2019. október 30-án.

    az Európai Gazdasági és Szociális Bizottság

    elnöke

    Luca JAHIER


    (1)  HL C 440., 2018.12.6., 1. o.

    (2)  HL C 288., 2017.8.31., 1. o., HL C 440., 2018.12.6., 1. o.

    (3)  https://osha.europa.eu/hu/emerging-risks.

    (4)  Az Európai Parlament és a Tanács (EU) 2016/679 rendelete (2016. április 27.) a természetes személyeknek a személyes adatok kezelése tekintetében történő védelméről és az ilyen adatok szabad áramlásáról, valamint a 95/46/EK rendelet hatályon kívül helyezéséről (általános adatvédelmi rendelet)(HL L 119., 2016.5.4., 1. o.).

    (5)  COM(2019) 168 final.

    (6)  COM(2019) 168 final, 5. o.

    (7)  Lásd különösen az „OSH and the future of work: benefits and risks of artificial intelligence tools in workplaces” című dokumentumot.

    (8)  ISO/TS 15066, 2016.

    (9)  Lásd „The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation”, 2018. február.

    (10)  COM(2019) 168 final, 6. o.

    (11)  „Your car knows when you gain weight”, The New York Times (International Edition), 2019.5.22.

    (12)  HL C 190., 2019.6.5., 17. o.

    (13)  COM(2019) 168 final, 6. o.

    (14)  Lásd például: „’A white-collar sweatshop’: Google Assistant contractors allege wage theft”, The Guardian, 2019.5.29. és „Bot technology impressive, except when it’s not the bot”, The New York Times (International Edition), 2019.5.24.

    (15)  HL L 180., 2000.7.19., 22. o.; HL L 303., 2000.12.2., 16. o.; HL L 373., 2004.12.21., 37. o.; HL L 204., 2006.7.26., 23. o.

    (16)  A Tanács 2000/43/EK irányelve (2000. június 29.) a személyek közötti, faji- vagy etnikai származásra való tekintet nélküli egyenlő bánásmód elvének alkalmazásáról (HL L 180., 2000.7.19., 22. o.).

    (17)  A Tanács 2004/113/EK irányelve (2004. december 13.) a nők és férfiak közötti egyenlő bánásmód elvének az árukhoz és szolgáltatásokhoz való hozzáférés, valamint azok értékesítése, illetve nyújtása tekintetében történő végrehajtásáról (HL L 373., 2004.12.21., 37. o.).

    (18)  Lásd többek között Kidron, Evans, Afia (2018), „Disrupted Childhood – The Cost of Persuasive Design”, 5Rights Foundation.

    (19)  A magas szintű munkacsoport jelentése a digitalizálódásnak az EU munkaerőpiacaira gyakorolt hatásáról, 2019.

    (20)  A Tanács irányelve (1985. július 25.) a hibás termékekért való felelősségre vonatkozó tagállami törvényi, rendeleti és közigazgatási rendelkezések közelítéséről (HL L 210., 1985.8.7., 29. o.)


    Top