Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52020AE1110

    Становище на Европейския икономически и социален комитет относно „Бяла книга за изкуствения интелект — Европа в търсене на високи постижения и атмосфера на доверие“ (COM (2020) 65 final)

    EESC 2020/01110

    OB C 364, 28.10.2020, p. 87–93 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    28.10.2020   

    BG

    Официален вестник на Европейския съюз

    C 364/87


    Становище на Европейския икономически и социален комитет относно „Бяла книга за изкуствения интелект — Европа в търсене на високи постижения и атмосфера на доверие“

    (COM (2020) 65 final)

    (2020/C 364/12)

    Докладчик:

    Catelijne MULLER

    Консултация

    Комисия, 9.3.2020 г.

    Правно основание

    член 304 от Договора за функционирането на Европейския съюз

    Компетентна секция

    „Единен пазар, производство и потребление“

    Приемане от секцията

    25.6.2020 г.

    Приемане на пленарна сесия

    16.7.2020 г.

    Пленарна сесия №

    553

    Резултат от гласуването

    („за“/„против“/„въздържал се“)

    207/0/6

    1.   Заключения и препоръки

    1.1.

    ЕИСК приветства изложената в Бялата книга за изкуствения интелект стратегия на Комисията за насърчаване на навлизането на технологии с изкуствен интелект (ИИ), като същевременно се гарантира тяхното съответствие с европейските етични норми, правни изисквания и социални ценности.

    1.2.

    ЕИСК приветства също така целта за оползотворяване на европейските силни страни на промишлените и професионалните пазари и подчертава значението на укрепването на инвестициите, инфраструктурите, иновациите и уменията, така че предприятията, включително МСП, и обществото като цяло да могат да се възползват от възможностите на ИИ. Иновациите в областта на ИИ следва да бъдат насърчавани, за да се извлекат максимални ползи от системите с ИИ, като в същото време се предотвратяват и свеждат до минимум свързаните с тях рискове.

    1.3.

    Въпреки това той счита, че акцентът единствено върху основания на данни ИИ е твърде ограничен, за да превърне ЕС в реален лидер в областта на авангардния, надежден и конкурентоспособен ИИ. ЕИСК настоятелно призовава Комисията да насърчава и ново поколение системи с ИИ, които се основават на знанията и съжденията и зачитат човешките ценности и принципи.

    1.4.

    ЕИСК призовава Комисията: i) да насърчава мултидисциплинарността в научните изследвания посредством включване на други дисциплини, като например право, етика, философия, психология, науки за труда, хуманитарни науки, икономика и т.н.; ii) да включи съответните заинтересовани страни (профсъюзи, професионални, стапански и потребителски организации, НПО) в дебата за ИИ и като равнопоставени партньори във финансираните от ЕС научноизследователски и други проекти, като например публично-частното партньорство в областта на ИИ, диалози по отрасли, Програмата за внедряване на ИИ в публичния сектор и водещия център; и iii) да продължава да образова и информира по-широката общественост относно свързаните с ИИ възможности и предизвикателства.

    1.5.

    ЕИСК настоятелно призовава Комисията да обмисли по-задълбочено въздействието на ИИ върху целия спектър основни права и свободи, включително, но не само, правото на справедлив процес, правото на честни и открити избори, правото на събрания и демонстрации и правото на недискриминация.

    1.6.

    ЕИСК продължава да е против въвеждането на каквато и да е форма на юридическа правосубектност за ИИ. По този начин би било изгубено превантивното коригиращо действие на правото по отношение на отговорността и възниква сериозен морален риск както при разработването, така и при използването на ИИ, при което той създава възможности за злоупотреби.

    1.7.

    ЕИСК призовава за непрекъснат, систематичен социално-технически подход, при който технологиите се разглеждат от всички гледни точки и през различни призми, вместо да се провежда еднократна (или дори редовно повтаряна) предварителна оценка на съответствието на високорисков ИИ.

    1.8.

    ЕИСК предупреждава, че изискването за „високорисков“ сектор би могло да изключи много приложения и употреби на ИИ, на които е вътрешноприсъщ висок риск, в допълнение към биометричното разпознаване и използвания при набирането на персонал ИИ. ЕИСК препоръчва Комисията да създаде списък с общите характеристики на приложенията или употребите на ИИ, за които се счита, че имат вътрешноприсъщ висок риск, независимо от сектора.

    1.9.

    ЕИСК настоятелно предлага каквато и да е употреба на биометрично разпознаване да бъде разрешена единствено: i) ако има научно доказан ефект, ii) използва се в контролирана среда и iii) при строги условия. Широкоразпространеното използване на основано на ИИ биометрично разпознаване с цел наблюдение или проследяване, оценяване или категоризиране на хора или човешко поведение или емоции следва да бъде забранено.

    1.10.

    ЕИСК се застъпва за активното участие на ранен етап на социалните партньори при въвеждането на системи с ИИ на работното място съгласно приложимите национални разпоредби и практики, за да се гарантира, че системите са използваеми и съответстват на правата на работниците и на условията на труд.

    1.11.

    ЕИСК се застъпва и за активното участие на ранен етап на тези служители, които, в крайна сметка, ще работят със системите на ИИ, както и служителите с опит в правото, етиката и хуманитарните науки при въвеждането на системи с ИИ, за да се гарантира, че системите съответстват на правните и етични изисквания, но и на нуждите на работниците, така че работниците да запазват своята независимост по отношение на работата си и системите с ИИ, които да повишават уменията и удовлетворението им на работното място.

    1.12.

    Техниките и подходите в областта на ИИ, използвани за борба с пандемията от коронавируса, следва да бъдат стабилни, ефективни, прозрачни и обясними. Те трябва също така да спазват правата на човека, етичните принципи и действащото законодателство, както и да бъдат справедливи, приобщаващи и доброволни.

    1.13.

    ЕИСК призовава Комисията да поеме водеща роля, за да гарантира по-добра координация в Европа на приложените решения и подходи в областта на ИИ, използвани за борба с пандемията от коронавирус.

    2.   Бяла книга на ЕС за изкуствения интелект

    2.1.

    ЕИСК отбелязва със задоволство, че Европейската комисия възприема много от препоръките от предишни становища на ЕИСК и на експертната група на високо равнище по въпросите на изкуствения интелект, в които се насърчава навлизането на технологии с ИИ, като същевременно се гарантира тяхното съответствие с европейските етични норми, правни изисквания и социални ценности и в основата стои т.нар. „екосистема за високи постижения и екосистема на доверие“.

    2.2.

    ЕИСК приветства предложенията към предприятията, включително МСП, и обществото като цяло да се възползват от възможностите за разработване и използване на ИИ. ЕИСК подчертава значението на укрепването на инвестициите, инфраструктурите, иновациите и уменията, за да се подобри конкурентоспособността на ЕС на глобално равнище.

    Подход, при който човекът запазва контрол

    2.3.

    Тонът на Бялата книга обаче е и леко „фаталистичен“, тъй като се изказва предположението, че ИИ може да ни „завладее“, поради което нямаме друг избор, освен да регламентираме използването му. ЕИСК наистина вярва в ангажимента на ЕС да гарантира, че Европа приема само ИИ, който е надежден, и следователно по този въпрос трябва да се осмели да заеме много по-активна позиция. Поради това ЕИСК настоятелно призовава Комисията винаги да включва варианта въобще да не бъде възприет определен тип ИИ (или негова употреба). ЕИСК нарича това подход спрямо ИИ, при който човекът запазва контрол и който трябва да култивираме.

    Използване на предимствата на ИИ в Европа — далновидно определение

    2.4.

    Работното определение на ИИ в Бялата книга е „набор от технологии, които съчетават данни, алгоритми и изчислителна мощ“. По-нататък в текста данните и алгоритмите са определени като основните елементи на ИИ. Това определение обаче би обхванало всеки съществувал някога софтуер, а не само ИИ. Все още няма общоприето определение за „изкуствен интелект“, който представлява общ термин, използван за цял диапазон от компютърни приложения.

    2.5.

    Акцентът на Бялата книга единствено върху основания на данни ИИ е твърде ограничен, за да превърне ЕС в реален лидер в областта на авангардния, надежден и конкурентоспособен ИИ. Бялата книга изключва разглеждането и съответно управлението и регламентирането на много обещаващи системи с ИИ. ЕИСК настоятелно призовава Комисията да насърчава и ново поколение системи с ИИ, които съчетават основаните на данни подходи с подходи, които се основават на знанията и съжденията, т.нар. „хибридни системи“. В Бялата книга се признава необходимостта от хибридни системи за целите на обяснимостта, но ползите от хибридните системи се простират извън обяснимостта — те могат да ускоряват и/или ограничават обучението, както и да валидират и проверяват модела на машинно самообучение.

    2.6.

    Бялата книга се съсредоточава само върху необективността във връзка с данните, но не всички видове необективност са следствие от лошо качество или ограниченост на данните. Проектирането на който и да е артефакт само по себе си е съвкупност от необективни решения, като се започне от обмисляните входящи материали и се стигне до заложените цели, спрямо които се оптимизира процесът. Всички тези решения са обусловени по един или друг начин от вътрешноприсъщата необективност на човека или хората, които ги вземат.

    2.7.

    По-важното обаче е, че системите с ИИ представляват нещо повече от съвкупността на софтуерните си компоненти. Системите с ИИ обхващат и социално-техническата система около тях. Във връзка с това, когато се разглежда управлението и регламентирането на ИИ, акцентът следва да бъде поставен и върху заобикалящите го социални структури: организациите и предприятията, отделните професии, хората и институциите, които създават, разработват, внедряват, използват и контролират ИИ, както и хората, които са засегнати от него, като например гражданите в техните отношения с правителството, предприятията, потребителите, работниците или дори обществото като цяло.

    2.8.

    Следва да се отбележи също така, че правните определения (за целите на управлението и регламентирането) се различават от чисто научните определения, като се има предвид, че трябва да бъдат изпълнени редица изисквания, като например приобщаване, прецизност, трайност, всеобхватност и практичност. Някои от тези изисквания са задължителни, докато други се считат за добра регулаторна практика.

    Обединяване на всички сили

    2.9.

    ЕИСК приветства усилието за преодоляване на разпокъсаността по отношение на ИИ в Европа посредством събиране на изследователите в областта на ИИ, съсредоточаване върху МСП и партньорство с частния и публичния сектор. Освен това ЕИСК би препоръчал: i) насърчаване на мултидисциплинарността в научните изследвания посредством включване на други дисциплини, като например право, етика, философия, психология, науки за труда, хуманитарни науки, икономика и т.н.; ii) включване на съответните заинтересовани страни (профсъюзи, стопанските организации, потребителски организации, НПО) в дебата за ИИ, но и като равнопоставени партньори във финансираните от ЕС научноизследователски и други проекти, като например публично-частното партньорство в областта на ИИ, диалозите по отрасли, Програмата за внедряване на ИИ в публичния сектор и водещия център; и iii) продължаване на образоването и информирането на по-широката общественост относно свързаните с ИИ възможности и предизвикателства.

    ИИ и правото

    2.10

    В Бялата книга се признава фактът, че ИИ не функционира в свят на беззаконие. ЕИСК приветства по-специално акцента върху последиците от ИИ за основните права и препоръчва Комисията да разгледа по-задълбочено въздействията на ИИ върху широк набор от основни права и свободи, като например свободата на словото и изразяването и правото на зачитане на неприкосновеността на личния живот (което далеч надхвърля защитата на данните на хората), правото на справедлив процес, правото на честни и открити избори, правото на събрания и демонстрации и правото на недискриминация.

    2.11.

    ЕИСК приветства възприетата в Бялата книга ясна позиция относно приложимостта на съществуващите режими на отговорност спрямо ИИ и усилието за надграждане на тези режими така, че да бъдат взети под внимание новите рискове, които ИИ може да създаде, като се отстранят пропуските в правоприлагането там, където е трудно да се определи реално отговорният икономически оператор, и се направи така, че режимите да бъдат приспособими спрямо променящите се функции на системите с ИИ.

    2.12.

    Комисията би трябвало да приеме, че ИИ не познава граници и че усилията не могат и не би трябвало да се ограничават до Европа. Следва да се постигне общ консенсус в световен мащаб, който да се основава на дискусии и научни изследвания от страна на правни експерти, с цел да се създаде обща международна правна рамка.

    2.13.

    Във всички случаи ЕИСК продължава да е категорично против въвеждането на каквато и да е форма на юридическа правосубектност за ИИ. По този начин би било изгубено превантивното коригиращо действие на правото по отношение на отговорността и възниква сериозен морален риск както при разработването, така и при използването на ИИ, при което той създава възможности за злоупотреби.

    Регулиране на високорисков ИИ

    2.14.

    ЕИСК приветства основания на риска подход за контролиране на въздействието на ИИ. Комисията обявява регулаторна рамка за „високорисков ИИ“, който би трябвало да отговаря на изисквания по отношение на надеждността, точността, възпроизводимостта, прозрачността, човешкия надзор и управлението на данните. Според Бялата книга два кумулативни елемента съставляват високорисков ИИ: i) високорисков сектор и ii) високорискова употреба на приложение с ИИ. В Бялата книга са добавени два примера за приложения или използване на ИИ, за които би могло да се счита, че имат вътрешноприсъщ висок риск, т.е. независимо от сектора. Освен това в нея биометричното разпознаване се определя като приложение с вътрешноприсъщ висок риск. Изчерпателният списък на високорисковите сектори (макар и периодично преразглеждан) понастоящем включва следните сектори като потенциално високорискови: здравеопазване, транспорт, енергетика и части от публичния сектор.

    2.15.

    Вторият критерий, а именно че приложението с ИИ се използва рисковано, не е формулиран ясно, което подсказва, че биха могли да се разглеждат различни равнища на риск. ЕИСК предлага тук като области на въздействие да се добавят обществото и околната среда.

    2.16.

    По логиката на Бялата книга високорисково приложение с ИИ, използвано в нискорисков сектор, по принцип няма да бъде обхванато в регулаторната рамка. ЕИСК подчертава, че нежелани отрицателни ефекти на високорисков ИИ в нискорисков сектор биха могли да изключат приложения или употреби на ИИ от регулация, като така предоставят „вратичка“ за заобикаляне на правилата: да вземем например насоченото рекламиране (нискорисков сектор), за което е доказано, че има потенциално сегрегиращи, дискриминационни и разделящи ефекти, например по време на избори или посредством персонализирано ценообразуване (високорискова употреба или ефект). ЕИСК препоръчва да се изготвят общи характеристики на приложенията или използването на ИИ, за които следва да се счита, че имат висок риск, такива каквито са, независимо от сектора, в който се използват.

    2.17.

    Въпреки че признава необходимостта от изпитване за съответствие на ИИ, ЕИСК се опасява, че еднократна (или дори редовно повтаряна) предварителна оценка на съответствието няма да е достатъчна, за да се гарантира надеждно и антропоцентрично разработване, внедряване и употреба на ИИ по устойчив начин. Надеждният ИИ се нуждае от постоянен, систематичен социално-технически подход, при който технологиите се разглеждат от всички гледни точки и през различни призми. От гледна точка на създаването на политики това изисква мултидисциплинарен подход, при който лицата, определящи политиката, представителите на академичните среди от разнообразни области на познанието, социалните партньори, професионалните организации, специалистите, предприятията и НПО работят заедно и непрекъснато. Особено когато става въпрос за услуги от обществен интерес, свързани със здравето, безопасността и благосъстоянието на хората и основани на доверие, трябва да се гарантира, че системите с ИИ са адаптирани към практическите изисквания и не могат да вземат превес над отговорността на човека.

    Биометрично разпознаване

    2.18.

    ЕИСК приветства поканата на Комисията за откриване на публичен дебат относно използването на основано на ИИ биометрично разпознаване. Биометрично разпознаване на микроизражения, походка, глас (тон на гласа), сърдечен ритъм, температура и т.н. вече се използва за оценяване или дори за предвиждане на нашето поведение, психично състояние и емоции, включително при наемане на работа. Трябва да посочим ясно обаче, че не са налице солидни научни доказателства, предполагащи, че вътрешните емоции или психичното състояние на човека могат да бъдат „разчетени“ точно въз основа на неговото лицево изражение, походка, сърдечен ритъм, тон на гласа или температура, а още по-малко това може да се използва за предвиждане на бъдещо поведение.

    2.19.

    Следва да се отбележи също така, че Общият регламент относно защитата на данните (ОРЗД) ограничава до известна степен единствено обработването на биометрични данни. Съгласно определението в ОРЗД понятието „биометрични данни“ означава „лични данни, получени в резултат на специфично техническо обработване, които са свързани с физическите, физиологичните или поведенческите характеристики на дадено физическо лице и които позволяват или потвърждават уникалната идентификация на това физическо лице“. Много технологии за биометрично разпознаване обаче не са проектирани да предоставят уникална идентификация на дадено лице, а единствено да оценяват неговото поведение или емоции. Това използване може да не попадне в определението за „биометрични данни“ (и тяхното обработване) съгласно ОРЗД.

    2.20.

    Основаното на ИИ биометрично разпознаване засяга и по-широкото ни право на зачитане на неприкосновеността на личния живот, самоличността, независимостта и психологическата неприкосновеност, като създава положение, при което (постоянно) сме под наблюдение и сме обект на следене и установяване на самоличността. Това би могло да окаже психологически „възпиращ ефект“, поради който хората може да са склонни да приспособяват поведението си спрямо определена норма. Това представлява намеса в основното ни право на неприкосновеност на личния живот (морална и психологическа неприкосновеност). Освен това основаното на ИИ биометрично разпознаване би могло да засегне и други основни права и свободи, като например свободата на събранията и правото на недискриминация.

    2.21.

    ЕИСК препоръчва използването на биометрично разпознаване да бъде разрешено единствено ако има научно доказан ефект, използва се в контролирана среда и при строги условия. Широкоразпространеното използване на основано на ИИ биометрично разпознаване с цел осъществяване на наблюдение, проследяване, оценяване или категоризиране на хора или човешко поведение или емоции не следва да бъде разрешавано.

    Въздействие на ИИ върху труда и уменията

    2.22.

    ЕИСК отбелязва, че в Бялата книга липсва стратегия за преодоляване на въздействието на ИИ върху труда, въпреки че това беше изрично посочен елемент в Европейската стратегия за изкуствен интелект от 2018 г.

    2.23.

    ЕИСК се застъпва за активното участие на ранен етап на всички видове работещи и доставчици на услуги, включително лицата, упражняващи свободна професия, самостоятелно заетите лица и работещите по отделни заявки — не само хората, които проектират или разработват ИИ, но и тези, които купуват, внедряват, работят със системи с ИИ или са засегнати от тях. Социалният диалог трябва да се проведе преди въвеждането на технологии с ИИ на работното място в съответствие с приложимите национални правила и практики. Достъпът до данните на работниците и тяхното управление на работното място следва да се ръководят от договорените от социалните партньори принципи и разпоредби.

    2.24.

    ЕИСК би искал да обърне специално внимание на ИИ, използван при наемането на работа, освобождаването от работа и процесите на проверка и оценка на работниците. В Бялата книга се споменава ИИ, използван в процеса на набиране на персонал, като пример за високорисково приложение, което би било предмет на регулация, независимо от сектора. ЕИСК препоръчва тази област на използване да бъде разширена така, че да се включва и ИИ, използван при освобождаване от работа и в процесите на проверка и оценка на работниците, но и да се проучат общите характеристики на приложенията с ИИ, които биха довели до високорисково използване на работното място, независимо от сектора. Приложения с ИИ, които нямат научна основа, като например разкриване на емоции чрез биометрично разпознаване, не бива да бъдат разрешавани на работното място.

    2.25.

    Поддържането или придобиването на свързани с ИИ умения е необходимо, за да се даде възможност на хората да се приспособяват към бързото развитие в областта на ИИ. Политиката и финансовите ресурси обаче също ще трябва да се насочат към образованието и развитието на умения в области, които няма да бъдат застрашени от системите на ИИ (като задачи, при които човешкото взаимодействие е от първостепенно значение, като например основани на доверието услуги от обществен интерес, свързани със здравето, безопасността и благополучието на хората, когато хората и машините работят съвместно, или за които искаме да продължат да бъдат извършвани от хората).

    3.   ИИ и коронавирусът

    3.1.

    ИИ може да допринесе за по-доброто разбиране на коронавируса и COVID-19, да защити хората от излагане на вируса, да помогне за намирането на ваксина и да проучи възможностите за лечение. Въпреки това е важно да се подходи открито и ясно към това какво може и какво не може да прави ИИ.

    3.2.

    Стабилност и ефективност: използването на основан на данни ИИ за прогнозиране на разпространението на коронавируса крие потенциални проблеми, тъй като наличните данни за коронавируса са твърде малко, за да позволят на ИИ да получи надеждни резултати. Освен това малкото данни, които са налични, са непълни и необективни. Използването на тези данни за основаващи се на машинното самообучение подходи би могло да доведе до много фалшиви отрицателни и фалшиви положителни резултати.

    3.3.

    Прозрачността относно използваните данни и модели, както и обяснимостта на резултатите са от първостепенно значение. Особено в настоящия момент светът не може да си позволи да взема решения въз основа на „черни кутии“.

    3.4.

    При използването на ИИ за борба с настоящата пандемия зачитането на правата на човека, етичните принципи и съществуващото законодателство е по-важно от всякога. По-специално когато инструменти с ИИ потенциално нарушават права на човека, трябва да има легитимен интерес от тяхното използване, който трябва да бъде строго необходим, пропорционален и преди всичко ограничен във времето.

    3.5.

    Накрая, трябва да гарантираме справедливост и приобщаване. Системите с ИИ, които се разработват за борба с пандемията, следва да бъдат неутрални и недискриминационни. Освен това те следва да бъдат достъпни за всички и да вземат под внимание обществените и културните различия на отделните засегнати държави.

    Приложения за локализиране и проследяване и за наблюдение на здравословното състояние

    3.6.

    Според вирусолози и епидемиолози отварянето на обществото и икономиката след карантината изисква ефективно проследяване, наблюдение и защита на здравето на хората. Понастоящем се разработват много приложения за проследяване и извършване на здравни проверки — дейности, които обикновено се извършват (а в исторически план са се извършвали) от специалисти. Много правителства по целия свят са гласували голямо доверие на приложения за локализиране и проследяване като средство за нормализиране на обществения живот.

    3.7.

    Внедряването на този вид приложения е много радикална стъпка. Във връзка с това е важно да се направи критичен преглед на полезността, необходимостта и ефективността на приложенията, както и на тяхното обществено и правно въздействие, преди да бъде взето решение да бъдат използвани. Трябва да продължи да съществува вариант, при който приложенията не се използват и се дава приоритет на по-малко нарушаващи личната неприкосновеност решения.

    3.8.

    Ефективността и надеждността на приложенията за локализиране и проследяване са изключително важни, тъй като липсата на ефективност и надеждност може да доведе до много фалшиви положителни и фалшиви отрицателни резултати, до фалшиво усещане за сигурност, а оттам и до по-голям риск от заразяване. Първоначалните научни симулации повдигат сериозни съмнения дали приложение за локализиране въобще може да има какъвто и да е положителен ефект върху разпространението на вируса, дори и при 80 % или 90 % използване. Освен това едно приложение не може да регистрира специфични обстоятелства, като например наличие на плексиглас и прозорци или носене на лични предпазни средства.

    3.9.

    Освен това тези приложения водят до (частично) пренебрегване на различни права и свободи на човека, тъй като засягат свободата ни на сдружаване, правото ни на безопасност, недискриминация и неприкосновеност на личния живот.

    3.10.

    Неприкосновеността на личния живот е много повече от личните ни данни и анонимността ни, макар че и те са много важни. Неприкосновеността на личния живот обхваща също така правото човек да не бъде следен, локализиран и поставян под наблюдение. Научно доказано е, че когато хората знаят, че са следени, започват да се държат по различен начин. Според Европейския съд по правата на човека този „възпиращ ефект“ представлява нарушаване на неприкосновеността на личния ни живот. Същото широко понятие за неприкосновеност на личния живот следва да се включи в дебата за ИИ.

    3.11.

    Съществува риск събраните (сега или в бъдеще) данни да не бъдат използвани само за борба с настоящата пандемия, но и за профилиране, категоризиране и оценяване на хората за различни цели. В по-далечно бъдеще дори е възможно да си представим, че „използването за други цели“ би могло да доведе до нежелани видове профилиране при надзора и наблюдението, приемането за застраховка или социални осигуровки, наемането или освобождаването от работа и т.н. Следователно събраните чрез използване на такива приложения данни при никакви обстоятелства не може да бъдат използвани за профилиране, оценяване на степента на риска, класифициране или прогнозиране.

    3.12.

    Освен това всяко решение с ИИ, внедрено при тези извънредни обстоятелства и дори с най-добри намерения, ще създаде прецедент, независимо дали ни харесва или не. Предишни кризи са показали, че въпреки добрите намерения, подобни мерки на практика никога няма да бъдат премахнати.

    3.13.

    Поради тази причина използването на ИИ по време на настоящата пандемия следва винаги да бъде измервано и претегляно с оглед на няколко съображения, като например: i) дали е ефективно и надеждно; ii) дали съществуват по-малко нарушаващи личната неприкосновеност решения; iii) дали свързаните с него ползи са по-големи от обществените, етичните и свързаните с основните права съображения; и iv) дали може да се постигне отговорен компромис между противоречащи си основни права и свободи. Освен това тези видове системи не могат под никаква форма да бъдат внедрявани задължително или принудително.

    3.14.

    ЕИСК настоятелно призовава лицата, определящи политиката, да не се поддават твърде лесно на идеята, че за всеки проблем съществува технологично решение. Предвид сериозността на положението препоръчваме приложенията, свързани с проекти, чието предназначение е да се помогне за овладяване на пандемията, да бъдат обосновани със солидни научни изследвания в областта на епидемиологията, социологията, психологията, правото, етиката и науките за системите. Преди да бъде взето решение за използването на тези системи, трябва да бъдат извършени анализи и симулации за ефективност, необходимост и чувствителност.

    Брюксел, 16 юли 2020 година.

    Председател на Европейския икономически и социален комитет

    Luca JAHIER


    Top