EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52021SC0085

РАБОТЕН ДОКУМЕНТ НА СЛУЖБИТЕ НА КОМИСИЯТА РЕЗЮМЕ НА ДОКЛАДА ЗА ОЦЕНКАТА НА ВЪЗДЕЙСТВИЕТО, придружаващ Предложение за регламент на Европейския парламент и на Съвета ЗА ОПРЕДЕЛЯНЕ НА ХАРМОНИЗИРАНИ ПРАВИЛА ОТНОСНО ИЗКУСТВЕНИЯ ИНТЕЛЕКТ (ЗАКОНОДАТЕЛЕН АКТ ЗА ИЗКУСТВЕНИЯ ИНТЕЛЕКТ) И ЗА ИЗМЕНЕНИЕ НА НЯКОИ ЗАКОНОДАТЕЛНИ АКТОВЕ НА СЪЮЗА

SWD/2021/85 final

Брюксел, 21.4.2021

SWD(2021) 85 final

РАБОТЕН ДОКУМЕНТ НА СЛУЖБИТЕ НА КОМИСИЯТА

РЕЗЮМЕ НА ДОКЛАДА ЗА ОЦЕНКАТА НА ВЪЗДЕЙСТВИЕТО,

придружаващ

Предложение за регламент на Европейския парламент и на Съвета

ЗА ОПРЕДЕЛЯНЕ НА ХАРМОНИЗИРАНИ ПРАВИЛА ОТНОСНО ИЗКУСТВЕНИЯ ИНТЕЛЕКТ (ЗАКОНОДАТЕЛЕН АКТ ЗА ИЗКУСТВЕНИЯ ИНТЕЛЕКТ) И ЗА ИЗМЕНЕНИЕ НА НЯКОИ ЗАКОНОДАТЕЛНИ АКТОВЕ НА СЪЮЗА

{COM(2021) 206 final} - {SEC(2021) 167 final} - {SWD(2021) 84 final}


Резюме

Оценка на въздействието на регулаторната рамка за изкуствения интелект

A. Необходимост от действия

В какво се изразява проблемът и защо той се разглежда на равнище ЕС?

Изкуственият интелект (ИИ) е нововъзникваща технология с общо предназначение: много перспективно семейство от техники за компютърно програмиране. Внедряването на системи с ИИ има голям потенциал да донесе ползи за обществото, икономически растеж и да засили иновациите в ЕС, както и конкурентоспособността в световен мащаб. В някои случаи обаче използването на системи с ИИ може да създаде проблеми. Специфичните характеристики на някои системи с ИИ могат да породят нови рискове, свързани с 1) безопасността и сигурността и 2) основните права, както и да увеличат вероятността или интензивността на съществуващите рискове. Системите с ИИ също така 3) затрудняват правоприлагащите органи при проверката на спазването на съществуващите правила и при тяхното налагане. Тези проблеми от своя страна водят до 4) правна несигурност за дружествата, 5) потенциално по-бавно внедряване на технологиите с ИИ поради липсата на доверие от страна на предприятията и гражданите, както и 6) регулаторни отговори от страна на националните органи за смекчаване на възможните външни фактори, които рискуват да фрагментират вътрешния пазар.

Какво следва да бъде постигнато?

Регулаторната рамка има за цел да разреши тези проблеми, за да се гарантира правилното функциониране на единния пазар чрез създаване на условия за разработването и използването на надежден ИИ в Съюза. Специфичните цели са: 1) да се гарантира, че системите с ИИ, които се пускат на пазара и се използват, са безопасни и спазват действащото законодателство в областта на основните права и ценностите на Съюза; 2) да се гарантира правна сигурност за улесняване на инвестициите и иновациите в областта на ИИ; 3) да се подобрят управлението и ефективното прилагане на съществуващото законодателство относно основните права и изискванията за безопасност, приложими към системите с ИИ; и 4) да се улесни развитието на единен пазар за законни, безопасни и надеждни системи с ИИ и предотвратяване на разпокъсаността на пазара.

Каква е добавената стойност от действия на равнище ЕС (субсидиарност)? 

Трансграничният характер на големите масиви от данни и набори от данни, на които приложенията с ИИ често разчитат, означава, че целите на инициативата не могат да бъдат постигнати ефективно чрез самостоятелни действия на държавите членки. Европейската регулаторна рамка за надежден ИИ има за цел да установи хармонизирани правила относно разработването, пускането на пазара и използването на продукти и услуги, включващи технологии с ИИ или самостоятелни приложения с ИИ в Съюза. Нейната цел е да се гарантират еднакви условия на конкуренция и да се защитят всички европейски граждани, като същевременно се укрепят конкурентоспособността и промишлената основа на Европа в областта на ИИ. Действие на ЕС в областта на ИИ ще стимулира вътрешния пазар и има значителен потенциал да осигури на европейската промишленост конкурентно предимство на световно равнище въз основа на икономии от мащаба, които не могат да бъдат постигнати самостоятелно от отделните държави членки.

Б. Решения

Какви са различните варианти за постигане на целите? Има ли предпочитан вариант или не? Ако не, защо?

Бяха разгледани следните варианти: Вариант 1: законодателен инструмент на ЕС за създаване на схема за доброволно обозначаване; Вариант 2: секторен, „ad hoc“ подход; Вариант 3: хоризонтален законодателен инструмент на ЕС за установяване на задължителни изисквания за високорискови приложения с ИИ; Вариант 3+: като вариант 3, но с доброволни кодекси за поведение за невисокорискови приложения с ИИ; и Вариант 4: хоризонтален законодателен инструмент на ЕС за установяване на задължителни изисквания за всички приложения с ИИ. Предпочитаният вариант е вариант 3+, тъй като той предлага пропорционални предпазни мерки срещу рисковете, свързани с ИИ, като същевременно ограничава до минимум административните разходи и разходите за привеждане в съответствие. Конкретният въпрос за отговорността за приложенията с ИИ ще бъде разгледан чрез отделни бъдещи правила и следователно няма да бъде обхванат от вариантите.

Какви са позициите на различните заинтересовани страни? Кой подкрепя отделните варианти?

Предприятията, публичните органи, академичните среди и неправителствените организации са съгласни, че съществуват законодателни пропуски или че е необходимо ново законодателство, въпреки че мнозинството сред предприятията е по-малко. Промишлеността и публичните органи са съгласни задължителните изисквания да бъдат ограничени до високорисковите приложения с ИИ. Гражданите и гражданското общество са по-склонни да изразят несъгласие с ограничаването на задължителните изисквания до високорисковите приложения.

В. Въздействие на предпочитания вариант

Какви са ползите от предпочитания вариант (ако има такъв, в противен случай — на основните варианти)? 

За гражданите, предпочитаният вариант ще намали рисковете за тяхната безопасност и основните им права. За доставчиците на ИИ той ще създаде правна сигурност и ще гарантира, че няма да възникнат пречки пред трансграничното предоставяне на свързани с ИИ услуги и продукти. За дружествата, използващи ИИ, той ще укрепи доверието сред техните клиенти. За националните публични администрации предпочитаният вариант ще насърчи общественото доверие в използването на ИИ и ще укрепи механизмите за правоприлагане (чрез въвеждане на европейски механизъм за координация, осигуряване на подходящ капацитет и улесняване на одитите на системите с ИИ чрез нови изисквания за документиране, проследимост и прозрачност).

Какви са разходите за предпочитания вариант (ако има такъв, в противен случай — за основните варианти)? 

Предприятията или публичните органи, които разработват или използват приложения с ИИ, които представляват висок риск за безопасността или основните права на гражданите, ще трябва да спазват специфични хоризонтални изисквания и задължения, които ще бъдат въведени чрез технически хармонизирани стандарти. Общите сумарни разходи за привеждане в съответствие се оценяват в порядъка между 100 милиона евро и 500 милиона евро до 2025 г., което съответства на до 4—5 % от инвестициите във високорискови ИИ (които се оценяват в порядъка между 5 % и 15 % от всички приложения с ИИ). Разходите за проверка биха могли да възлязат на още 2—5 % от инвестициите във високорискови ИИ. Предприятията или публичните органи, които разработват или използват приложения с ИИ, които не са класифицирани като високорискови, няма да трябва да правят никакви разходи. Те обаче биха могли да изберат да се придържат към доброволни кодекси за поведение, за да следват подходящи изисквания, и да гарантират, че техният ИИ е надежден. В тези случаи разходите биха могли да бъдат толкова високи, колкото за високорисковите приложения, но най-вероятно ще бъдат по-ниски.

Какво е въздействието върху МСП и конкурентоспособността?

МСП ще се възползват в по-голяма степен от по-високо общо доверие в ИИ, отколкото големите предприятия, които могат да разчитат и на имиджа на марката си. МСП, които разработват приложения, класифицирани като високорискови, ще трябва да понесат разходи, сходни с тези на големите дружества. Действително, поради високата степен на мащабируемост на цифровите технологии, малките и средните предприятия могат да имат огромен обхват въпреки малкия си размер, което потенциално ще окаже въздействие върху милиони хора. По този начин, когато става въпрос за високорискови приложения, изключването на доставящите ИИ МСП от прилагането на регулаторната рамка би могло сериозно да подкопае целта за повишаване на доверието. В рамката обаче ще бъдат предвидени конкретни мерки, включително регулаторни пясъчници или помощ чрез цифровите иновационни центрове, за да се подпомогнат МСП при спазването на новите правила, като се вземат предвид техните специални потребности.

Ще има ли значително въздействие върху националните бюджети и администрации? 

Държавите членки ще трябва да определят надзорни органи, които да отговарят за изпълнението на законодателните изисквания. Тяхната надзорна функция би могла да се основава на съществуващи договорености, например по отношение на органите за оценяване на съответствието или надзора на пазара, но ще изисква достатъчен технологичен експертен опит и ресурси. В зависимост от вече съществуващата структура във всяка държава членка това може да възлезе в порядъка на 1 до 25 еквивалента на пълно работно време за всяка държава членка.

Ще има ли друго значително въздействие? 

Предпочитаният вариант значително ще намали рисковете за основните права на гражданите, както и за по-широките ценности на Съюза, и ще повиши безопасността на някои продукти и услуги, включващи технологии с ИИ или самостоятелни приложения с ИИ.

Пропорционалност? 

Предложението е пропорционално и необходимо за постигане на целите, тъй като следва основан на риска подход и налага регулаторна тежест само когато има вероятност системите с ИИ да представляват висок риск за основните права или за безопасността. Когато случаят не е такъв, се налагат само минимални задължения за прозрачност, по-специално по отношение на предоставянето на информация за указване използването на система с ИИ при взаимодействие с хора или използване на дълбинни фалшификати, ако не се използват за законни цели. Хармонизираните стандарти и помощните инструменти за насоки и съответствие ще имат за цел да помогнат на доставчиците и потребителите да спазват изискванията и да сведат до минимум разходите си.

Г. Последващи действия

Кога ще се извърши преглед на политиката?

Комисията ще публикува доклад за оценка и преглед на рамката пет години след датата, на която тя започне да се прилага.

Top