EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52020IP0275

Резолюция на Европейския парламент от 20 октомври 2020 г. с препоръки към Комисията относно рамка за етичните аспекти на изкуствения интелект, роботиката и свързаните с тях технологии (2020/2012(INL))

OB C 404, 6.10.2021, p. 63–106 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

6.10.2021   

BG

Официален вестник на Европейския съюз

C 404/63


P9_TA(2020)0275

Рамка от етични аспекти на изкуствения интелект, роботиката и свързаните с тях технологии

Резолюция на Европейския парламент от 20 октомври 2020 г. с препоръки към Комисията относно рамка за етичните аспекти на изкуствения интелект, роботиката и свързаните с тях технологии (2020/2012(INL))

(2021/C 404/04)

Европейският парламент,

като взе предвид член 225 от Договора за функционирането на Европейския съюз,

като взе предвид член 114 от Договора за функционирането на Европейския съюз,

като взе предвид Хартата на основните права на Европейския съюз,

като взе предвид Регламент (ЕС) 2018/1488 на Съвета от 28 септември 2018 г. за създаване на Съвместно предприятие за европейски високопроизводителни изчислителни технологии (1),

като взе предвид Директива 2000/43/ЕО на Съвета от 29 юни 2000 г. относно прилагане на принципа на равно третиране на лица без разлика на расата или етническия произход (2) (Директива за равенството между расите),

като взе предвид Директива 2000/78/EО на Съвета от 27 ноември 2000 г. за създаване на основна рамка за равно третиране в областта на заетостта и професиите (3) (Директива за равно третиране в областта на заетостта),

като взе предвид Регламент (ЕС) 2016/679 на Европейския парламент и на Съвета от 27 април 2016 г. относно защитата на физическите лица във връзка с обработването на лични данни и относно свободното движение на такива данни и за отмяна на Директива 95/46/EО (Общ регламент относно защитата на данните) (4) (ОРЗД) и като взе предвид Директива (ЕС) 2016/680 на Европейския парламент и на Съвета от 27 април 2016 г. относно защитата на физическите лица във връзка с обработването на лични данни от компетентните органи за целите на предотвратяването, разследването, разкриването или наказателното преследване на престъпления или изпълнението на наказания и относно свободното движение на такива данни и за отмяна на Рамково решение 2008/977/ПВР на Съвета (5),

като взе предвид Междуинституционалното споразумение от 13 април 2016 г. за по-добро законотворчество (6),

като взе предвид предложението за регламент на Европейския парламент и на Съвета от 6 юни 2018 г. за създаване на програмата „Цифрова Европа“ за периода 2021 — 2027 г. (COM(2018)0434),

като взе предвид съобщението на Комисията до Европейския парламент, Съвета, Европейския икономически и социален комитет и Комитета на регионите от 11 декември 2019 г., озаглавено „Европейският зелен пакт“ (COM(2019)0640),

като взе предвид съобщението на Комисията до Европейския парламент, Съвета, Европейския икономически и социален комитет и Комитета на регионите от 19 февруари 2020 г. относно изкуствения интелект — Европа в търсене на високи постижения и атмосфера на доверие (COM(2020)0065),

като взе предвид съобщението на Комисията до Европейския парламент, Съвета, Европейския икономически и социален комитет и Комитета на регионите от 19 февруари 2020 г. относно Европейска стратегия за данните (COM(2020)0066),

като взе предвид съобщението на Комисията до Европейския парламент, Съвета, Европейския икономически и социален комитет и Комитета на регионите от 19 февруари 2020 г. относно Изграждане на цифровото бъдеще на Европа (COM(2020)0067),

като взе предвид заключенията на Съвета на Европейския съюз относно изграждането на цифровото бъдеще на Европа от юни 2020 г.,

като взе предвид своята резолюция от 16 февруари 2017 г., съдържаща препоръки към Комисията относно гражданскоправни норми за роботиката (7),

като взе предвид своята резолюция от 1 юни 2017 г. относно цифровизацията на европейската промишленост (8),

като взе предвид своята резолюция от 12 септември 2018 г. относно автономните оръжейни системи (9),

като взе предвид своята резолюция от 11 септември 2018 г. относно езиковото равенство в ерата на цифровите технологии (10),

като взе предвид своята резолюция от 12 февруари 2019 г. относно всеобхватната европейска промишлена политика в областта на изкуствения интелект и роботиката (11),

като взе предвид доклада от 8 април 2019 г. на създадената от Комисията експертна група на високо равнище по въпросите на изкуствения интелект, озаглавен „Насоки относно етичните аспекти за надежден ИИ“,

като взе предвид проучването за оценка на европейската добавена стойност, проведено от Службата на ЕП за парламентарни изследвания и озаглавено „Режим на гражданска отговорност във връзка с изкуствения интелект: проучване за оценка на европейската добавена стойност“ (12),

като взе предвид общите прегледи и проучванията, изготвени по искане на Комитета за бъдещето на науката и технологиите (STOA), ръководен от Отдела за научни прогнози към Генералната дирекция за парламентарни изследвания, озаглавени What if algorithms could abide by ethical principles? („Какво би станало, ако алгоритмите можеха да следват етични принципи?“), Artificial Intelligence ante portas: Legal & ethical reflections („Изкуственият интелект пред вратите ни: правни и етични разсъждения“), A governance framework for algorithmic accountability and transparency („Рамка за управление за алгоритмична отчетност и прозрачност“), Should we fear artificial intelligence? (Трябва ли да се страхуваме от изкуствения интелект?“) и The ethics of artificial intelligence: Issues and initiatives („Етика на изкуствения интелект: проблеми и инициативи“),

като взе предвид Рамковата конвенция на Съвета на Европа за защита на националните малцинства, Протокол № 12 към Конвенцията за защита на правата на човека и основните свободи и Европейската харта за регионалните или малцинствените езици,

като взе предвид препоръката на Съвета на ОИСР относно изкуствения интелект, приета на 22 май 2019 г.,

като взе предвид членове 47 и 54 от своя Правилник за дейността,

като взе предвид становището на комисията по външни работи, становището на комисията по вътрешния пазар и защита на потребителите, становището на комисията по транспорт и туризъм, становището на комисията по граждански свободи, правосъдие и вътрешни работи, становището на комисията по заетост и социални въпроси, становището на комисията по околна среда, обществено здраве и безопасност на храните и становището на комисията по култура и образование,

като взе предвид доклада на комисията по правни въпроси (A9-0186/2020),

Увод

А.

като има предвид, че разработването, внедряването и използването на т.нар. „изкуствен интелект“ (наричан също „ИИ“), роботиката и свързаните с тях технологии се извършва от хора и техният избор определя потенциала на тези технологии да носят полза на обществото;

Б.

като има предвид, че изкуственият интелект, роботиката и свързаните с тях технологии, които имат потенциал да създават възможности за предприятията и ползи за гражданите и които могат да оказват пряко въздействие върху всички аспекти на нашите общества, включително основните права и социалните и икономическите принципи и ценности, както и да оказват трайно влияние върху всички области на дейност, се насърчават и се развиват бързо;

В.

като има предвид, че изкуственият интелект, роботиката и свързаните с тях технологии ще доведат до съществени промени на пазара на труда и на работното място; като има предвид, че те могат потенциално да заменят работниците, които извършват повтарящи се дейности, да улеснят системите за съвместна работа човек-машина, да повишат конкурентоспособността и просперитета и да създадат нови възможности за работа за квалифицираните работници, като същевременно породят сериозни предизвикателства по отношение на реорганизацията на работната сила;

Г.

като има предвид, че развитието на изкуствения интелект, роботиката и свързаните с тях технологии може също така да допринесе за постигане на целите за устойчивост на Европейския зелен пакт в много различни сектори; като има предвид, че цифровите технологии могат да увеличат въздействието на политиките по отношение на опазването на околната среда; като има предвид, че те могат също така да допринесат за намаляване на задръстванията и на емисиите на парникови газове и замърсители на въздуха;

Д.

като има предвид, че в сектори като обществения транспорт подпомаганите от ИИ интелигентни транспортни системи може да се използват за свеждане до минимум на чакането на опашка, оптимизиране на маршрутите, предоставяне на възможност на хората с увреждания да бъдат по-независими и увеличаване на енергийната ефективност, като по този начин се увеличат усилията за декарбонизация и бъде намален екологичният отпечатък;

Е.

като има предвид, че тези технологии създават нови бизнес възможности, които могат да допринесат за възстановяване на европейската индустрия след настоящата здравна и икономическа криза, ако бъдат използвани в по-голяма степен, например в транспортната индустрия; като има предвид, че такива възможности могат да създадат нови работни места, тъй като внедряването на въпросните технологии има потенциала да увеличи производителността на предприятията и да допринесе за повишаване на ефективността; като има предвид, че програмите за иновации в тази област могат да спомогнат регионалните клъстери да процъфтяват;

Ж.

като има предвид, че Съюзът и неговите държави членки носят особена отговорност да оползотворяват, насърчават и увеличават добавената стойност на изкуствения интелект и да гарантират, че технологиите с ИИ са безопасни и допринасят за благосъстоянието и общия интерес на техните граждани, тъй като могат да имат огромен принос за постигането на общата цел за подобряване на живота на гражданите и насърчаване на просперитета в рамките на Съюза, като допринасят за разработването на по-добри стратегии и иновации в редица области и сектори; като има предвид, че за да се оползотвори пълният потенциал на изкуствения интелект и да бъдат добре запознати ползвателите с ползите и предизвикателствата, породени от технологиите с ИИ, е необходимо ИИ или цифровата грамотност да бъдат включени в образованието и обучението, включително във връзка с подкрепата за цифровото приобщаване, както и да се провеждат информационни кампании на равнището на Съюза, които да дават точна представа за всички аспекти на развитието на ИИ;

З.

като има предвид, че една обща регулаторна рамка на равнището на Съюза за разработването, внедряването и използването на изкуствения интелект, роботиката и свързаните с тях технологии („регулаторна рамка за ИИ“) следва да позволява на гражданите да споделят ползите, извлечени от техния потенциал, като същевременно ги защитава от потенциалните рискове, свързани с такива технологии, и насърчава надеждността на тези технологии в Съюза и извън него; като има предвид, че тази рамка следва да се основава на правото и ценностите на Съюза и да се ръководи от принципите на прозрачност, обяснимост, справедливост, отчетност и отговорност;

И.

като има предвид, че такава регулаторна рамка е от ключово значение за избягване на разпокъсаността на вътрешния пазар, произтичаща от различното национално законодателство, и ще спомогне за насърчаване на така необходимите инвестиции, за развитие на инфраструктура за данни и за подкрепа на научните изследвания; като има предвид, че тя следва да се състои от общи правни задължения и етични принципи, както е предвидено в предложението за регламент, посочено в приложението към настоящата резолюция; като има предвид, че тя следва да бъде създадена в съответствие с насоките за по-добро регулиране;

Й.

като има предвид, че Съюзът разполага със строга правна рамка, за да гарантира, наред с другото, защитата на личните данни, неприкосновеността на личния живот и недопускането на дискриминация, да насърчава равенството между половете, защитата на околната среда и правата на потребителите; като има предвид, че такава правна рамка, състояща се от обширен корпус от хоризонтално и секторно законодателство, включително съществуващите правила относно безопасността на продуктите и отговорността за тях, ще продължи да се прилага във връзка с изкуствения интелект, роботиката и свързаните с тях технологии, макар че може да са необходими някои корекции на специфични правни инструменти, за да се отрази цифровата трансформация и да се посрещнат новите предизвикателства, породени от използването на изкуствен интелект;

К.

като има предвид съществуващите опасения, че е възможно действащата правна уредба на Съюза, включително правото в областта на защитата на потребителите и достиженията на трудовото и социалното право, правото в областта на защитата на данните, на безопасността на продуктите и на надзора на пазара, както и законодателството в областта на борбата срещу дискриминацията, вече да не е подходяща за ефективно посрещане на рисковете, породени от изкуствения интелект, роботиката и свързаните с тях технологии;

Л.

като има предвид, че наред с корекциите на съществуващото законодателство, следва правните и етичните въпроси, свързани с технологиите с ИИ, да бъдат разгледани чрез ефективна, всеобхватна и ориентирана към бъдещето законодателна рамка на Съюза, отразяваща принципите и ценностите на Съюза, залегнали в Договорите и Хартата на основните права на Европейския съюз („Хартата“), която рамка следва да се въздържа от свръхрегулиране, като единствено запълни съществуващите пропуски в нормативната уредба и повиши правната сигурност както за предприятията, така и за гражданите, а именно чрез задължителни мерки за предотвратяване на практики, които безспорно биха подкопали основните права;

М.

като има предвид, че една нова регулаторна рамка трябва да отчита всички засегнати интереси; като има предвид, че внимателното разглеждане — в рамките на оценка на въздействието — на последствията от една нова регулаторна рамка за всички участници следва да бъде предварително условие за предприемането на по-нататъшни законодателни стъпки; като има предвид, че ключовата роля на малките и средните предприятия (МСП) и стартиращите предприятия, особено в икономиката на Съюза, обосновава използването на строго пропорционален подход, който да им позволи да се развиват и да предприемат иновации;

Н.

като има предвид, че изкуственият интелект, роботиката и свързаните с тях технологии могат да имат сериозни последици върху физическата и нематериалната неприкосновеност на отделни лица, групи и обществото като цяло и че тази индивидуална и колективна вреда трябва да намери отговор в законодателни действия;

О.

като има предвид, че за да бъде спазена регулаторната рамка на Съюза за ИИ, може да се наложи приемането на специфични правила за транспортния сектор на Съюза;

П.

като има предвид, че технологиите с ИИ са от стратегическо значение за транспортния сектор, включително поради това, че те повишават безопасността и достъпността на всички видове транспорт и създават нови възможности за заетост и по-устойчиви бизнес модели; като има предвид, че един подход на Съюза към разработването на изкуствения интелект, роботиката и свързаните с тях технологии в транспорта има потенциала да повиши глобалната конкурентоспособност и стратегическата автономност на икономиката на Съюза;

Р.

като има предвид, че човешката грешка все още е в основата на близо 95 % от всички пътнотранспортни произшествия в Съюза; като има предвид, че Съюзът имаше за цел да намали смъртните случаи на година при пътнотранспортни произшествия в Съюза с 50 % до 2020 г. в сравнение с 2010 г., но с оглед на липсата на напредък поднови усилията си в рамката за политиката на ЕС относно пътната безопасност за периода 2021 — 2030 г. — Следващи стъпки към визия „Нулева смъртност“; като има предвид, че в това отношение изкуственият интелект, автоматизацията и други нови технологии имат голям потенциал и съществено значение за повишаване на пътната безопасност чрез намаляване на възможността от човешка грешка;

С.

като има предвид, че регулаторната рамка на Съюза за ИИ следва също така да отразява необходимостта да се гарантира спазването на правата на работниците; като има предвид, че следва да се обърне необходимото внимание на Рамковото споразумение на европейските социални партньори относно цифровизацията от юни 2020 г.;

Т.

като има предвид, че обхватът на регулаторната рамка на Съюза за ИИ следва да бъде подходящ, пропорционален и подложен на цялостна оценка; като има предвид, че тя следва да покрива широк спектър от технологии и техните компоненти, включително алгоритми, софтуер и данни, използвани или генерирани от тях, необходим е основан на риска целенасочен подход, за да се избегне възпрепятстването на бъдещи иновации и създаването на ненужни тежести, особено за МСП; като има предвид, че разнообразието от приложения, които се задействат от изкуствен интелект, роботика и свързаните с тях технологии, усложнява намирането на единно решение, което да е подходящо за целия спектър от рискове;

У.

като има предвид, че анализът на данни и ИИ оказват все по-голямо въздействие върху информацията, която се предоставя на гражданите; като има предвид, че ако с подобни технологии се злоупотребява, те могат да застрашат основните права на свобода на изразяване и на получаване на информация, както и свободата и плурализма на медиите;

Ф.

като има предвид, че географският обхват на регулаторната рамка на Съюза за ИИ следва да обхваща всички компоненти на изкуствения интелект, роботиката и свързаните с тях технологии, разработени, внедрени или използвани в Съюза, включително в случаите, когато част от технологиите може да се намират извън Съюза или да нямат конкретно местоположение;

Х.

като има предвид, че регулаторната рамка на Съюза за ИИ следва да обхваща всички съответни етапи, а именно разработването, внедряването и използването на съответните технологии и техните компоненти, като изисква надлежно отчитане на съответните правни задължения и етични принципи, и следва да определя условията, за да се гарантира, че разработчиците, внедрителите и ползвателите спазват изцяло тези задължения и принципи;

Ц.

като има предвид, че хармонизираният подход към етичните принципи, свързани с изкуствения интелект, роботиката и свързаните с тях технологии, изисква общо разбиране в Съюза на концепциите, които формират основата на технологиите, като алгоритми, софтуер, данни или биометрично разпознаване;

Ч.

като има предвид, че действията на равнището на Съюза са оправдани от необходимостта да се избягва регулаторна разпокъсаност или поредица от национални регулаторни разпоредби без общ знаменател и да се гарантира хомогенно прилагане на общите етични принципи, заложени в правото, при разработването, внедряването и използването на високорискови изкуствен интелект, роботика и свързани с тях технологии; като има предвид, че когато рисковете са значителни, са необходими ясни правила;

Ш.

като има предвид, че общите етични принципи са ефикасни само когато са заложени и в законодателството и когато са определени лицата, отговорни за гарантирането, оценяването и мониторинга на спазването им;

Щ.

като има предвид, че етичните насоки — като например принципите, приети от експертната група на високо равнище по въпросите на изкуствения интелект — представляват добра отправна точка, но не могат да гарантират, че разработчиците, внедрителите и ползвателите ще действат честно и ще гарантират ефективната защита на отделните лица; като има предвид, че тези насоки са от още по-голямо значение по отношение на високорисковите изкуствен интелект, роботика и свързани с тях технологии;

АА.

като има предвид, че всяка държава членка следва да определи национален надзорен орган, който да отговаря за осигуряването, оценяването и мониторинга на съответствието на разработването, внедряването и използването на високорискови изкуствен интелект, роботика и свързани с тях технологии с регулаторната рамка на Съюза за ИИ, както и за създаването на възможност за дискусии и обмен на гледни точки в тясно сътрудничество със съответните заинтересовани страни и гражданското общество; като има предвид, че националните надзорни органи следва да сътрудничат помежду си;

АБ.

като има предвид, че за да се гарантира хармонизиран подход в целия Съюз и оптимално функциониране на цифровия единен пазар, следва да се направи оценка на координацията на равнището на Съюза от страна на Комисията и/или съответните институции, органи, служби и агенции на Съюза, които биха могли да бъдат определени в този контекст, по отношение на новите възможности и предизвикателства, по-специално тези от трансгранично естество, произтичащи от текущото технологично развитие; като има предвид, че за тази цел на Комисията следва да бъде възложено да намери подходящо решение за структуриране на упоменатата координация на равнището на Съюза;

Ориентиран към човека и създаден от човека изкуствен интелект

1.

счита, че без да се засяга специфичното за сектора законодателство, е необходима ефективна и хармонизирана регулаторна рамка, основана на правото на Съюза, Хартата и международното право в областта на правата на човека и приложима по-специално за високорисковите технологии, за да се установят еднакви стандарти в целия Съюз и ефективно да се защитят ценностите на Съюза;

2.

счита, че всяка нова регулаторна рамка за ИИ, състояща се от правни задължения и етични принципи за разработването, внедряването и използването на изкуствения интелект, роботиката и свързаните с тях технологии, следва да зачита изцяло Хартата и съответно да зачита човешкото достойнство, самостоятелността и самоопределянето на личността, да предотвратява вреди, да насърчава справедливостта, приобщаването и прозрачността, да премахва предубедеността и дискриминацията, включително по отношение на малцинствените групи, и да зачита и спазва принципите за ограничаване на отрицателните външни ефекти на използваната технология, за обяснимост на технологиите и гарантиране, че технологиите съществуват, за да служат на хората, а не да ги заменят или да вземат решения вместо тях, като крайната цел е увеличаване на благоденствието на всеки отделен човек;

3.

подчертава асиметрията между хората, които си служат с технологии с ИИ, и онези, които си взаимодействат с тях и са предмет на тяхното въздействие; подчертава в тази връзка, че доверието на гражданите в ИИ може да се изгради единствено върху регулаторна рамка, основаваща се на „етика по подразбиране“ и „етика при проектирането“, която да гарантира, че всеки пуснат в действие ИИ изцяло зачита и спазва Договорите, Хартата и вторичното право на Съюза; счита, че надграждането върху такъв подход следва да съответства на принципа на предпазливост, който направлява законодателството на Съюза, и следва да бъде в центъра на всяка рамка за ИИ; във връзка с това призовава за ясен и последователен модел на управление, който да даде възможност на дружествата и новаторите да развиват допълнително изкуствения интелект, роботиката и свързаните с тях технологии;

4.

счита, че всяко законодателно действие, свързано с изкуствения интелект, роботиката и свързаните с тях технологии, следва да бъде в съответствие с принципите на необходимост и пропорционалност;

5.

счита, че такъв подход ще позволи на дружествата да въвеждат иновативни продукти на пазара и да създават нови възможности, като същевременно се гарантира защитата на ценностите на Съюза, чрез насочване към развитие на системи с ИИ, които включват етичните принципи на Съюза при проектирането; счита, че такава основаваща се на ценности регулаторна рамка ще представлява добавена стойност чрез предоставянето на Съюза на уникално конкурентно предимство и ще допринесе значително за благосъстоянието и благоденствието и просперитета на гражданите и предприятията на Съюза чрез поощряване на вътрешния пазар; подчертава, че такава регулаторна рамка за ИИ ще представлява също така добавена стойност по отношение на насърчаването на иновациите на вътрешния пазар; счита, че например в транспортния сектор този подход дава възможност на предприятията от Съюза да се превърнат в световни лидери в тази област;

6.

отбелязва, че правната рамка на Съюза следва да се прилага за изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуера, алгоритмите и данните, използвани или генерирани от такива технологии;

7.

отбелязва, че възможностите, основаващи се на изкуствения интелект, разчитат на големи информационни масиви, като е необходима критична маса от данни за обучение на алгоритмите и прецизиране на резултатите; приветства във връзка с това предложението на Комисията за създаване на общо пространство на данни в Съюза, за да се засили обменът на данни и да се подпомогнат научните изследвания при пълно зачитане на европейските правила за защита на данните;

8.

счита, че настоящата правна рамка на Съюза, по-специално относно защитата на неприкосновеността на личния живот и на личните данни, ще трябва да се прилага в пълна степен по отношение на ИИ, роботиката и свързаните с тях технологии и е да бъде подложена на редовен преглед и при необходимост да бъде актуализирана, за да може ефективно да се справи с рисковете, породени от тези технологии, и във връзка с това може да се подобри чрез допълване със стабилни ръководни етични принципи; посочва, че в случаите, в които би било прибързано да се приемат правни актове, следва да се използва незадължителна правна рамка;

9.

очаква от Комисията да включи силен етичен подход в законодателно предложение, посочено в приложението към настоящата резолюция, като последващо действие във връзка с Бялата книга относно изкуствения интелект, включително във връзка с безопасността, отговорността и основните права, което да увеличава максимално възможностите и да свежда до минимум рисковете от технологиите с ИИ; очаква, че посоченото законодателно предложение ще включва политически решения на основните признати рискове, свързани с изкуствения интелект, включително, наред с другото, относно етичното събиране и използване на големи информационни масиви, въпроса за прозрачността и предубедеността на алгоритмите; призовава Комисията да разработи критерии и показатели за етикетиране на технологиите с ИИ, за да се стимулира прозрачността, обяснимостта и отчетността и да се стимулират допълнителни предпазни мерки от страна на разработчиците; подчертава необходимостта да се инвестира в интегрирането на нетехнически дисциплини в изследването и проучването на ИИ, като се отчита социалният контекст;

10.

счита, че изкуственият интелект, роботиката и свързаните с тях технологии трябва да бъдат съобразени с нуждите на човека в съответствие с принципа, че тяхното развитие, внедряване и използване следва винаги да бъдат в услуга на хората — никога обратното — и следва да се стремят към подобряване на благосъстоянието и личната свобода, както и към опазване на мира, предотвратяване на конфликти и укрепване на международната сигурност, като същевременно се максимизират предлаганите ползи и се предотвратяват и намаляват рисковете от тях;

11.

заявява, че разработването, внедряването и използването на високорисков изкуствен интелект, роботика и свързани с тях високорискови технологии, включително, но не само от хора, следва винаги да се водят от етични принципи и да са проектирани така, че да зачитат и допускат човешкия фактор и демократичен надзор, както и да дават възможност за възвръщане на човешкия контрол, когато е необходимо, чрез прилагане на подходящи контролни мерки;

Оценка на риска

12.

подчертава, че една бъдеща уредба би трябвало да следва диференциран, насочен към бъдещето и основан на риска подход за регулиране на изкуствения интелект, роботиката и свързаните с тях технологии, включително технологично неутрални стандарти във всички сектори, със специфични за сектора стандарти, когато това е целесъобразно; отбелязва, че за да се гарантира еднакво прилагане на системата за оценка на риска и спазване на съответните правни задължения с цел гарантиране на равнопоставени условия на конкуренция между държавите членки и предотвратяване на фрагментирането на вътрешния пазар, е необходим изчерпателен и кумулативен списък на високорисковите сектори и високорисковите употреби или цели; подчертава, че този списък трябва да бъде предмет на редовна преоценка, и отбелязва, че предвид развиващото се естество на тези технологии в бъдеще може да бъде необходимо да се преразгледа начинът, по който се извършва оценката на свързания с тях риск;

13.

счита, че определянето на това дали изкуственият интелект, роботиката и свързаните с тях технологии следва да се считат за високорискови и следователно да подлежат на задължително спазване на правните задължения и етичните принципи, установени в регулаторната рамка за ИИ, следва винаги да произтича от безпристрастна, регулирана и външна предварителна оценка, основана на конкретни и определени критерии;

14.

във връзка с това счита, че изкуственият интелект, роботиката и свързаните с тях технологии следва да бъдат разглеждани като високорискови, когато разработването, внедряването и използването им водят до значителен риск за причиняване на нараняване или вреда на отделни лица или на обществото в нарушение на основните права и правилата за безопасност, установени в правото на Съюза; счита, че за целите на оценката на това дали технологиите с ИИ водят до такъв риск следва да се вземат предвид секторът, в който те биват разработвани, внедрявани или използвани, тяхната специфична употреба или цел и сериозността на нараняването или вредата, които може да се очаква да настъпят; първият и вторият от критериите, а именно секторът и специфичната употреба или цел, следва да се разглеждат кумулативно;

15.

подчертава, че оценката на риска на тези технологии следва да се извършва въз основа на изчерпателен и кумулативен списък на високорисковите сектори и високорисковите употреби и цели; изразява категоричното си убеждение, че в рамките на Съюза следва да има съгласуваност по отношение на оценката на риска на тези технологии, особено в случай че те се оценяват както в светлината на съответствието им с регулаторната рамка за ИИ, така и съгласно друго приложимо законодателство, специфично за сектора.

16.

счита, че този основан на риска подход следва да бъде разработен по такъв начин, че да се ограничи във възможно най-голяма степен административната тежест за дружествата, и по-специално за МСП, като се използват съществуващите инструменти; тези инструменти включват, но не се ограничават до списъка за оценка на въздействието върху защитата на данните, както е предвидено в Регламент (ЕС) 2016/679;

Характеристики за безопасност, прозрачност и отчетност

17.

припомня, че правото на информация на потребителите е залегнало като основен принцип в правото на Съюза и подчертава, че поради това то следва да бъде изцяло прилагано във връзка с изкуствения интелект, роботиката и свързаните с тях технологии; счита, че то следва да включва по-специално прозрачност по отношение на взаимодействието със системите за изкуствен интелект, включително процесите на автоматизация, както и по отношение на начина им на функциониране, възможностите, напр. начина на филтриране и представяне на информацията, точността и ограниченията; счита, че тази информация следва да се предоставя на националните надзорни органи и на националните органи за защита на потребителите;

18.

подчертава, че доверието на потребителите е от съществено значение за разработването и използването на тези технологии, които могат да носят присъщи рискове, ако се основават на непрозрачни алгоритми и необективни набори от данни; счита, че потребителите следва да имат правото да бъдат информирани в достатъчна степен и по разбираем, навременен, стандартизиран, точен и достъпен начин за това, че се използват алгоритмични системи, за логиката им, както и за евентуалния им резултат и въздействието върху потребителите, как може да се осъществи контакт с човек, разполагащ с правомощия за вземане на решения, и как решенията на системата могат да бъдат проверени, ефикасно обжалвани и коригирани; подчертава във връзка с това необходимостта от разглеждане и спазване на принципите на информация и оповестяване, върху които са изградени достиженията на правото в областта на защитата на потребителите; счита, че е необходимо да се предоставя подробна информация на крайните ползватели относно функционирането на транспортните системи и подпомаганите от ИИ превозни средства;

19.

отбелязва, че е от съществено значение алгоритмите и наборите от данни, използвани или генерирани от изкуствения интелект, роботиката и свързаните с тях технологии, да подлежат на обяснение и когато е строго необходимо — при пълно зачитане на законодателството на Съюза в областта на защитата на данните, неприкосновеността на личния живот и правата върху интелектуалната собственост и търговските тайни — да са достъпни за публичните органи, като например националните надзорни органи и органите за наблюдение на пазара; освен това отбелязва, че съгласно възможно най-високите и приложими стандарти на отрасъла документацията следва да се съхранява от лицата, които участват в различните етапи на разработване на високорисковите технологии; отбелязва възможността органите за надзор на пазара да имат допълнителни прерогативи в това отношение; подчертава във връзка с това ролята на законосъобразния обратен инженеринг; счита, че може да се наложи преразглеждане на настоящото законодателство в областта на надзора на пазара, за да се гарантира, че то е в състояние да отговори на появата на изкуствения интелект, роботиката и свързаните с тях технологии;

20.

призовава за изискване, когато оценката изисква това, разработчиците и внедрителите на високорискови технологии да предоставят на публичните органи съответната документация относно използването, проектирането и инструкциите за безопасност, включително, когато е строго необходимо и при пълно спазване на законодателството на Съюза в областта на защитата на данните, неприкосновеността на личния живот, правата на интелектуална собственост и търговските тайни, да предоставят изходния код, инструментите за разработване и данните, използвани от системата; отбелязва, че подобно задължение би дало възможност за оценка на тяхното съответствие с правото и етичните принципи на Съюза, и във връзка с това отбелязва примера, даден от законоустановеното депозиране на публикации в национална библиотека; отбелязва важното разграничение между прозрачността на алгоритмите и прозрачността на използването на алгоритмите;

21.

освен това отбелязва, че за да се зачита човешкото достойнство, самостоятелност и безопасност, следва да се обърне дължимото внимание на жизненоважните модерни медицински уреди и на необходимостта от независими ползващи се с доверие органи, които да запазят средствата, необходими за предоставяне на услуги на лицата, носещи такива уреди, когато първоначалният разработчик или внедрител вече не ги предоставя; например тези услуги биха включвали поддръжка, ремонт и подобрения, включително софтуерни актуализации, които отстраняват неизправности и уязвимости;

22.

счита, че високорисковите изкуствен интелект, роботика и свързани с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, независимо от отрасъла, в който са разработени, внедрени и се използват, следва по проект да бъдат разработвани по сигурен, проследим, технически солиден, надежден, етичен и правно обвързващ начин и да бъдат предмет на независим контрол и преглед; счита по-специално, че всички участници във веригите за разработване и доставка на продукти и услуги с изкуствен интелект следва да носят правна отговорност, и подчертава необходимостта от механизми за гарантиране на отговорност и отчетност;

23.

подчертава, че регулирането и насоките относно обяснимостта, възможността за одит, проследимостта и прозрачността, както и, когато това се изисква от оценка на риска и е строго необходимо, при същевременно пълно зачитане на правото на Съюза, например правото относно защитата на данните, неприкосновеността на личния живот, правата върху интелектуалната собственост и търговските тайни, достъпа на публичните органи до технологии, данни и компютърни системи, на които се основават тези технологии, са от съществено значение за гарантиране на доверието на гражданите в тези технологии, дори ако степента на обяснимост е свързана със сложността на технологиите; посочва, че невинаги е възможно да се обясни защо даден модел е довел до конкретен резултат или решение, като пример за това са алгоритмите от типа „черна кутия“; поради това счита, че спазването на тези принципи е предварително условие за гарантиране на отчетност;

24.

счита, че гражданите, включително потребителите, следва да бъдат информирани, когато си взаимодействат със система, използваща изкуствен интелект, по-специално за персонализиране на продукт или услуга за нейните потребители, дали и как могат да изключат или да ограничат такова персонализиране;

25.

изтъква във връзка с това, че за да бъдат надеждни, изкуственият интелект, роботиката и свързаните с тях технологии трябва да бъдат технически устойчиви и точни;

26.

подчертава, че е важно мрежите от взаимосвързани ИИ и роботика да бъдат защитени и че трябва да се предприемат сериозни мерки за предотвратяване на нарушения на сигурността, изтичане на данни, заразяване на данни, кибератаки и злоупотреба с лични данни, и че това ще изисква съответните агенции, органи и институции както на равнището на Съюза, така и на национално равнище да работят заедно и в сътрудничество с крайните потребители на тези технологии; призовава Комисията и държавите членки да гарантират зачитането на ценностите на Съюза и зачитането на основните права по всяко време, когато разработват и внедряват технологии с ИИ, за да гарантират сигурността и устойчивостта на цифровата инфраструктура на Съюза;

Непредубеденост и недискриминация

27.

припомня, че изкуственият интелект, в зависимост от начина, по който се разработва, използва и прилага, има потенциал да създава и засилва предубедеността, включително чрез предубеденост в базовите набори от данни, и следователно да създава различни форми на автоматизирана дискриминация, включително непряка дискриминация, по отношение по-специално на групи от хора със сходни характеристики; призовава Комисията и държавите членки да вземат всички възможни мерки, за да се избегне подобна предубеденост да се гарантира пълна защита на основните права;

28.

изразява загриженост във връзка с рисковете от предубеденост и дискриминация при разработването, внедряването и използването на високорискови изкуствен интелект, роботика и свързани с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии; припомня, че при всички обстоятелства те следва да зачитат правото на Съюза, както и правата на човека и човешкото достойнство, самостоятелността и самоопределението на отделния човек, както и да гарантират равно третиране и недискриминация за всички;

29.

подчертава, че технологиите с ИИ следва да бъдат проектирани така, че да зачитат, да служат на и да защитават ценностите на Съюза и физическата и психическата неприкосновеност, да поддържат културното и езиковото многообразие на Съюза и да спомагат за удовлетворяването на основните потребности; подчертава необходимостта от избягване на такова използване, което би могло да доведе до недопустима пряка или косвена принуда, да породи риск от подкопаване на психологическата самостоятелност и психичното здраве или да доведе до необосновано наблюдение, измама или недопустима манипулация;

30.

твърдо вярва, че основните права на човека, залегнали в Хартата, следва да се спазват стриктно, за да се гарантира, че тези нововъзникващи технологии не водят до пропуски по отношение на защитата;

31.

потвърждава, че евентуалната предубеденост и дискриминация чрез употребата на софтуер, алгоритми и данни могат да причинят явна вреда на отделни лица и на обществото като цяло, поради което следва да бъдат преодолени чрез насърчаване на разработването и споделянето на стратегии за борба с тях, например премахване на предубедеността при наборите от данни в научноизследователската и развойната дейност, както и чрез разработване на правила за обработката на данни; счита, че този подход има потенциала да превърне софтуера, алгоритмите и данните в активи за борба с предубедеността и дискриминацията в някои ситуации, както и в сила за постигането на равни права и положителна социална промяна;

32.

заявява, че етичните ценности справедливост, точност, поверителност и прозрачност следва да бъдат в основата на тези технологии, което в този контекст означава техните операции да не генерират предубедени резултати;

33.

подчертава значението на качеството на наборите от данни, използвани при изкуствения интелект, роботиката и свързаните с тях технологии, в зависимост от техния контекст, по-специално по отношение на представителността на данните за обучение, премахването на предубедеността при наборите от данни, използваните алгоритми, данните и стандартите за тяхното обобщаване; подчертава, че тези набори от данни следва да подлежат на проверка от страна на националните надзорни органи, ако е налице такова искане, с цел да се гарантира тяхното съответствие с посочените по-горе принципи;

34.

подчертава, че в контекста на широкоразпространената дезинформационна война, подклаждана по-специално от неевропейски участници, технологиите с изкуствен интелект могат да окажат неблагоприятно въздействие в етичен план чрез експлоатиране на предубеденост в данните и алгоритмите или чрез преднамерено променяне на данните за самообучение на изкуствения интелект от страна на трета държава, и те биха могли да бъдат изложени също така на други форми на опасна и зловредна манипулация, извършвана по непредвидими начини и водеща до неизмерими последици; следователно е налице все по-належаща необходимост Съюзът да продължи с инвестициите в областта на научните изследвания, анализа, иновациите и трансграничния и междусекторен трансфер на знания с цел разработване на технологии с изкуствен интелект, които да са очевидно независими от всякакъв вид профилиране, предубеденост и дискриминация, и които да могат да допринасят ефективно за борбата с фалшивите новини и дезинформацията, като същевременно се зачитат неприкосновеността на личните данни и правната рамка на Съюза;

35.

припомня колко е важно да се гарантират ефективни средства за правна защита на физическите лица и призовава държавите членки да гарантират наличието на достъпни, финансово приемливи, независими и ефективни процедури и механизми за преглед, за да се гарантира безпристрастно разглеждане от страна на човек на всички твърдения за нарушения на правата на гражданите, например правата на потребителите или гражданските права, чрез използването на алгоритмични системи, независимо дали те принадлежат на субекти от публичния или частния сектор; подчертава значението на проекта за директива на Европейския парламент и на Съвета относно представителни искове за защита на колективните интереси на потребителите и за отмяна на Директива 2009/22/ЕО, за който на 22 юни 2020 г. беше постигнато политическо споразумение относно бъдещи случаи на оспорване във връзка с въвеждането или текущото използване на система за изкуствен интелект, водеща до риск от нарушаване на правата на потребителите, или търсенето на средства за защита при нарушаването на права; призовава Комисията и държавите членки да гарантират, че националните и европейските организации на потребителите разполагат с достатъчно финансиране, за да подпомагат потребителите при упражняването на тяхното право на правна защита в случаите на нарушаване на техните права;

36.

следователно счита, че всяко физическо или юридическо лице следва да може да потърси правна защита срещу решение, взето в негов ущърб чрез използването на изкуствен интелект, роботика или свързана с тях технология, в нарушение на правото на Съюза или на националното право;

37.

счита, че като първо звено за контакт в случаи на предполагаеми нарушения на регулаторната рамка на Съюза в този контекст, потребителите биха могли да се обръщат и към националните надзорни органи с искания за правна защита с оглед на гарантиране на ефективното прилагане на горепосочената рамка;

Социална отговорност и баланс между половете

38.

подчертава, че социално отговорният изкуствен интелект, роботика и свързани с тях технологии трябва да изпълняват роля, допринасяща за намирането на решения, които да защитават и насърчават основните права и ценности на нашето общество, като например демокрацията, върховенството на закона, разнообразните и независими медии и обективната и свободно достъпна информация, здравето и икономическия просперитет, равните възможности, правата на работниците и социалните права, качественото образование, защитата на децата, културното и езиковото многообразие, равенството между половете, цифровата грамотност, иновациите и творчеството; припомня, че е необходимо да се гарантира надлежното отчитане и представляване на интересите на всички граждани, включително и на тези в маргинализирано или уязвимо положение, като например лицата с увреждания;

39.

подчертава, че е важно да се постигне високо равнище на обща цифрова грамотност и да се обучават висококвалифицирани специалисти в тази област, както и да се гарантира взаимното признаване на тези квалификации в рамките на целия Съюз; подчертава, че е необходимо да има различни екипи от разработчици и инженери, които да работят заедно с важни обществени организации, за да се предотврати непреднамереното включване на предубеденост по отношение на пола и културните нагласи в алгоритмите, системите и приложенията с изкуствен интелект; подкрепя създаването на образователни програми и дейности за повишаване на обществената осведоменост относно общественото, правното и етичното въздействие на изкуствения интелект;

40.

подчертава жизненоважното значение на гарантирането на свободата на мисълта и свободата на изразяване, като по този начин се гарантира, че тези технологии не насърчават словото на омразата или насилието; следователно счита, че възпрепятстването или ограничаването на свободата на изразяване на мнение, упражнявана по електронен път, е незаконно съгласно основните принципи на Съюза, с изключение на случаите, когато упражняването на това основно право води до незаконни действия;

41.

подчертава, че изкуственият интелект, роботиката и свързаните с тях технологии могат да допринесат за намаляване на социалните неравенства, и заявява, че европейският модел за тяхното развитие трябва да се основава на доверието на гражданите и на по-голямо социално сближаване;

42.

подчертава, че внедряването на която и да е система за изкуствен интелект не следва да ограничава неправомерно достъпа на потребителите до обществени услуги, като например социалната сигурност; поради това призовава Комисията да направи оценка на начините за постигане на тази цел;

43.

подчертава значението на отговорната научноизследователска и развойна дейност, насочена към максимизиране на пълния потенциал на изкуствения интелект, роботиката и свързаните с тях технологии за гражданите и общественото благо; призовава за мобилизирането на ресурси от Съюза и неговите държави членки с цел развитие и подпомагане на отговорните иновации;

44.

подчертава, че технологичният експертен опит ще придобива все по-голямо значение, и следователно ще бъде необходимо непрекъснато актуализиране на обучителните курсове, по-специално за бъдещите поколения, и насърчаване на професионалната преквалификация на лицата, които вече са на пазара на труда; заявява в тази връзка, че иновациите и обучението следва да бъдат насърчавани не само в частния, но и в публичния сектор;

45.

настоява, че разработването, внедряването и използването на тези технологии не следва да причинява каквито и да било вреди на отделни лица, на обществото или на околната среда, и че съответно разработчиците, внедрителите и ползвателите на тези технологии следва да носят отговорност за нанасянето на такива вреди, в съответствие с приложимите правила на Съюза и национални правила за носене на отговорност;

46.

призовава държавите членки да преценят дали загубата на работни места в резултат на внедряването на тези технологии следва да води до изготвянето на подходящи обществени политики, например за намаляване на работното време;

47.

поддържа становището, че е изключително необходимо при проектирането да се прилага подход, който да се основава на ценностите и етичните принципи на Съюза, за да се създадат подходящи условия за широко обществено приемане на изкуствения интелект, роботиката и свързаните с тях технологии; счита, че този подход, насочен към разработването на надежден, етично отговорен и стабилен в техническо отношение изкуствен интелект, е важен фактор за постигането на устойчива и интелигентна мобилност, която да бъде безопасна и достъпна;

48.

обръща внимание на голямата добавена стойност на автономните превозни средства за лицата с ограничена мобилност, тъй като те позволяват на тези лица да се включат по-ефективно в индивидуалния автомобилен транспорт, улеснявайки по този начин тяхното ежедневие; подчертава значението на достъпността, особено при проектирането на системи от типа „мобилността като услуга“ (MaaS);

49.

призовава Комисията да продължи да подкрепя разработването на надеждни системи с изкуствен интелект, за да направи транспорта по-сигурен, по-ефикасен, достъпен, финансово приемлив и приобщаващ, включително за лицата с намалена подвижност, и по-специално хората с увреждания, като взема предвид Директива (ЕС) 2019/882 на Европейския парламент и на Съвета (13) и законодателството на Съюза относно правата на пътниците;

50.

счита, че изкуственият интелект може да спомогне за по-доброто използване на уменията и компетентностите на лицата с увреждания, и че прилагането на изкуствения интелект на работното място може да допринесе за приобщаващи пазари на труда и по-високи равнища на заетост за лицата с увреждания;

Околна среда и устойчивост

51.

заявява, че изкуственият интелект, роботиката и свързаните с тях технологии следва да се използват от правителствата и от бизнеса в полза на хората и планетата, да допринасят за постигането на целите за устойчиво развитие, за опазването на околната среда, за неутралност по отношение на климата и за целите на кръговата икономика; счита, че разработването, внедряването и използването на тези технологии следва да допринасят за прехода към екологосъобразна икономика, за опазване на околната среда, за минимизиране и компенсиране на вредите, причинени на околната среда в рамките на жизнения им цикъл и по цялата верига за доставки на тези технологии, в съответствие с правото на Съюза;

52.

предвид значителното им въздействие върху околната среда, за целите на предходния параграф въздействието върху околната среда във връзка с разработването, внедряването и използването на изкуствения интелект, роботиката и свързаните с тях технологии може да се оценява през целия им жизнен цикъл от органите, отговарящи за съответния сектор, когато това е приложимо и целесъобразно; тази оценка би могла да включва оценка на въздействието във връзка с добива на необходимите материали, потреблението на енергия и емисиите на парникови газове, причинени от тяхното разработване, внедряване и използване;

53.

предлага за целите на разработването на отговорни авангардни решения във връзка с изкуствения интелект потенциалът на изкуствения интелект, роботиката и свързаните с тях технологии да бъде проучен, стимулиран и максимизиран чрез отговорни научни изследвания и развойни дейности, което изисква мобилизирането на ресурси от Съюза и от неговите държави членки;

54.

подчертава факта, че разработването, внедряването и използването на тези технологии осигурява възможности за насърчаване на целите за устойчиво развитие, очертани от ООН, глобалния енергиен преход и декарбонизацията;

55.

счита, че целите за социална отговорност, равенство между половете, опазване на околната среда и устойчивост следва да не засягат съществуващите общи и секторни задължения в тези области; счита, че следва да бъдат определени насоки за изпълнение с незадължителен характер, които да се прилагат за разработчиците, внедрителите и ползвателите, по-специално по отношение на високорисковите технологии, във връзка с методологията за оценка на тяхното съответствие с настоящия регламент и постигането на тези цели;

56.

призовава Съюза да насърчава и финансира развитието на ориентирани към човека изкуствен интелект, роботика и свързани с тях технологии, насочени към предизвикателствата в областта на околната среда и климата и гарантиращи зачитането на основните права, чрез използването на стимули в сферата на данъчното облагане, възлагането на обществени поръчки и др.;

57.

подчертава, че въпреки настоящия значителен въглероден отпечатък в резултат от разработването, внедряването и използването на изкуствения интелект, роботиката и свързаните с тях технологии, включително автоматизираните решения и машинното самообучение, тези технологии могат да допринесат за намаляване на настоящия екологичен отпечатък на сектора на ИКТ; подчертава, че тези и други подходящо регулирани сродни технологии следва да бъдат критични фактори за постигане на целите на Зеления пакт, целите на ООН за устойчиво развитие и Парижкото споразумение в много различни сектори и следва да засилят въздействието на политиките за опазване на околната среда, например политиките във връзка с намаляването на отпадъците и влошаването на състоянието на околната среда;

58.

призовава Комисията да извърши проучване относно въздействието на въглеродния отпечатък от използването на технологии с ИИ, както и относно положителните и отрицателните последици от прехода към използването на технологии с ИИ за потребителите;

59.

отбелязва, че предвид все по-честото разработване на приложения с ИИ, които изискват изчислителни ресурси, ресурси за съхранение и енергийни ресурси, въздействието на системите с ИИ върху околната среда следва да се разглежда през целия им жизнен цикъл;

60.

счита, че в някои области като здравеопазването крайната отговорност трябва да се носи от физическо или юридическо лице; подчертава необходимостта от проследими и публично достъпни данни за обучение за алгоритмите;

61.

решително подкрепя създаването на европейско пространство за здравните данни, предложено от Комисията в нейното съобщение относно европейска стратегия за данните, което цели насърчаване на обмена на здравни данни и подпомагане на научните изследвания, при пълно зачитане на защитата на данните, включително обработката на данни с технология с изкуствен интелект, и което увеличава и разширява използването и повторната употреба на здравни данни; насърчава увеличаването на трансграничния обмен на здравни данни, свързването и използването на тези данни чрез сигурни федерирани хранилища, специфични видове здравна информация, като например европейските здравни досиета, геномна информация и цифрови здравни изображения, с цел улесняване на създаването на оперативно съвместими регистри или бази данни в рамките на целия Съюз в някои области, като например научните изследвания, науката и здравеопазването;

62.

подчертава ползите от ИИ за профилактиката, лечението и контрола на заболяванията, пример за което е фактът, че изкуственият интелект прогнозира епидемията от COVID-19 преди СЗО; настоятелно призовава Комисията да предостави на Европейския център за профилактика и контрол върху заболяванията (ECDC) регулаторната рамка и ресурсите за независимо събиране на необходимите анонимизирани здравни данни в реално време, в сътрудничество с държавите членки, за да се справи, наред с другото, с проблемите, които се появиха при кризата с COVID-19;

Неприкосновеност на личния живот и биометрично разпознаване

63.

отбелязва, че генерирането и използването на данни, включително и лични данни, като например биометрични данни, в резултат на разработването, внедряването и използването на изкуствен интелект, роботика и свързани с тях технологии, бързо се увеличават, като по този начин се подчертава необходимостта от зачитане и прилагане на правата на гражданите за неприкосновеност на личния живот и за защита на личните данни, в съответствие с правото на Съюза;

64.

изтъква, че възможността, осигурявана от тези технологии за използването на лични и нелични данни с цел категоризиране и микронасочване към определени лица, откриване на уязвимите страни на отделни лица или извличане на полза от точни предвидими знания, трябва да бъде неутрализирана чрез ефективно прилагане на принципите за защита на данните и неприкосновеност на личния живот, като например свеждане на данните до минимум, правото на възражение във връзка с профилирането и контрола върху ползването на данните, правото на получаване на обяснение за решение, основаващо се на автоматизирана обработка, и защита на неприкосновеността на личния живот още на етапа на проектиране на дадена технология, както и чрез прилагане на принципите на пропорционалност, необходимост и ограничение въз основа на строго определени цели, в съответствие с Общия регламент относно защитата на данните;

65.

подчертава, че когато за цели от значителен обществен интерес публичните органи използват технологии за дистанционно разпознаване, като например разпознаване на биометрични данни, и по-специално разпознаване на лица, тяхното ползване следва винаги да бъде оповестявано, да бъде пропорционално, целенасочено и лимитирано до конкретни цели, да бъде ограничено във времето, в съответствие със законодателството на Съюза, и да бъде надлежно съобразено със зачитането на достойнството и независимостта на хората, както и с основните права, посочени в Хартата; критериите и ограниченията за това използване следва да подлежат на съдебна проверка и на демократичен контрол и следва да отчитат психологическото и социално-културното въздействие върху гражданското общество;

66.

изтъква, че макар внедряването на изкуствения интелект, роботиката и свързаните с тях технологии в рамките на решения на публичните органи да осигурява предимства, то може да доведе и до сериозни злоупотреби, като например масово наблюдение, прогнозиране в областта на действие на полицията и нарушения на правата за справедлив процес;

67.

счита, че технологиите, които могат да генерират автоматизирани решения, замествайки по този начин решенията, вземани от публичните органи, следва да се третират с възможно най-голямо внимание, особено в областта на правосъдието и правоприлагането;

68.

счита, че държавите членки следва да прибягват до такива технологии единствено при наличието на категорични доказателства за тяхната надеждност и ако конструктивната намеса и проверка от човек е възможна или систематична в случаите на застрашаване на основните свободи; подчертава, че в тези случаи е важно националните органи да извършат строга оценка за въздействието на внедрените системи за изкуствен интелект върху основните права, особено ако тези технологии са оценени като високорискови;

69.

счита, че всяко решение, взето във връзка с изкуствения интелект, роботиката или свързаните с тях технологии в рамките на прерогативите на публичните органи, следва да бъде обект на конструктивна човешка намеса и на надлежен процес, особено ако тези технологии са оценени като високорискови;

70.

счита, че технологичният напредък не следва да води до използването на изкуствения интелект, роботиката и свързаните с тях технологии за автономно вземане на решения в публичния сектор, тъй като тези решения оказват пряко и значително въздействие върху правата и задълженията на гражданите;

71.

отбелязва, че изкуственият интелект, роботиката и свързаните с тях технологии в областта на правоприлагането и граничния контрол биха могли да подобрят обществената безопасност и сигурност, но също така се нуждаят от всеобхватен и строг обществен контрол и от възможно най-високо равнище на прозрачност по отношение на оценката на риска за отделните приложения, както и от общ преглед за използването на изкуствения интелект, роботиката и свързаните с тях технологии в областта на правоприлагането и граничния контрол; счита, че тези технологии крият значителни етични рискове, които трябва да бъдат обмислени подобаващо, като се отчитат възможните неблагоприятни последици за физическите лица, по-специално във връзка с техните права за неприкосновеност на личния живот, защита на личните данни и недискриминация; подчертава, че злоупотребата с тях може да се превърне в пряка заплаха за демокрацията и че при тяхното внедряване и използване трябва да се спазват принципите на пропорционалност и необходимост, Хартата на основните права, както и съответното вторично право на Съюза, като например правилата за защита на данните; подчертава, че ИИ не следва никога да замества хората при издаването на съдебни решения; счита, че съдебните решения, като например решенията за освобождаване под гаранция или условно, или решенията, които се основават единствено на автоматизирана обработка и произвеждат правно действие по отношение на физически лица или засягат тези лица в значителна степен, трябва винаги да включват съдържателно оценяване и преценка, извършена от човек;

Добро управление

72.

подчертава, че подходящото управление при разработването, внедряването и използването на изкуствен интелект, роботика и свързани с тях технологии, и по-специално високорискови технологии, чрез въвеждането на мерки, насочени към отчетността и преодоляването на потенциални рискове във връзка с предубеденост и дискриминация, може да повиши безопасността и доверието на гражданите в тези технологии;

73.

счита, че прилагането от националните надзорни органи във всяка държава членка на обща рамка за управление на тези технологии, координирана от Комисията и/или от съответните институции, органи, служби или агенции на Съюза, на които въпросната задача може да бъде възложена в този контекст, ще осигури съгласуван подход на Съюза и ще предотврати разпокъсването на единния пазар;

74.

отбелязва, че при разработването на изкуствения интелект, роботиката и свързаните с тях технологии се използват големи обеми от данни и че обработката, споделянето, достъпът и използването на тези данни трябва да бъдат управлявани в съответствие с разпоредбите на закона и определените изисквания за качество, интегритет, оперативна съвместимост, прозрачност, сигурност, неприкосновеност на личния живот и упражняване на контрол;

75.

припомня, че достъпът до данни е важен елемент за растежа на цифровата икономика; във връзка с това изтъква, че оперативната съвместимост на данните, при ограничаване на блокиращите ефекти, играе основна роля за гарантирането на справедливи пазарни условия и насърчаването на равнопоставени условия на конкуренция в рамките на цифровия единен пазар;

76.

подчертава необходимостта да се гарантира, че личните данни се защитават по подходящ начин, и по-специално данните за или от уязвими групи, като например лица с увреждания, пациенти, деца, възрастни хора, малцинства, мигранти и други групи, изложени на риск от изключване;

77.

отбелязва, че разработването, внедряването и използването на изкуствен интелект, роботика и свързани с тях технологии от страна на публичните органи често се възлагат на частни лица; счита, че това не следва да застрашава по какъвто и да било начин защитата на обществените ценности и основните права; счита, че правилата и условията за възлагане на обществени поръчки следва да отразяват етичните стандарти, наложени на публичните органи, когато това е приложимо;

Потребителите и вътрешният пазар

78.

подчертава, че е важно да се прилага регулаторна рамка за ИИ, когато потребителите в Съюза са ползватели или субекти на алгоритмична система или пък когато се превръщат в цел или са насочвани към такава система, независимо от мястото на установяване на субектите, които разработват, продават или използват системата; освен това счита, че в интерес на правната сигурност правилата, определени в тази рамка, следва да се прилагат за всички разработчици и по цялата верига за създаване на стойност, а именно при разработването, внедряването и използването на съответните технологии и техните компоненти, и следва да гарантират високо равнище на защита за потребителите;

79.

отбелязва неразривната връзка между изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуера, алгоритмите и данните, използвани или генерирани от тези технологии, и някои области, като например интернет на нещата, машинно самообучение, системи, основаващи се на правила, или автоматизирани и подпомагани процеси на вземане на решения; отбелязва освен това, че може да се разработят стандартизирани символи, с чиято помощ тези системи да се разясняват на потребителите в случаите, когато системите са твърде сложни или когато те могат да вземат решения, оказващи значително въздействие върху живота на потребителите;

80.

припомня, че Комисията следва да разгледа действащата нормативна уредба и нейното прилагане, включително достиженията на правото в областта на защитата на потребителите, законодателството в областта на отговорността за продуктите, законодателството в областта на безопасността на продуктите и законодателството в областта на надзора на пазара, за да се установят правните пропуски, както и съществуващите регулаторни задължения; счита, че това е необходимо, за да се установи дали нормативната уредба може да отговори на новите предизвикателства във връзка с навлизането на изкуствения интелект, роботиката и свързаните с тях технологии и да гарантира високо равнище на защита за потребителите;

81.

подчертава, че е необходимо да се предприемат ефективни действия за справяне с предизвикателствата, произтичащи от изкуствения интелект, роботиката и свързаните с тях технологии, както и да се гарантира, че потребителите разполагат с необходимите права и са надлежно защитени; подчертава необходимостта да се погледне отвъд традиционните принципи за предоставяне и разкриване на информация, върху които се основават достиженията на правото в областта на защита на потребителите, тъй като ще са необходими по-силни права на потребителите и ясни ограничения за разработването, внедряването и използването на изкуствения интелект, роботиката и свързаните с тях технологии, за да се гарантира, че тези технологии допринасят за подобряване на живота на потребителите и се развиват по начин, съобразен със зачитането на основните права, правата на потребителите и ценностите на Съюза;

82.

посочва, че нормативната уредба, въведена с Решение № 768/2008/EО (14), предвижда хармонизиран списък от задължения за производителите, вносителите и дистрибуторите, насърчава използването на стандарти и предвижда няколко нива на контрол в зависимост от това, доколко е опасен продуктът; счита, че тази уредба следва да се прилага и за продукти с вграден изкуствен интелект;

83.

отбелязва, че за целите на анализа на въздействието на изкуствения интелект, роботиката и свързаните с тях технологии върху потребителите, достъпът до данните би могъл да бъде разширен, така че да обхване и националните компетентни органи, при пълно зачитане на правото на Съюза, като например разпоредбите за защита на данните, за неприкосновеността на личния живот и за търговските тайни; припомня, че е важно потребителите да се научат да бъдат по-добре информирани и да разполагат с повече умения при използването на изкуствения интелект, роботиката и свързаните с тях технологии, за да бъдат защитени от потенциални рискове и да могат да отстояват правата си;

84.

призовава Комисията да предложи мерки за проследимост на данните, като вземе предвид законността във връзка с придобиването на данни, защитата на правата на потребителите и закрилата на основните права, при пълно зачитане на правото на Съюза, като например правото за защита на личните данни, неприкосновеността на личния живот, правата върху интелектуалната собственост и търговските тайни;

85.

отбелязва, че тези технологии следва да са ориентирани към потребителите и да са проектирани така, че да позволяват на всички хора да използват продуктите или услугите с изкуствен интелект, независимо от своята възраст, пол, способности или особености; отбелязва, че тяхната достъпност за лицата с увреждания е от особено голямо значение; отбелязва, че не следва да се прилага един универсален подход, а следва да се разгледат някои универсални принципи за дизайн, насочени към възможно най-широк кръг от потребители, като се следват съответни стандарти за достъпност; подчертава, че това ще даде възможност за справедлив достъп и активно участие на лицата в съществуващи и нововъзникващи човешки дейности, извършвани с помощта на компютър, както и при прилагането на помощни технологии;

86.

подчертава, че когато финансирането от публични източници допринася в значителна степен за разработването, внедряването или използването на ИИ, роботиката и свързаните с тях технологии, наред с откритите обществени поръчки и стандартите за свободно договаряне, може да се разгледа възможността за публично оповестяване по подразбиране на кода, на генерираните данни — доколкото те не са лични — и на модела на обучение, ако е налице договореност за това с разработчика, с цел да се гарантира прозрачност, да се повиши равнището на киберсигурността и да се осигури възможност за повторно използване на тези технологии с цел стимулиране на иновациите; подчертава, че по този начин може да бъде разгърнат пълният потенциал на единния пазар, като се избягва разпокъсване на пазара;

87.

счита, чеИИ, роботиката и свързаните с тях технологии имат огромен потенциал да осигурят възможности за подобрения в много аспекти от живота на потребителите, наред с гарантирането на по-добри продукти и услуги, както и да се възползват от по-добър надзор на пазара, доколкото всички приложими принципи, условия (включително прозрачност и проверимост) и разпоредби продължават да действат;

Сигурност и отбрана

88.

подчертава, че политиките на Европейския съюз и неговите държави членки в областта на сигурността и отбраната се ръководят от принципите, залегнали в Хартата, и от тези на Устава на Организацията на обединените нации, както и от общо разбиране за универсалните ценности за зачитане на ненакърнимите и неотчуждими права на човешката личност, на човешкото достойнство, свободата, демокрацията, равенството и правовата държава; подчертава, че тези универсални ценности трябва да се зачитат при всички свързани с отбраната усилия, полагани в рамките на Съюза, като същевременно се насърчават мирът, сигурността и напредъкът в Европа и в света;

89.

приветства приемането от срещата на високодоговарящите се страни по Конвенцията на ООН за определени конвенционални оръжия (ККО) през 2019 г. на 11 ръководни принципа за разработването и използването на автономни оръжейни системи; изразява обаче съжаление, че не е постигнато съгласие относно правно обвързващ инструмент за регулиране на смъртоносните автономни оръжейни системи (LAWS), с ефективен механизъм за правоприлагане; приветства и подкрепя доклада, изготвен от експертната група на високо равнище на Комисията по въпросите на изкуствения интелект, озаглавен „Етични насоки за надежден изкуствен интелект“, публикувани на 9 април 2019 г., както и нейната позиция относно смъртоносните автономни оръжейни системи; настоятелно призовава държавите членки да разработят национални стратегии за дефиниране и определяне на статута на смъртоносните автономни оръжейни системи с оглед на изготвянето на цялостна стратегия на равнището на Съюза, и да насърчават, съвместно с върховния представител на Съюза/заместник-председател на Комисията (наричан по-долу „върховен представител/заместник-председател“), и Съвета, обсъждането на тези системи в рамките на ККО на ООН и в други подходящи форуми и установяването на международни норми по отношение на етичните и правните параметри за разработването и използването на напълно автономни, полуавтономни и дистанционно управлявани смъртоносни оръжейни системи; припомня в това отношение своята резолюция относно автономните оръжейни системи от 12 септември 2018 г. и призовава отново за спешно изготвяне и приемане на обща позиция относно смъртоносните автономни оръжейни системи, за международна забрана на разработването, производството и използването на смъртоносни автономни оръжейни системи, позволяващи осъществяването на нападения без пълноценен човешки контрол и без спазване на принципа за задължително участие на човек във веригата, в съответствие с изявлението на най-изтъкнатите изследователи на ИИ в света в тяхното открито писмо от 2015 г.; приветства споразумението на Съвета и Парламента за изключване на смъртоносните автономни оръжия „без възможността за пълноценен човешки контрол по отношение на решенията за подбор и намеса, когато се извършват нападения“ от списъка с действия, финансирани по линия на Европейския фонд за отбрана; счита, че не трябва да се пренебрегват етичните аспекти на други приложения на ИИ в областта на отбраната, например разузнаване, наблюдение и войсково разузнаване (ISR) или кибероперации, и че трябва да се обърне специално внимание на разработването и използването на дронове за военни операции;

90.

подчертава, че нововъзникващите технологии в областта на отбраната и сигурността, които не са обхванати от международното право, следва да се преценяват, като се взема предвид принципът за зачитане на хуманността и повелите на обществената съвест;

91.

препоръчва всяка европейска рамка, регулираща използването на основани на ИИ системи в областта на отбраната — както в бойна, така и в друга обстановка, да е съобразена с всички приложими правни режими, и по-специално международното хуманитарно право и международното право в областта на правата на човека, и да съответства на правото, принципите и ценностите на Съюза, като се вземат предвид различията по отношение на техническата инфраструктура и инфраструктурата за поддържане на сигурност в рамките на Съюза;

92.

признава, че за разлика от промишлената база в сферата на отбраната, някои жизненоважни иновации в областта на ИИ могат да дойдат от малките държави членки, поради което стандартизираният за ОПСО подход следва да гарантира, че по-малките държави членки и МСП няма да бъдат изключени; подчертава, че набор от общи способности за ИИ на ЕС, които са в съответствие с оперативните концепции на съответните държави членки, могат да преодолеят различията в техническо отношение, които биха могли да изключат държави, неразполагащи със съответната технология, експертен опит в сектора или способността да внедрят системи с ИИ в своите министерства на отбраната;

93.

счита, че настоящите и бъдещите дейности, свързани със сигурността и отбраната в рамките на Съюза, ще ползват ИИ, роботиката и автономността, както и свързаните с тях технологии и че надеждният, солиден и вдъхващ доверие ИИ би могъл да допринесе за съвременни и ефективни военни сили; ето защо Съюзът трябва да поеме водеща роля в научните изследвания и разработването на системи с ИИ в областта на сигурността и отбраната; счита, че използването на основаващи се на ИИ приложения в областта на сигурността и отбраната би могло да донесе редица преки ползи за командващия операцията, например по-високо качество на събираните данни, по-добра ситуационна осведоменост, повишена бързина на вземане на решения, намален риск от съпътстващи щети благодарение на по-добри връзки, защита на силите на място, както и по-голяма надеждност на военното оборудване, и следователно по-малък риск за хората и риск от човешки жертви; подчертава, че разработването на надежден ИИ в областта на отбраната е от съществено значение за гарантирането на европейската стратегическа автономност по отношение на способностите и оперативните възможности; припомня, че системите с ИИ се превръщат и в ключови елементи в борбата с нововъзникващите заплахи за сигурността, като например кибернетичните и хибридните военни действия — както онлайн, така и офлайн; същевременно подчертава всички рискове и предизвикателства, произтичащи от нерегламентираното използване на изкуствения интелект; отбелязва, че изкуственият интелект може да бъде уязвим спрямо манипулации, грешки и неточности;

94.

подчертава, че по същество технологиите с ИИ имат двойна употреба и при разработването на ИИ за дейности, свързани с отбраната, може да се извлече полза от обмена между военните и гражданските технологии; подчертава, че ИИ в дейностите, свързани с отбраната, е хоризонтална революционна технология, чието развитие може да предостави възможности за конкурентоспособност и стратегическа автономност на Съюза;

95.

признава, че в днешните времена на хибридни и модерни военни действия обемът и скоростта на информацията на ранните етапи от дадена криза може да са твърде големи за анализаторите и че информацията може да се обработва от система с ИИ, за да се гарантира, че лицата, отговорни за вземането на решения, могат да проследят целия спектър от информация в разумен срок, така че да се реагира бързо;

96.

подчертава, че е важно да се инвестира в развитието на човешкия капитал за изкуствения интелект и да се насърчават необходимите умения и обучението в областта на технологиите с ИИ, предназначени за сигурността и отбраната, с особен акцент върху етиката на полуавтономните и автономните оперативни системи, въз основа на човешка отчетност в един свят, основаващ се на ИИ; подчертава по-специално, че е важно да се гарантира, че служителите по въпросите на етиката в тази област имат подходящи умения и получават подходящо обучение; призовава Комисията да представи възможно най-скоро своята „Програма за укрепване на уменията“, обявена в Бялата книга за изкуствения интелект на 19 февруари 2020 г.;

97.

подчертава, че квантовата изчислителна технология би могла да представлява най-революционната промяна в конфликтите след появата на атомното оръжие, и затова настоятелно призовава по-нататъшното развитие на квантовите изчислителни технологии да бъде приоритет за Съюза и държавите членки; признава, че актовете на агресия, включително нападенията срещу критична инфраструктура, подпомагани от квантовата изчислителна технология, ще създадат условия, при които наличното време за вземане на решения ще бъде съкратено драстично от дни и часове на минути и секунди, принуждавайки държавите членки да развият способности, с които да се защитават и да обучават както лицата, вземащи решения, така и военнослужещите да реагират ефективно в такива срокове;

98.

призовава за увеличаване на инвестициите в европейски ИИ за отбранителни цели и в критичната инфраструктура, която го поддържа;

99.

припомня, че повечето от настоящите военни сили в световен мащаб вече полагат значителни усилия в областта на научноизследователската и развойната дейност във връзка с военното измерение на изкуствения интелект; счита, че Съюзът трябва да гарантира, че не изостава в това отношение;

100.

призовава Комисията да включи изграждането на капацитет за киберсигурност в своята промишлена политика, за да се гарантира разработването и внедряването на безопасни, устойчиви и стабилни основаващи се на ИИ системи и роботизирани системи; призовава Комисията да проучи използването на протоколи и приложения за киберсигурност на базата на блокови вериги, за да се подобри устойчивостта, надеждността и стабилността на инфраструктурите с ИИ чрез модели за криптиране на данни без посредничество; насърчава европейските заинтересовани страни да изследват и разработват усъвършенствани функции, които биха улеснили откриването на повредени и зловредни основаващи се на ИИ системи и роботизирани системи, които биха могли да отслабят сигурността на Съюза и на гражданите;

101.

подчертава, че всички системи с ИИ в областта на отбраната трябва да имат конкретна и точно определена рамка на мисията, при която хората запазват възможността да откриват и изтеглят или дезактивират развърнатите системи, в случай че те излязат извън рамките на мисията, определена и възложена от командир човек, или предприемат ескалиращи или нежелани действия; счита, че системите, продуктите и технологиите, основаващи се на ИИ и предназначени за военни цели, следва да бъдат оборудвани с „черна кутия“ за записване на всяка операция с данни, извършвана от машината;

102.

подчертава, че цялата отговорност и отчетност за вземането на решение за проектирането, разработването, внедряването и използването на системи с ИИ трябва да се носи от хора, тъй като трябва да има пълноценно човешко наблюдение и контрол върху всяка оръжейна система и да има човешко намерение зад вземането на решение да се използва сила, когато се изпълнява каквото и да е решение на основаващи се на ИИ оръжейни системи, което би могло да има смъртоносни последици; подчертава, че човешкият контрол следва да продължи да бъде ефективен при командването и контрола на основаващите се на ИИ системи, като се следват принципите на „задължително участие на човек във веригата“, „участие на човек във веригата при необходимост“ и действия „под човешки контрол“ на равнището на военното ръководство; подчертава, че системите, основаващи се на ИИ, трябва да позволяват на военното ръководство на армиите да поема пълната си отговорност и отчетност за употребата на смъртоносна сила и да упражнява необходимото равнище на преценка за предприемане на смъртоносни или разрушителни в широки мащаби действия посредством такива системи, която преценка не може да бъде възлагана на машини, тъй като трябва да се основава на принципите на разграничаване, пропорционалност и предпазливост; подчертава необходимостта от създаване на ясни и проследими рамки за разрешаване и отчетност за развръщането на интелигентни оръжия и други основаващи се на ИИ системи, които използват уникални потребителски характеристики, като биометрични спецификации, за да се осигури възможност развръщането да се извършва единствено от упълномощен персонал;

Транспорт

103.

изтъква потенциала на използването на изкуствения интелект, роботиката и свързаните с тях технологии за всички автономни средства за автомобилен, железопътен, воден и въздушен транспорт, както и за поощряването на преминаването към други видове транспорт и интермодалността, тъй като тези технологии могат да допринесат за постигането на оптималното съчетаване на видовете транспорт при транспортиране на стоки и пътници; освен това подчертава, че те имат потенциал да повишат ефикасността на транспорта, логистиката и потоците на движение и да повишат безопасността, интелигентността и екологосъобразността на всички видове транспорт; посочва, че етичният подход към ИИ може да се разглежда и като система за ранно предупреждение, по-специално по отношение на безопасността и ефикасността на транспорта;

104.

подчертава факта, че световната конкуренция между предприятията и икономическите региони означава, че е необходимо Съюзът да насърчава инвестициите и да укрепва международната конкурентоспособност на предприятията, осъществяващи дейност в транспортния сектор, като създава благоприятна среда за разработването и прилагането на решения с ИИ и допълнителни иновации, в която предприятията, установени в Съюза, да могат да се превърнат в световни лидери в разработването на технологии с ИИ в тази област;

105.

подчертава, че транспортният сектор на Съюза се нуждае от актуализация на регулаторната рамка по отношение на тези нововъзникващи технологии и тяхното използване в транспортния сектор, както и от ясна етична рамка за постигане на надежден ИИ, включително безопасност, сигурност, зачитане на автономността на хората и аспектите, свързани с надзора и отговорността, което ще увеличи ползите, споделяни от всички, и ще бъде от ключово значение за стимулирането на инвестициите в научни изследвания и иновации, развитието на умения и въвеждането на ИИ от страна на предприятията, публичните служби, МСП и стартиращите предприятия, като същевременно се гарантира защитата на данните, както и оперативната съвместимост, без да се налага ненужна административна тежест върху предприятията и потребителите;

106.

отбелязва, че разработването и внедряването на ИИ в транспортния сектор няма да бъде възможно без наличието на модерна инфраструктура, която е съществена част от интелигентните транспортни системи; подчертава, че различията, които продължават да съществуват в степента на развитие между държавите членки, създават риск от лишаване на най-слабо развитите региони и техните жители от ползите, произтичащи от развитието на автономната мобилност; призовава за подходящо финансиране на модернизацията на транспортната инфраструктура в Съюза, включително интегрирането ѝ в 5G мрежата;

107.

препоръчва разработването на общи за Съюза надеждни стандарти за ИИ за всички видове транспорт, включително за автомобилната промишленост, и за изпитване на превозните средства с ИИ, както и на свързаните с тях продукти и услуги;

108.

отбелязва, че системите с ИИ биха могли да спомогнат за значително намаляване на броя на смъртните случаи, например чрез подобряване на времето за реакция и по-добро спазване на правилата; счита обаче, че ще бъде невъзможно използването на автономни превозни средства да доведе до премахване на всички произшествия и подчертава, че поради това е още по-важно решенията на ИИ да подлежат на обяснение, за да се изясняват основанията за недостатъците и нежеланите последици от решенията на ИИ;

Заетост, права на работниците, цифрови умения и работното място

109.

отбелязва, че прилагането на изкуствения интелект, роботиката и свързаните с тях технологии на работното място може да допринесе за приобщаващи пазари на труда и да окаже въздействие върху здравословните и безопасни условия на труд, като същевременно може да се използва и за наблюдение, оценяване, предвиждане и насочване на работата на служителите с преки и непреки последици за техните кариери; като се има предвид, че ИИ следва да има положително въздействие върху условията на труд и да се ръководи от зачитането на правата на човека, както и от основните права и ценности на Съюза, и като се има предвид, че ИИ следва да бъде ориентиран към човека, да повишава благосъстоянието на хората и обществото и да допринася за равноправен и справедлив преход, тези технологии следва съответно да имат положително въздействие върху условията на труд и да се ръководят от зачитането на правата на човека, както и от основните права и ценности на Съюза;

110.

подчертава необходимостта от развиване на компетентностите чрез обучение и образование на работниците и техните представители относно ИИ на работното място с цел по-добро разбиране на последиците от решенията на базата на ИИ; подчертава, че кандидатите и работниците следва да бъдат надлежно писмено информирани, когато се използва ИИ в хода на процедурите за набиране на персонал и други решения във връзка с човешките ресурси, както и за това как в този случай може да се изиска преглед от човек с цел отмяна на автоматизирано решение;

111.

подчертава необходимостта да се гарантира, че повишаването на производителността в резултат на развитието и използването на ИИ и роботиката носи ползи не само за собствениците и акционерите на предприятията, но и за предприятията и работната сила чрез по-добри условия на труд и заетост, включително заплати, икономически растеж и развитие, и също така е в услуга на обществото като цяло, особено когато това повишаване е за сметка на работни места; призовава държавите членки да проучат внимателно потенциалното въздействие на ИИ върху пазара на труда и системите за социална сигурност и да разработят стратегии за гарантиране на дългосрочна стабилност чрез реформиране на данъците и вноските, както и други мерки в случай на по-малки публични приходи;

112.

подчертава значението на корпоративните инвестиции във формално и неформално обучение и в учене през целия живот с цел подпомагане на справедливия преход към цифрова икономика; в този контекст подчертава, че предприятията, които внедряват ИИ, имат отговорността да осигурят подходяща преквалификация и повишаване на квалификацията на всички засегнати служители, за да се научат как да използват цифрови инструменти и да работят с роботи за съвместна работа (коботи) и други нови технологии, като по този начин се адаптират към променящите се нужди на пазара на труда и останат на работа;

113.

счита, че следва да се обърне специално внимание на новите форми на работа, като например работата по отделни заявки и работата чрез платформи, произтичащи от прилагането на новите технологии в този контекст; подчертава, че нормативната уредба на условията за дистанционна работа в целия Съюз и гарантирането на достойни условия на труд и заетост в цифровата икономика трябва също така да отчитат въздействието на ИИ; призовава Комисията да се консултира в това отношение със социалните партньори, разработчиците, изследователите и други заинтересовани страни в областта на ИИ;

114.

подчертава, че изкуственият интелект, роботиката и свързаните с тях технологии не трябва да засягат по никакъв начин упражняването на основните права, признати в държавите членки и на равнището на Съюза, включително правото или свободата на предприемане на стачни действия или на други действия, обхванати от специфичните системи на колективни трудови правоотношения в държавите членки в съответствие с националното право и/или практика, или да засягат правото на договаряне, на сключване или на правоприлагане на колективни споразумения, или на предприемане на действия при колективен трудов спор в съответствие с националното право и/или практика;

115.

отново подчертава значението на образованието и непрекъснатото учене за развитие на необходимите в цифровата ера квалификации и за справяне с цифровото изключване; призовава държавите членки да инвестират във висококачествено, отзивчиво и приобщаващо образование, професионално обучение и системи за учене през целия живот, както и в политики за преквалификация и повишаване на квалификацията на работниците в сектори, които ще са потенциално сериозно засегнати от ИИ; подчертава необходимостта да се осигурят на настоящата и бъдещата работна сила необходимата езикова грамотност, необходимите математически и цифрови умения, както и компетентност в сферата на науките, технологиите, инженерството и математиката (STEM) и междусекторни меки умения, като критично мислене, творчество и предприемчивост; подчертава, че в това отношение трябва да се обърне специално внимание на приобщаването на групите в неравностойно положение;

116.

припомня, че изкуственият интелект, роботиката и свързаните с тях технологии, използвани на работното място, трябва да бъдат достъпни за всички въз основа на принципа за универсален дизайн;

Образование и култура

117.

подчертава необходимостта от изготвяне на критерии за разработването, внедряването и използването на ИИ, като се има предвид въздействието им върху образованието, медиите, младежта, научните изследвания и секторите на културата и творчеството, чрез разработване на показатели и определяне на принципи за етично отговорно и прието ползване на технологиите с ИИ, които могат да бъдат прилагани по подходящ начин в тези области, включително необходимостта от ясен режим на отговорност за продукти, които са резултат от използването на ИИ;

118.

отбелязва, че всяко дете има право на качествено обществено образование на всички равнища; поради това призовава за разработването, внедряването и използването на качествени системи с ИИ, които предоставят и улесняват достъпа до качествени образователни инструменти за всички на всички равнища и подчертава, че внедряването на нови системи с ИИ в училищата не следва да води до увеличаване на цифровото разделение в обществото; признава огромния потенциален принос, който ИИ и роботиката могат да имат за образованието; отбелязва, че персонализираните системи за учене с ИИ не следва да заместват образователните отношения, включващи учители, и че традиционните форми на образование не следва да бъдат изоставени, като същевременно посочва, че трябва да се осигури финансова, технологична и образователна подкрепа, включително специализирано обучение по информационни и комуникационни технологии за учителите, които желаят да придобият подходящи умения, така че да се адаптират към технологичните промени и не само да използват потенциала на ИИ, но и да разбират неговите ограничения; призовава за разработването на стратегия на равнището на Съюза с цел да се спомогне за трансформирането и актуализирането на нашите образователни системи, да се подготвят нашите образователни институции на всички равнища и учителите и учениците да придобият необходимите умения и способности;

119.

подчертава, че образователните институции следва да се стремят да използват за образователни цели системите с ИИ, които са получили европейски сертификат за етично съответствие;

120.

подчертава, че възможностите, предлагани от цифровизацията и новите технологии, не трябва да водят до всеобхватна загуба на работни места в секторите на културата и творчеството, до пренебрегване на опазването на оригиналите или до намаляване на традиционния достъп до културно наследство, който също следва да бъде насърчаван; отбелязва, че системите с ИИ, които са разработени, внедрени и използвани в Съюза, следва да отразяват неговото културно многообразие и многоезичие;

121.

признава нарастващия потенциал на ИИ в областта на информацията, медиите и онлайн платформите, включително и като средство за борба с дезинформацията в съответствие със законодателството на Съюза; подчертава, че ако не бъде регулиран, ИИ може да има и неблагоприятни от етична гледна точка последици заради експлоатацията на предубедеността, заложена в данните и алгоритмите, което може да доведе до разпространяване на дезинформация и създаване на информационни балони; подчертава значението на прозрачността и отчетността по отношение на алгоритмите, използвани от платформите за споделяне на видеоклипове (VSP), както и от платформите за стрийминг, за да се гарантира достъп до разнообразно в културно и езиково отношение съдържание;

Национални надзорни органи

122.

отбелязва, че има добавена стойност в това да бъдат определени национални надзорни органи във всяка държава членка, отговарящи за гарантирането, оценяването и мониторинга на спазването на правните задължения и етичните принципи за разработването, внедряването и използването на високорисков изкуствен интелект, високорискова роботика и свързаните с тях високорискови технологии, като по този начин се допринася за правното и етичното съответствие на тези технологии;

123.

отбелязва, че от тези органи трябва да се изисква, без да дублират задачите си, да си сътрудничат с органите, отговарящи за прилагането на секторното законодателство, с цел идентифициране на технологии, които са високорискови от етична гледна точка, и с цел надзор на изпълнението на изискваните и подходящите мерки, когато такива технологии бъдат идентифицирани;

124.

посочва, че тези органи следва да поддържат връзка не само помежду си, но и с Европейската комисия и други компетентни институции, органи, служби и агенции на Съюза, за да се гарантират съгласувани трансгранични действия;

125.

предлага в контекста на подобно сътрудничество да се разработят общи критерии и процес на кандидатстване за издаването на европейски сертификат за етично съответствие, включително след искане от всеки разработчик, внедрител или ползвател на технологии, несчитани за високорискови, който желае да сертифицира положителната оценка на съответствието, извършена от компетентния национален надзорен орган;

126.

призовава на тези органи да се възложи задачата да насърчават редовния обмен с гражданското общество и да поощряват иновациите в рамките на Съюза, като предоставят помощ на научните изследователи, разработчиците и другите съответни заинтересовани страни, както и на предприятията с по-ограничен опит в областта на цифровите технологии, по-специално на малките и средните предприятия или на стартиращите предприятия, по-специално във връзка с повишаването на осведомеността и подкрепата за разработването, внедряването, обучението и намирането на таланти, за да се гарантира ефикасен трансфер на и достъп до технологии, проекти, резултати и мрежи;

127.

призовава за достатъчно финансиране от всяка държава членка на определените от нея национални надзорни органи и подчертава необходимостта от укрепване на националните органи за надзор на пазара от гледна точка на капацитета, уменията и компетентностите, както и познанията за специфичните рискове, поставяни от изкуствения интелект, роботиката и свързаните с тях технологии;

Координация на равнището на Съюза

128.

подчертава значението на координацията на равнището на Съюза, осъществявана от Комисията и/или всички съответни институции, органи, служби и агенции на Съюза, които могат да бъдат определени в този контекст, за да се избегне разпокъсаност, както и за да се гарантира хармонизиран подход в целия Съюз; счита, че координацията следва да се съсредоточи върху мандатите и действията на националните надзорни органи във всяка държава членка, както е посочено в предходния подраздел, както и върху обмена на най-добри практики между тези органи и приноса към сътрудничеството в областта на научноизследователската и развойната дейност в тази сфера на равнището на целия Съюз; призовава Комисията да направи оценка и да намери най-подходящото решение за структуриране на тази координация; примери за съответните съществуващи институции, органи, служби и агенции на Съюза са ENISA, ЕНОЗД и Европейският омбудсман;

129.

счита, че тази координация, както и европейското сертифициране за етично съответствие, не само ще бъдат от полза за развитието на промишлеността и иновациите на Съюза в този контекст, но и ще повишат осведомеността на гражданите за възможностите и рисковете, присъщи на тези технологии;

130.

предлага да се създаде експертен център, който да обединява на равнището на Съюза академичните среди, научните изследвания, промишлеността и отделни експерти, за да се насърчава обменът на знания и технически експертен опит и да се улеснява сътрудничеството в целия Съюз и извън него; освен това призовава този експертен център да включва организациите на заинтересованите страни, например организации за защита на потребителите, за да се гарантира, че потребителите са широко представени; счита, че поради евентуалното непропорционално въздействие на алгоритмичните системи върху жените и малцинствата, следва решенията в подобна структура да се вземат на най-различни нива и на тези нива да се гарантира равенство между половете; подчертава, че държавите членки трябва да разработят стратегии за управление на риска във връзка с ИИ в контекста на своите национални стратегии за надзор на пазара;

131.

предлага Комисията и/или всички компетентни институции, органи, служби и агенции на Съюза, които могат да бъдат определени в този контекст, да предоставят необходимата помощ на националните надзорни органи във връзка с ролята им на първо звено за контакт в случаи на предполагаеми нарушения на правните задължения и етичните принципи, определени в регулаторната рамка на Съюза за ИИ, включително принципа на недискриминация; тя следва също така да предоставя всякаква необходима помощ на националните надзорни органи в случаите, когато последните извършват оценки на съответствието с цел подкрепа на правото на гражданите на обжалване и на обезщетение, а именно като подкрепя, когато е приложимо, консултациите с други компетентни органи в Съюза, по-специално Мрежата за сътрудничество в областта на защитата на потребителите и националните органи за защита на потребителите, организациите на гражданското общество и социалните партньори, намиращи се в други държави членки;

132.

признава ценния принос на експертната група на високо равнище по въпросите на изкуствения интелект, включваща представители на академичните среди, гражданското общество и промишлеността, както и на Европейския алианс за изкуствен интелект, по-специално „Етични насоки за надежден изкуствен интелект“, и счита, че тя би могла да предостави експертен опит на Комисията и/или на всички компетентни институции, органи, служби и агенции на Съюза, които могат да бъдат определени в този контекст;

133.

отбелязва включването на свързани с ИИ проекти в рамките на Европейската програма за промишлено развитие в областта на отбраната (EDIDP); счита, че бъдещият Европейски фонд за отбрана (ЕФО) и постоянното структурирано сътрудничество (ПСС) могат също да предложат рамки за бъдещи проекти, свързани с ИИ, които биха спомогнали за по-добро оптимизиране на усилията на Съюза в тази област, и същевременно биха подпомогнали целта на Съюза да се укрепват правата на човека, международното право и многостранните решения; подчертава, че свързаните с ИИ проекти следва да бъдат синхронизирани с по-общите граждански програми на Съюза, посветени на ИИ; отбелязва, че в съответствие с Бялата книга на Европейската комисия от 19 февруари 2020 г. относно изкуствения интелект следва да бъдат създадени центрове за високи постижения и тестове, съсредоточени върху научните изследвания и разработването на ИИ в областта на сигурността и отбраната със строги спецификации, които да подкрепят участието на и инвестициите от частни заинтересовани страни;

134.

отбелязва Бялата книга на Комисията от 19 февруари 2020 г. относно изкуствения интелект и изразява съжаление, че военните аспекти не са взети под внимание; призовава Комисията и върховния представител/заместник председател да представят, включително като част от цялостен подход, секторна стратегия за ИИ за свързаните с отбраната дейности в рамките на Съюза, която да гарантира както зачитането на правата на гражданите, така и стратегическите интереси на Съюза, и която да се основава на последователен подход, обхващащ спектъра от създаването на основаващите се на ИИ системи до тяхната военна употреба, и да създадат работна група по въпросите на сигурността и отбраната в рамките на експертната група на високо равнище по въпросите на изкуствения интелект, която следва да се занимава конкретно с въпросите на политиката и инвестициите, както и с етичните аспекти на ИИ в областта на сигурността и отбраната; призовава Съвета, Комисия и заместник-председателя/върховен представител да започнат структуриран диалог с Парламента за тази цел;

Европейско сертифициране за етично съответствие

135.

предлага в контекста на координацията на равнище ЕС да се разработят общи критерии и процес на кандидатстване, свързани с предоставянето на европейски сертификат за съответствие, включително след искане от всеки разработчик, внедрител или ползвател на технологии, несчитани за високорискови, който желае да сертифицира положителната оценка на съответствието, извършена от съответния национален надзорен орган;

136.

счита, че такъв европейски сертификат за етично съответствие би насърчил етичността още при проектирането по цялата верига на доставки на екосистемите с изкуствен интелект; поради това предлага, в случай на високорискови технологии, това сертифициране да бъде задължителна предпоставка за допустимост до процедурите за възлагане на обществени поръчки в областта на изкуствения интелект, роботиката и свързаните с тях технологии;

Международно сътрудничество

137.

счита, че ефективно трансгранично сътрудничество и етични стандарти могат да бъдат постигнати само ако всички заинтересовани страни се ангажират да гарантират човешкия фактор и човешкия надзор, техническата стабилност и безопасност, прозрачността и отчетността, многообразието, недискриминацията и справедливостта, благосъстоянието на обществото и околната среда и зачитането на установените принципи за неприкосновеност на личния живот, управление и защита на данните, особено тези, залегнали в Регламент (ЕС) 2016/679;

138.

подчертава, че правните задължения и етичните принципи на Съюза за разработването, внедряването и използването на тези технологии могат да превърнат Европа в световен лидер в сферата на изкуствения интелект и съответно следва да бъдат насърчавани в световен мащаб чрез сътрудничество с международни партньори, като същевременно се продължава с критичния и основан на етичността диалог с трети държави, които разполагат с алтернативни модели за регулиране, разработване и внедряване на изкуствения интелект;

139.

припомня, че възможностите и рисковете, присъщи на тези технологии, имат глобално измерение, тъй като софтуерът и данните, които те използват, често се внасят в Съюза и се изнасят от Съюза — и следователно има нужда от подход на последователно сътрудничество на международно равнище; призовава Комисията да поеме инициативата да направи оценка кои двустранни и многостранни договори и споразумения следва да бъдат адаптирани, за да се гарантира последователен подход и да се популяризира на световно равнище европейският модел на спазване на етични стандарти;

140.

изтъква също така в този контекст добавената стойност на посочената по-горе координация на равнище Съюз;

141.

призовава да се създадат полезни взаимодействия и мрежи между различните европейски научноизследователски центрове за ИИ, както и други многостранни форуми, като Съвета на Европа, Организацията за образование, наука и култура на ООН (ЮНЕСКО), Организацията за икономическо сътрудничество и развитие (ОИСР), Световната търговска организация и Международния съюз по далекосъобщения (МСД), така че да се хармонизират техните усилия и да се координира по-добре развитието на изкуствения интелект, роботиката и свързаните с тях технологии;

142.

подчертава, че Съюзът трябва да бъде начело на подкрепата за многостранните усилия в рамките на правителствената експертна група за Конвенцията на ООН за конвенционалните оръжия и други подходящи форуми, за да се обсъди ефективна международна регулаторна рамка, осигуряваща пълноценен човешки контрол над автономните оръжейни системи, за да бъдат овладени тези технологии чрез създаване на добре дефинирани и основани на референтни показатели процеси и приемане на законодателство за тяхното етично използване в консултации със заинтересованите страни сред военните, промишлеността, правоприлагащите органи, академичните среди и гражданското общество, за да се постигне разбиране на съответните етични аспекти и да се смекчат присъщите на тези технологии рискове и да се предотвратява използването им за злонамерени цели;

143.

признава ролята на НАТО за насърчаването на евроатлантическата сигурност и призовава за сътрудничество в рамките на НАТО за установяване на общи стандарти и оперативна съвместимост на системите с ИИ в областта на отбраната; подчертава, че трансатлантическите отношения са важни за опазване на споделените ценности и за противодействие на бъдещи и нововъзникващи заплахи;

144.

подчертава колко е важно да бъде създаден етичен кодекс за поведение, който да бъде в основата на разгръщането на оръжейни системи, основаващи се на ИИ, във военни операции, подобно на съществуващата регулаторна рамка, забраняваща употребата на химическо и биологично оръжие; счита, че Комисията следва да постави началото на създаването на стандарти за използването на основаващи се на ИИ оръжейни системи във военните действия в съответствие с международното хуманитарно право, а Съюзът следва да се стреми към международно приемане на тези стандарти; счита, че Съюзът следва да провежда дипломация във връзка с ИИ в международните форуми с партньори със сходни виждания, като Г-7, Г-20 и ОИСР;

Заключителни аспекти

145.

заключава, с оглед на гореизложените разсъждения относно аспектите, свързани с етичното измерение на изкуствения интелект, роботиката и свързаните с тях технологии, че правните и етичните измерения следва да бъдат обхванати в ефективна, ориентирана към бъдещето и всеобхватна нормативна уредба на равнището на Съюза, поддържана от национални компетентни органи, координирана и укрепвана от Комисията и/или съответните институции, органи, служби и агенции на Съюза, които може да бъдат определени в този контекст, да разполага с редовната подкрепа на горепосочения експертен център и да бъде надлежно спазвана и сертифицирана в рамките на вътрешния пазар;

146.

в съответствие с процедурата, предвидена в член 225 от Договора за функционирането на Европейския съюз, изисква от Комисията да представи предложение за регламент относно етичните принципи за разработването, внедряването и използването на изкуствения интелект, роботиката и свързаните с тях технологии въз основа на член 114 от Договора за функционирането на Европейския съюз и въз основа на подробните препоръки, съдържащи се в приложението към настоящия документ; посочва, че предложението не следва да подкопава специфичното за сектора законодателство, а следва да обхваща само установените пропуски;

147.

препоръчва на Европейската комисия, след консултиране с всички съответни заинтересовани страни, да извърши преглед, ако е необходимо, на действащото законодателство на Съюза, приложимо към изкуствения интелект, роботиката и свързаните с тях технологии, за да се отговори на бързината на тяхното развитие, като се спазят препоръките, изложени в приложението, и като се избегне свръхрегулирането, включително за МСП;

148.

счита, че периодичната оценка и преглед, ако е необходимо, на регулаторната рамка на Съюза относно изкуствения интелект, роботиката и свързаните с тях технологии, ще бъде от съществено значение, за да се гарантира, че приложимото законодателство е в крак с бързите темпове на технологичния напредък;

149.

счита, че исканото законодателно предложение би породило финансови последици, ако на даден европейски орган бъдат възложени посочените по-горе координационни функции и му се предоставят необходимите технически средства и човешки ресурси с цел изпълнение на нововъзложените му задачи;

o

o o

150.

възлага на своя председател да предаде настоящата резолюция и приложените към нея подробни препоръки на Комисията и на Съвета.

(1)  ОВ L 252, 8.10.2018 г., стр. 1.

(2)  ОВ L 180, 19.7.2000 г., стр. 22.

(3)  ОВ L 303, 2.12.2000 г., стр. 16.

(4)  ОВ L 119, 4.5.2016 г., стр. 1.

(5)  ОВ L 119, 4.5.2016 г., стр. 89.

(6)  ОВ L 123, 12.5.2016 г., стр. 1.

(7)  ОВ C 252, 18.7.2018 г., стр. 239.

(8)  ОВ C 307, 30.8.2018 г., стр. 163.

(9)  ОВ C 433, 23.12.2019 г., стр. 86.

(10)  Приети текстове, P8_TA(2018)0332.

(11)  Приети текстове, P8_TA(2019)0081.

(12)  https://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2020)654179.

(13)  Директива (ЕС) 2019/882 на Европейския парламент и на Съвета от 17 април 2019 г. за изискванията за достъпност на продукти и услуги (ОВ L 151, 7.6.2019 г., стр. 70)

(14)  Решение № 768/2008/ЕО на Европейския парламент и на Съвета от 9 юли 2008 г. относно обща рамка за предлагането на пазара на продукти и за отмяна на Директива 93/465/ЕИО на Съвета (ОВ L 218, 13.8.2008 г., стр. 82).


ПРИЛОЖЕНИЕ КЪМ РЕЗОЛЮЦИЯTA:

ПОДРОБНИ ПРЕПОРЪКИ ОТНОСНО СЪДЪРЖАНИЕТО НА ИСКАНОТО ПРЕДЛОЖЕНИЕ

А.   ПРИНЦИПИ И ЦЕЛИ НА ИСКАНОТО ПРЕДЛОЖЕНИЕ

I.

Основните принципи и цели на предложението са:

да се изгради доверие на всички равнища на участващите заинтересовани страни и на обществото в областта на изкуствения интелект, роботиката и свързаните с тях технологии, особено когато те се считат за високорискови;

да се подкрепи развитието на изкуствения интелект, роботиката и свързаните с тях технологии в Съюза, включително като се помага на предприятията, стартиращите предприятия и на малките и средните предприятия точно да оценят и отговорят на настоящите и бъдещите регулаторни изисквания и рискове по време на процеса на развитие на иновациите и бизнеса, както и при следващата фаза на използване от специалисти и частни лица чрез свеждане до минимум на тежестите и бюрокрацията;

да се подкрепи внедряването в Съюза на изкуствения интелект, роботиката и свързаните с тях технологии, като се осигури подходяща и пропорционална регулаторна рамка, която следва да се прилага, без да се накърнява действащото или бъдещото секторно законодателство с цел насърчаване на регулаторната сигурност и иновациите, като същевременно се гарантират основните права и защитата на потребителите;

да се подкрепи използването в Съюза на изкуствения интелект, роботиката и свързаните с тях технологии, като се гарантира, че те ще бъдат разработвани, внедрявани и използвани по съответстващ на етичните принципи начин;

да се изисква прозрачност и по-добри информационни потоци между гражданите и в рамките на организациите, които разработват, внедряват или използват изкуствения интелект, роботиката и свързаните с тях технологии, като средство да се гарантира, че тези технологии са в съответствие със законодателството на Съюза, основните права и ценности, както и с етичните принципи на исканото предложение за регламент.

II.

Предложението се състои от следните елементи:

„Регламент относно етичните принципи за разработването, внедряването и използването на изкуствен интелект, роботика и свързаните с тях технологии“;

координационната роля на равнището на Съюза, осъществявана от Комисията и/или компетентните институции, органи, служби и агенции на Съюза, които могат да бъдат определени в този контекст, както и европейско сертифициране на етичното съответствие;

подкрепящата роля на Европейската комисия;

ролята на „надзорния орган“ във всяка държава членка, за да се гарантира, че към изкуствения интелект, роботиката и свързаните с тях технологии се прилагат етични принципи;

участие и провеждане на консултации със, както и предоставяне на подкрепа на, съответните научноизследователски и развойни проекти и заинтересовани страни, включително предприятия, стартиращи предприятия, малки и средни предприятия, социални партньори и други представители на гражданското общество;

приложение, с което се определя изчерпателен и кумулативен списък на високорисковите сектори и високорисковите употреби и цели;

III.

„Регламентът относно етичните принципи за разработването, внедряването и използването на изкуствен интелект, роботика и свързаните с тях технологии“ се основава на следните принципи:

ориентирани към човека, направени от човека и контролирани от човека изкуствен интелект, роботика и свързани с тях технологии;

задължителна оценка на съответствието на високорисковия изкуствен интелект, роботика и свързаните с тях технологии;

безопасност, прозрачност и отчетност;

предпазни мерки и средства за правна защита срещу предубеденост и дискриминация;

право на правна защита;

социална отговорност и равенство между половете в изкуствения интелект, роботиката и свързаните с тях технологии;

екологично устойчиви изкуствен интелект, роботика и свързани с тях технологии;

зачитане на неприкосновеността на личния живот и ограниченията за използването на биометрично разпознаване;

добро управление на изкуствения интелект, роботиката и свързаните с тях технологии, включително данните, използвани или генерирани от такива технологии.

IV.

За целите на координацията на равнище Съюз, Комисията и/или компетентните институции, органи, служби и агенции на Съюза, които могат да бъдат определени в този контекст, следва да извършват следните основни задачи:

сътрудничество при мониторинга на изпълнението на поисканото предложение за регламент и съответното секторно право на Съюза;

сътрудничество във връзка с издаването на насоки относно последователното прилагане на исканото предложение за регламент, а именно прилагането на критериите, съгласно които изкуственият интелект, роботиката и свързаните с тях технологии се класират като високорискови, както и на списъка на високорисковите сектори и високорисковите употреби и цели, посочени в приложението към регламента;

сътрудничество с „надзорния орган“ във всяка държава членка във връзка с разработването на европейски сертификат за съответствие с етичните принципи и правните задължения, определени в исканото предложение за регламент и съответното право на Съюза, както и разработването на процес за подаване на заявление за всеки разработчик, внедрител или ползвател на технологии, несчитани за високорискови, който желае да удостовери съответствието им с исканото предложение за регламент;

сътрудничество по отношение на подпомагането на междусекторното и трансграничното сътрудничество чрез редовен обмен със заинтересованите страни и гражданското общество в ЕС и по света, по-специално с предприятията, социалните партньори, изследователите и компетентните органи, включително по отношение на разработването на технически стандарти на международно равнище;

сътрудничество с „надзорния орган“ във всяка държава членка във връзка с установяването на задължителни насоки относно методологията за извършване на оценка на съответствието, която се осъществява от всеки „надзорен орган“;

сътрудничество по отношение на поддържането на връзка с „надзорния орган“ във всяка държава членка и координиране на неговия мандат и задачи;

сътрудничество за повишаване на осведомеността, предоставяне на информация и участие в обмен с разработчиците, внедрителите и ползвателите в целия Съюз;

сътрудничество за повишаване на осведомеността, предоставяне на информация, насърчаване на цифровата грамотност, обучение и умения и участие в обмени с проектантите, разработчиците, внедрителите, гражданите, ползвателите и институционалните органи в целия Съюз и на международно равнище;

сътрудничество за координация на обща рамка за управление на разработването, внедряването и използването на изкуствения интелект, роботиката и свързаните с тях технологии, която да се прилага от „надзорния орган“ във всяка държава членка;

сътрудничество по отношение на ролята на център за експертен опит чрез насърчаване на обмена на информация и подпомагане на развитието на общо разбиране в рамките на единния пазар;

сътрудничество във връзка с предоставянето на място на работа за Работна група по сигурност и отбрана.

V.

Освен това Комисията следва да извършва следните задачи:

изготвяне и последващо актуализиране — чрез делегирани актове — на общ списък на високорисковите технологии, идентифицирани в рамките на Съюза в сътрудничество с „надзорния орган“ във всяка държава членка;

актуализиране — чрез делегирани актове — на списъка, предвиден в приложението към регламента.

VI.

„Надзорният орган“ във всяка държава членка следва да изпълнява следните основни задачи:

да допринася за последователното прилагане на регулаторната рамка, установена в исканото предложение за регламент, в сътрудничество с „надзорните органи“ в другите държави членки, както и с други органи, отговарящи за прилагането на секторното законодателство, Комисията и/или всички съответни институции, органи, служби и агенции на Съюза, които могат да бъдат определени в този контекст, а именно по отношение на прилагането на критериите за оценка на риска, предвидени в изискваното предложение за регламент, и на списъка на високорисковите сектори и на високорисковите употреби или цели, посочени в приложението към него, и последващия надзор на прилагането на изискваните и подходящите мерки, когато високорисковите технологии са определени в резултат от подобно прилагане;

да оценява дали изкуственият интелект, роботиката и свързаните с тях технологии, включително софтуерът, алгоритмите и данните, използвани или генерирани от такива технологии, които са разработвани, внедрявани и използвани в Съюза, трябва да се считат за високорискови технологии в съответствие с критериите за оценка на риска, предвидени в изискваното предложение за регламент и в списъка в приложението към него;

да издава европейски сертификат за съответствие с етичните принципи и правните задължения, определени в изискваното предложение за регламент и относимото право на Съюза, включително когато е резултат от процес на кандидатстване за разработчици, внедрители или ползватели на технологии, които не се считат за високорискови и при които се търси удостоверяване на съответствието им с исканото предложение за регламент, във вид, разработен от Комисията и/или от съответни институции, органи, служби и агенции на Съюза, които могат да бъдат определени в този контекст;

да оценява и наблюдава тяхното съответствие с етичните принципи и правните задължения, установени в изискваното предложение за регламент и съответното право на Съюза;

да отговаря за установяването и въвеждането на стандарти за управление на изкуствения интелект, роботиката и свързаните с тях технологии, включително като поддържа връзки и редовен диалог с всички съответни заинтересовани страни и представители на гражданското общество; за тази цел да си сътрудничи с Комисията и/или всички съответни институции, органи, служби и агенции на Съюза, които може да бъдат определени в този контекст, по отношение на координирането на обща рамка на равнището на Съюза:

да повишава осведомеността, да предоставя информация на обществеността за изкуствения интелект, роботиката и свързаните с тях технологии и да подкрепя обучението за съответните професии, включително в съдебната система, като по този начин овластява гражданите и работниците чрез изграждането у тях на цифровата грамотност, уменията и инструментите, необходими за справедлив преход;

да служи като първа точка за контакт в случаи на предполагаемо нарушаване на правните задължения и етичните принципи, определени в предложението за регламент, и да извършва оценка на съответствието в такива случаи; в контекста на тази оценка на съответствието той може да извършва консултации с други компетентни органи в Съюза, по-специално с Мрежата за сътрудничество в областта на защитата на потребителите, националните органи за защита на потребителите, организациите на гражданското общество и социалните партньори, и/или да ги информира.

VII.

Ключовата роля на заинтересованите страни следва да бъде да си сътрудничат с Комисията и/или всички съответни институции, органи, служби и агенции на Съюза, които могат да бъдат посочени в тази връзка, както и с „надзорния орган“ във всяка държава членка.

Б.   ТЕКСТ НА ИСКАНОТО ЗАКОНОДАТЕЛНО ПРЕДЛОЖЕНИЕ

Предложение за

РЕГЛАМЕНТ НА ЕВРОПЕЙСКИЯ ПАРЛАМЕНТ И НА СЪВЕТА

относно етичните принципи за разработването, внедряването и използването на изкуствен интелект, роботика и свързаните с тях технологии

ЕВРОПЕЙСКИЯТ ПАРЛАМЕНТ И СЪВЕТЪТ НА ЕВРОПЕЙСКИЯ СЪЮЗ,

като взеха предвид Договора за функционирането на Европейския съюз, и по-специално член 114 от него,

като взеха предвид предложението на Европейската комисия,

след предаване на проекта на законодателния акт на националните парламенти,

като взеха предвид становището на Европейския икономически и социален комитет,

в съответствие с обикновената законодателна процедура,

като имат предвид, че:

(1)

Разработването, внедряването и използването на изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, следва да се основават на стремежа да служат на обществото. Такива технологии може да са свързани с възможности и рискове, които следва да бъдат разгледани и уредени чрез всеобхватна регулаторна рамка на равнището на Съюза, отразяваща етичните принципи, които да се спазват от момента на разработването и внедряването на такива технологии до тяхното използване.

(2)

Спазването на подобна регулаторна рамка по отношение на разработването, внедряването и използването на изкуствен интелект, роботика и свързани с тях технологии в Съюза, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, следва да бъде на равнище, което е еднакво във всички държави членки, за да се използват ефикасно възможностите и последователно да се преодоляват рисковете от тези технологии, както и за да се избегне регулаторно разпокъсване. Следва да се гарантира, че правилата, съдържащи се в настоящия регламент, се прилагат по един и същ начин в целия Съюз.

(3)

В този контекст настоящото многообразие на правилата и практиките, които трябва да се спазват из Съюза, създава значителен риск от разпокъсаност на единния пазар и риск за защитата на благополучието и просперитета както на индивидите, така и на обществото, както и за последователното изследване на пълния потенциал, с който изкуственият интелект, роботиката и свързаните с тях технологии разполагат за насърчаване на иновациите и запазване на това благополучие и просперитет. Разликите в степента, до която разработчиците, внедрителите и ползвателите отчитат етичното измерение, присъщо на тези технологии, могат да възпрепятстват свободното им разработване, внедряване или използване в рамките на Съюза, като тези разлики могат да представляват пречка пред равнопоставените условия на конкуренция, стремежа към технологичен прогрес и упражняването на стопански дейности на равнището на Съюза, да нарушават конкуренцията и да затрудняват органите при изпълнението на техните задължения съгласно правото на Съюза. Освен това липсата на обща регулаторна рамка, отразяваща етични принципи, за разработването, внедряването и използването на изкуствения интелект, роботиката и свързаните с тях технологии води до правна несигурност за всички участници, а именно разработчиците, внедрителите и ползвателите.

(4)

Въпреки това, допринасяйки за съгласуван подход на равнището на Съюза и в определените в него границите, настоящият регламент следва същевременно да предостави свобода за начина на въвеждане на държавите членки, включително по отношение на начина на изпълнение на мандата на съответния им национален надзорен орган с оглед на целите, които той трябва да преследва, както е предвидено в настоящия регламент.

(5)

Настоящият регламент не засяга съществуващото и бъдещото секторно законодателство. Той следва да бъде пропорционален по отношение на своята цел, така че да не възпрепятства ненужно иновациите в Съюза и да следва основан на риска подход.

(6)

Географският обхват на прилагането на подобна рамка следва да включва всички компоненти на изкуствения интелект, роботиката и свързаните с тях технологии в целия процес на тяхното разработване, внедряване или използване в Съюза, включително в случаите, когато част от технологиите може да се намират извън Съюза или да нямат конкретно или едно-единствено местоположение, като в случая на услугите за изчисления в облак.

(7)

Необходимо е общо разбиране в Съюза на понятия като изкуствен интелект, роботика, свързани технологии, и биометрично разпознаване, за да се даде възможност за единен регулаторен подход и по този начин за правна сигурност както за гражданите, така и за дружествата. Те следва да бъдат неутрални по отношение на технологията и да подлежат на преглед, когато е необходимо.

(8)

Освен това трябва да се има предвид фактът, че съществуват технологии, свързани с изкуствения интелект и роботиката, които дават възможност на софтуера да контролира с различна степен на автономност (1) физически или виртуални процеси. Например при автоматизирано управление на превозни средства в международен стандарт J3016 на Дружеството на автомобилните инженери (SAE) са предложени шест нива на автоматизация на управлението.

(9)

Разработването, внедряването и използването на изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, следва да допълват човешките способности, а не да ги заместват, и да гарантират, че осъществяването им не е в противоречие с висшите интереси на гражданите и е съобразено с правото на Съюза, основните права, установени в Хартата на основните права на Европейския съюз (по-долу наричана „Хартата“), установената съдебна практика на Съда на Европейския съюз и другите европейски и международни инструменти, които се прилагат в Съюза.

(10)

Решенията, взети от изкуствен интелект, роботика и свързани с тях технологии или с оглед на информация от тях, следва да продължат да подлежат на пълноценен човешки преглед, преценка, намеса и контрол. Техническата и оперативната сложност на подобни технологии не следва никога да пречи на техния внедрител или ползвател да може най-малкото да ги изключва безотказно, да изменя или спира тяхното действие или да ги връща към предишно състояние, в което се възстановяват безопасни функции в случаите, когато е налице риск за спазването на правото на Съюза, етичните принципи и правните задължения, установени в настоящия регламент.

(11)

Изкуственият интелект, роботиката и свързаните с тях технологии, чието разработване, внедряване и използване водят до значителен риск от причиняване на нараняване или вреда на отделни лица или на обществото в нарушение на основните права и правилата за безопасност, установени в правото на Съюза, следва да се считат за високорискови технологии. За целите на оценяването им като високорискови следва да се взема предвид секторът, в който те се разработват, внедряват или използват, тяхната специфична употреба или цел и тежестта на нараняването или вредата, която може да се очаква да настъпи. Степента на тежест следва да се определи въз основа на обхвата на евентуалното нараняване или вреда, броя на засегнатите лица, общата стойност на причинените вреди, както и вредата за обществото като цяло. Тежки видове наранявания и вреди са например нарушения на правата на децата, потребителите или работниците, които поради своя размер, броя на засегнатите деца, потребители или работници или своето въздействие върху обществото като цяло водят до значителен риск от нарушаване на основните права и правилата за безопасност, установени в правото на Съюза. Настоящият регламент следва да дава изчерпателен и кумулативен списък на високорисковите сектори и високорисковите употреби и цели.

(12)

Задълженията, въведени с настоящия регламент, по-специално тези относно високорисковите технологии, следва да се прилагат само за изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуера, алгоритмите и данните, използвани или генерирани от такива технологии, които са разработвани, внедрявани и използвани в Съюза и които след оценката на риска, предвидена в настоящия регламент, се считат за високорискови. Тези задължения трябва да се спазват, без да се засяга общото задължение всеки изкуствен интелект, роботика и свързани с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, да бъдат разработвани, внедрявани и използвани в Съюза по ориентиран към човека начин и въз основа на принципите на автономност и безопасност на човека в съответствие с правото на Съюза и при пълно зачитане на основните права, като човешкото достойнство, правото на свобода и сигурност и правото на неприкосновеност на личността.

(13)

Високорисковите технологии следва да зачитат принципите на безопасност, прозрачност, отчетност, непредубеденост и недискриминация, социална отговорност и равенство между половете, право на правна защита, устойчивост на околната среда, неприкосновеност на личния живот и добро управление, след като бъде извършена безпристрастна, обективна и външна оценка на риска от националния надзорен орган в съответствие с критериите, предвидени в настоящия регламент и в списъка, посочен в приложението към него. Тази оценка следва да отчита мненията и евентуалната самооценка, дадени от разработчика или внедрителя.

(14)

Комисията и/или всички съответни институции, органи, служби и агенции на Съюза, които могат да бъдат определени за тази цел, следва да изготвят незадължителни насоки за прилагане за разработчиците, внедрителите и потребителите относно методиката за спазване на настоящия регламент. Когато изготвят тези насоки, те следва да се консултират със съответните заинтересовани страни.

(15)

В рамките на Съюза следва да има съгласуваност по отношение на оценката на риска на тези технологии, особено в случай че те се оценяват както в контекста на настоящия регламент, така и в съответствие с евентуално приложимо специфично за определени сектори законодателство. Съответно националните надзорни органи следва да информират другите органи, извършващи оценки на риска съгласно специфично за даден сектор законодателство, когато тези технологии се оценяват като високорискови след оценката на риска, предвидена в настоящия регламент.

(16)

За да бъдат надеждни, високорисковият изкуствен интелект, роботиката и свързаните с тях технологии, включително софтуерът, алгоритмите и данните, използвани или генерирани от такива технологии, следва да бъдат разработвани, внедрявани и използвани по безопасен, прозрачен и отчетен начин в съответствие със следните характеристики за безопасност — стабилност, устойчивост, сигурност, точност и идентифициране на грешките, обяснимост, възможност за тълкуване, одитируемост, прозрачност и възможност за идентифициране — и по начин, който позволява изключване на въпросните функции или връщане към предишно състояние, в което се възстановяват безопасни функции, в случаи на несъответствие с тези характеристики. Следва да се гарантира прозрачността, като се позволи достъп на публичните органи, когато това е строго необходимо, до технологиите, данните и компютърните системи, на които се основават подобни технологии.

(17)

Разработчиците, внедрителите и ползвателите на изкуствен интелект, роботика и свързани с тях технологии, особено високорискови технологии, носят отговорност в различна степен за спазването на принципите за безопасност, прозрачност и отчетност до степента на своето участие във въпросните технологии, включително софтуера, алгоритмите и данните, използвани или генерирани от тези технологии. Разработчиците следва да гарантират, че съответните технологии са проектирани и изградени в съответствие с характеристиките за безопасност, посочени в настоящия регламент, а внедрителите и ползвателите следва да внедряват и използват съответните технологии при цялостно спазване на тези характеристики. За тази цел разработчиците на високорискови технологии следва да оценяват и да предвиждат рисковете от злоупотреба, които може логично да се очакват от разработваните от тях технологии. Те трябва също така да гарантират, че разработваните от тях системи показват вероятността от грешки или неточности, доколкото е възможно и чрез подходящи средства, като съобщения за отказ от отговорност.

(18)

Разработчиците и внедрителите следва да предоставят на разположение на ползвателите всички последващи актуализации на съответните технологии, а именно по отношение на софтуера, както се посочва в договора или е установено в законодателството на Съюза или националното законодателство. Освен това, когато в оценката на риска се изисква, разработчиците и внедрителите следва да предоставят на публичните органи относимата документация относно използването на съответните технологии и инструкции за безопасност в това отношение, включително, когато е строго необходимо и при пълно спазване на правото на Съюза в областта на защитата на данните, неприкосновеността на личния живот и правата върху интелектуалната собственост и търговските тайни, изходния код, инструментите за разработване и данните, използвани от системата.

(19)

Физическите лица имат право да очакват технологията, която използват, да функционира по разумен начин и да заслужава тяхното доверие. Доверието, което гражданите оказват на изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуера, алгоритмите и данните, използвани или генерирани от такива технологии, зависи от разбирането и схващането на техническите процеси. Степента на обяснимост на подобни процеси следва да зависи от контекста на тези технически процеси и от тежестта на последиците от погрешни или неточни резултати от тях и трябва да е достатъчна за тяхното оспорване и за търсене на правна защита. Евентуалната неразбираемост на тези технологии следва да се преодолее чрез одитируемост, проследимост и прозрачност.

(20)

Доверието на обществото в изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, зависи от степента, в която в съответните технологии е заложена възможност за оценка, одитируемост и проследимост. Когато степента на тяхното участие изисква това, разработчиците следва да гарантират, че тези технологии са проектирани и изградени по начин, който позволява такава оценка, одит и проследимост. В границите на технически възможното разработчиците, внедрителите и ползвателите следва да гарантират, че изкуственият интелект, роботиката и свързаните с тях технологии се внедряват и използват при пълно спазване на изискванията за прозрачност и дават възможност за одитиране и проследяване.

(21)

За да се гарантира прозрачност и отчетност, гражданите следва да бъдат информирани, когато дадена система използва изкуствен интелект, когато система с изкуствен интелект персонализира продукт или услуга за своите ползватели, дали могат да изключат или ограничат персонализирането, както и когато става дума за технология за автоматизирано вземане на решения. Освен това мерките за прозрачност следва да бъдат придружени, доколкото това е технически възможно, от ясни и разбираеми обяснения на използваните данни и на алгоритъма, на неговата цел, резултати и потенциалните опасности от него;

(22)

Съществуването на предубеденост в софтуер, алгоритми и данни и дискриминацията чрез тях са незаконни и следва да бъдат преодолени посредством регулиране на процесите, чрез които те се проектират и внедряват. Предубеденост може да възникне както от решения, информирани или взети от автоматизирана система, така и от набори от данни, на които се основава подобно вземане на решение или с които е обучавана системата.

(23)

Софтуерът, алгоритмите и данните, използвани или генерирани от изкуствения интелект, роботиката и свързаните с тях технологии, следва да се считат за предубедени, когато например показват неоптимални резултати по отношение на физическо лице или група физически лица въз основа на пристрастни лични или обществени възприятия и последваща обработка на данни, свързани с техни характеристики.

(24)

В съответствие със законодателството на Съюза софтуерът, алгоритмите или данните, използвани или генерирани от изкуствения интелект, роботиката и свързаните с тях технологии, следва да се считат за дискриминационни, когато водят до резултати, имащи непропорционален отрицателен ефект и водят до различно третиране на физическо лице или група физически лица, включително като ги поставят в неблагоприятно положение в сравнение с други, въз основа на причини — например техните лични характеристики — които нямат обективна или разумна обосновка, и независимо от всякакви твърдения за неутралност на технологиите.

(25)

В съответствие с правото на Съюза законните цели, за които съгласно настоящия регламент може да се счита, че обективно обосноват различно третиране на физически лица или групи физически лица, са защитата на обществената безопасност, сигурност и здраве, предотвратяването на престъпления, защитата на основните права и свободи, справедливото представителство и обективните изисквания за упражняване на професия.

(26)

Изкуственият интелект, роботиката и свързаните с тях технологии, включително софтуерът, алгоритмите и данните, използвани или генерирани от такива технологии, следва да допринасят за устойчивия напредък. Тези технологии не следва да се противопоставят на каузата за опазване на околната среда или прехода към екологосъобразна икономика. Те биха могли също така да играят важна роля за постигането на целите за устойчиво развитие, очертани от ООН, с цел да се даде възможност на бъдещите поколения да процъфтяват. Тези технологии могат да подпомагат мониторинга за това дали е постигнат добър напредък, като се основават на показатели за устойчивост и социално сближаване, както и като използват отговорни инструменти за научни изследвания и иновации, за които се изисква мобилизиране на ресурси от Съюза и неговите държави членки за подкрепа и инвестиране в проекти, насочени към постигането на тези цели.

(27)

Разработването, внедряването и използването на изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, не следва по никакъв начин целенасочено да предизвикват или да приемат по проект увреждане или вреда от какъвто и да е вид на физически лица или на обществото. Съответно по-специално високорисковите технологии следва да бъдат разработвани, внедрявани и използвани по социално отговорен начин.

(28)

Ето защо разработчиците, внедрителите и ползвателите следва да носят отговорност до степента, в която са участвали в съответния изкуствен интелект, роботика и свързаните с тях технологии, и в съответствие с нормите на Съюза и националните норми за понасяне на отговорност, за всяко нараняване или вреда, причинена на физически лица и на обществото.

(29)

По-специално разработчиците, които вземат решения, определящи и контролиращи хода или начина на разработване на изкуствения интелект, роботиката и свързаните с тях технологии, както и внедрителите, които участват в тяхното внедряване, като вземат решения за подобно внедряване и като упражняват контрол над свързаните с него рискове или извличат полза от подобно внедряване, с контролна или управленска функция, следва като цяло да бъдат считани за отговорни за това да се избегне настъпването на такова нараняване или вреда чрез въвеждане на подходящи мерки по време на процеса на разработване и съответно щателно спазване на тези мерки по време на фазата на внедряване.

(30)

Социално отговорните изкуствен интелект, роботика и свързани с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, могат да бъдат определени като технологии, които допринасят за намирането на решения, гарантиращи и насърчаващи различни цели по отношение на обществото, най-вече демокрацията, здравето и икономическия просперитет, равните възможности, правата на работниците и социалните права, разнообразните и независими медии и обективната и свободно достъпна информация, даващи възможност за обществен дебат, качествено образование, културно и езиково многообразие, баланс между половете, цифрова грамотност, иновации и творчество. Това са също така и технологии, които се разработват, внедряват и използват при надлежно отчитане на крайното им въздействие върху физическото и психическото благосъстояние на гражданите и които не насърчават слово на омразата или насилие. Подобни цели следва да бъдат постигани по-специално чрез високорискови технологии.

(31)

Изкуственият интелект, роботиката и свързаните с тях технологии следва също така да бъдат разработвани, внедрявани и използвани с цел да подкрепят социалното приобщаване, демокрацията, плурализма, солидарността, справедливостта, равенството и сътрудничеството, като техният потенциал в този контекст следва да бъде максимално използван и да бъде проучван чрез научноизследователски и иновационни проекти. Поради това Съюзът и неговите държави членки следва да мобилизират своите комуникационни, административни и финансови ресурси за подкрепа и инвестиции за такива проекти.

(32)

Проектите, отнасящи се до потенциала на изкуствения интелект, роботиката и свързаните с тях технологии да помагат за решаване на въпроса за социалното благосъстояние, следва да се осъществяват въз основа на отговорни научноизследователски и иновационни инструменти, така че да се гарантира спазването на етичните принципи от страна на тези проекти от самото начало.

(33)

При разработването, внедряването и използването на изкуствен интелект, роботика и свързани с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, следва да се взема предвид техният екологичен отпечатък. В съответствие със задълженията, определени в приложимото право на Съюза, тези технологии не следва да причиняват вреда на околната среда по време на своя жизнен цикъл и по цялата си верига на доставки и следва да бъдат разработвани, внедрявани и използвани по начин, който опазва околната среда, смекчава и коригира екологичния им отпечатък, допринася за екологичния преход и подкрепя постигането на целите за неутралност по отношение на климата и кръгова икономика.

(34)

За целите на настоящия регламент разработчиците, внедрителите и ползвателите следва да носят отговорност, според приложимите правила за екологичната отговорност, за всяка вреда, причинена на околната среда, до степента, до която са участвали съответно в разработването, внедряването или използването на изкуствен интелект, роботика и свързани с тях технологии, считани за високорискови.

(35)

Тези технологии следва също така да бъдат разработвани, внедрявани и използвани, за да помагат за постигане на екологичните цели в съответствие със задълженията по приложимото право на Съюза, като намаляване на генерирането на отпадъци, намаляване на въглеродния отпечатък, борбата с изменението на климата и опазването на околната среда, и техният потенциал в този контекст следва да бъде използван в максимална степен и проучван чрез научноизследователски и иновационни проекти. Поради това Съюзът и държавите членки следва да мобилизират своите комуникационни, административни и финансови ресурси за подкрепа и инвестиции за такива проекти.

(36)

Проектите, отнасящи се до потенциала на изкуствения интелект, роботиката и свързаните с тях технологии да решават проблеми на околната среда, следва да се осъществяват въз основа на отговорни научноизследователски и иновационни инструменти, така че да се гарантира спазването на етичните принципи на тези проекти от самото начало.

(37)

Всички технологии с изкуствен интелект, роботика и свързаните с тях технологии, включително софтуерът, алгоритмите и данните, използвани или генерирани от такива технологии, които са разработвани, внедрявани и използвани в Съюза, следва изцяло да зачитат правата на гражданите на Съюза на неприкосновеност на личния живот и защита на личните данни. По-специално тяхното разработване, внедряване и използване следва да е в съответствие с разпоредбите на Регламент (ЕС) 2016/679 на Европейския парламент и на Съвета (2) и Директива 2002/58/ЕО на Европейския парламент и на Съвета (3).

(38)

По-конкретно, етичните граници на използването на изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, следва надлежно да се вземат предвид при използването на технологии за разпознаване от разстояние, например разпознаване на биометрични данни, и по-специално лицево разпознаване, за целите на автоматичното идентифициране на физически лица. Когато тези технологии се използват от публични органи по причини от важен обществен интерес, а именно за гарантиране на сигурността на физическите лица и за справяне с извънредни ситуации в национален мащаб, а не за да се гарантира сигурността на имоти, използването следва винаги да бъде разкривано, да бъде пропорционално, целенасочено и ограничено до конкретни цели и ограничено във времето в съответствие с правото на Съюза и да се извършва при надлежно зачитане на човешкото достойнство и автономност, както и на основните права, залегнали в Хартата. Критериите и ограниченията за подобно използване следва да подлежат на съдебна проверка и да бъдат обект на демократичен контрол и дебат с участието на гражданското общество.

(39)

Управление, което се основава на подходящи стандарти, повишава безопасността и насърчава по-голямо доверие у гражданите към разработването, внедряването и използването на изкуствен интелект, роботика и свързани с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии.

(40)

Преди да внедряват високорискови технологии за подпомагане на вземането на решения в публичния сектор, оказващи пряко и значително въздействие върху правата и задълженията на гражданите, публичните органи следва да извършат оценки на тяхното въздействие върху основните права.

(41)

Сред съществуващите относими стандарти за управление са например „Етични насоки за надежден изкуствен интелект“, изготвени от експертната група на високо равнище по въпросите на изкуствения интелект, създадена от Европейската комисия, и всички други технически стандарти, например стандартите, приети на европейско равнище от Европейския комитет по стандартизация (CEN), Европейския комитет за стандартизация в електротехниката (CENELEC) и Европейския институт за стандарти в далекосъобщенията (ETSI), и стандартите, приети на международно равнище от Международната организация по стандартизация (ISO) и Института за електро- и електронни инженери (IEEE).

(42)

Обменът и използването на данни от множество участници е чувствителен въпрос и поради това разработването, внедряването и използването на изкуствен интелект, роботика и свързани с тях технологии следва да се уреждат от съответни правила, стандарти и протоколи, отразяващи изискванията за качество, интегритет, сигурност, надеждност, неприкосновеност на личния живот и контрол. Стратегията за направление по отношение на данните следва да се съсредоточи върху обработването, споделянето и достъпа до такива данни, включително подходящото управление, одитируемост и проследимост, и да гарантира адекватна защита на данните, принадлежащи на уязвими групи, включително хора с увреждания, пациенти, деца, малцинства и мигранти или други групи, които са изложени на риск от изключване. Освен това разработчиците, внедрителите и ползвателите следва да могат, когато това е целесъобразно, да разчитат на ключови показатели за резултатите при оценяването на наборите от данни, които използват, с цел повишаване на надеждността на технологиите, които разработват, внедряват и използват.

(43)

Държавите членки следва да назначат независим административен орган, който да действа като надзорен орган. По-специално, всеки национален надзорен орган следва да отговаря за идентифицирането на изкуствения интелект, роботиката и свързаните с тях технологии, считани за високорискови с оглед на критериите за оценка на риска, съгласно настоящия регламент, и за оценяването и мониторинга на съответствието на тези технологии със задълженията, посочени в настоящия регламент.

(44)

Всеки национален надзорен орган следва също да носи отговорността за доброто управление на тези технологии под координацията на Комисията и/или други подходящи институции, органи, служби или агенции на Съюза, на които тази задача може да бъде възложена. Следователно тези органи трябва да играят важна роля за насърчаване на доверието и увеличаване на безопасността на гражданите на Съюза, както и за създаването на условия за демократично, плуралистично и справедливо общество.

(45)

За целите на оценката на технологиите, които са високорискови по настоящия регламент, и на наблюдението на тяхното съответствие с него, националните надзорни органи следва, когато е приложимо, да си сътрудничат с органите, отговарящи за оценката и наблюдението на тези технологии и за правоприлагането, целящо да се осигури спазване на секторното законодателство.

(46)

Националните надзорни органи следва да си сътрудничат значително и редовно помежду си, както и с Европейската комисия и други съответни институции, органи, служби и агенции на Съюза, за да се гарантира съгласувано трансгранично действие и да се даде възможност за съгласувано разработване, внедряване и използване на тези технологии в рамките на Съюза в съответствие с етичните принципи и правните задължения, определени в настоящия регламент.

(47)

В контекста на това сътрудничество и с оглед на постигането на пълна хармонизация на равнището на Съюза националните надзорни органи следва да подпомагат Комисията при изготвянето на общ и изчерпателен списък на високорискови приложения на изкуствения интелект, роботиката и свързаните с тях технологии в съответствие с критериите, предвидени в настоящия регламент и приложението към него. Освен това следва да се разработи процедура за издаване на европейски сертификат за етично съответствие, включително процес на доброволно кандидатстване за всеки разработчик, внедрител или ползвател на технологии, които не се считат за високорискови, и които искат да удостоверят, че те спазват настоящия регламент.

(48)

Националните надзорни органи следва да осигурят обединяването на максимален брой заинтересовани страни, като промишлеността, предприятията, социалните партньори, изследователите, потребителите и организациите на гражданското общество, и да осигурят плуралистичен форум за размисъл и обмен на мнения, така че да се постигат разбираеми и точни заключения, за да се направлява процесът на регулиране на управлението.

(49)

Националните надзорни органи следва да осигурят обединяването на максимален брой заинтересовани страни, като промишлеността, предприятията, социалните партньори, изследователите, потребителите и организациите на гражданското общество, и да осигурят плуралистичен форум за размисъл и обмен на мнения, за да се улесни сътрудничеството и съдействието между заинтересованите страни, по-специално заинтересованите страни от академичните, научноизследователските и промишлените среди и от гражданското общество, както и отделни експерти, така че да се постигат разбираеми и точни заключения, за да се направлява процесът на регулиране на управлението.

(50)

Освен това тези национални надзорни органи следва да предоставят професионални административни насоки и подкрепа за разработчиците, внедрителите и ползвателите, и по-специално малките и средните предприятия или стартиращите предприятия, които се сблъскват с предизвикателства по отношение на спазването на етичните принципи и правните задължения, установени в настоящия регламент.

(51)

Комисията и/или всички съответни институции, органи, служби и агенции на Съюза, които могат да бъдат определени за тази цел, следва да изготвят задължителни насоки за методиката, която да бъде използвана от националните надзорни органи при провеждане на оценката им на съответствието.

(52)

Подаването на сигнали за нарушения довежда потенциалните и действителните нарушения на правото на Съюза до знанието на органите, така че да могат да се предотвратяват наранявания, вреди или щети, които в противен случай биха настъпили. Освен това процедурите за подаване на сигнали подобряват информационния поток в рамките на дружества и организации, като по този начин намаляват риска от разработване на продукти или услуги с недостатъци или грешки. Дружествата и организациите, които разработват, внедряват или използват изкуствен интелект, роботика и свързани с тях технологии, включително данни, използвани или генерирани от тези технологии, следва да създадат канали за подаване на сигнали, а лицата, които подават сигнали за нарушения, следва да бъдат защитени срещу ответни репресии.

(53)

Непредсказуемо е бързото развитие на изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, както и на техническото машинно самообучение, процесите на разсъждение и други технологии в основата на това развитие. Поради това е целесъобразно и необходимо да се създаде механизъм за преразглеждане, съгласно който, в допълнение към докладите си относно прилагането на регламента, Комисията редовно да представя доклад относно възможното изменение на приложното поле на настоящия регламент.

(54)

Тъй като целта на настоящия регламент, а именно да установи обща регулаторна рамка от етични принципи и правни задължения за разработването, внедряването и използването на изкуствен интелект, роботика и свързани с тях технологии в Съюза, не може да бъде постигната в достатъчна степен от държавите членки, а поради своя мащаб и последствия може да бъде постигната по-добре на равнището на Съюза, Съюзът може да приеме мерки в съответствие с принципа на субсидиарност, уреден в член 5 от Договора за Европейския съюз. В съответствие с принципа на пропорционалност, уреден в посочения член, настоящият регламент не надхвърля необходимото за постигането на тази цел.

(55)

Координация на равнището на Съюза, както е посочено в настоящия регламент, би била постигната най-добре от Комисията и/или от подходящи институции, органи, служби и агенции на Съюза, които могат да бъдат посочени в тази връзка, за да се избегне разпокъсването и да се гарантира последователното прилагане на настоящия регламент. Ето защо на Комисията следва да се предостави задачата по намирането на подходящо решение за структурирането на подобна координация на равнището на Съюза с цел координиране на мандатите и действията на националните надзорни органи във всяка държава членка, и по-конкретно по отношение на оценката на риска от изкуствения интелект, роботиката и свързаните с тях технологии, разработване и издаване на сертификат за съответствие с етичните принципи и правните задължения, определени в настоящия регламент, подкрепа за редовния обмен със заинтересованите страни и гражданското общество и създаване на експертен център, обединяващ представители на академичните, научноизследователските и промишлените среди и отделни експерти на равнището на Съюза с цел стимулиране на обмена на знания и технически експертен опит, както и насърчаване на подхода на Съюза чрез международно сътрудничество и осигуряване на последователен отговор в световен мащаб спрямо възможностите и рисковете, присъщи на тези технологии.

ПРИЕXA НАСТОЯЩИЯ РЕГЛАМЕНТ:

Глава I

Общи разпоредби

Член 1

Цел

Целта на настоящия регламент е да установи всеобхватна и ориентирана към бъдещето регулаторна рамка на Съюза от етични принципи и правни задължения за разработването, внедряването и използването на изкуствен интелект, роботика и свързани с тях технологии в Съюза.

Член 2

Обхват

Настоящият регламент се прилага за изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуера, алгоритмите и данните, използвани или генерирани от такива технологии, които са разработвани, внедрявани или използвани в Съюза.

Член 3

Географски обхват

Настоящият регламент се прилага по отношение на изкуствения интелект, роботиката и свързаните с тях технологии, когато каквато и да е част от тях се разработва, внедрява или използва в Съюза, независимо дали софтуерът, алгоритмите или данните, използвани или генерирани от такива технологии, се намират извън Съюза или нямат конкретно географско местоположение.

Член 4

Определения

За целите на настоящия регламент се прилагат следните определения:

а)

„изкуствен интелект“ означава система, която е или базирана на софтуер, или вградена в хардуерни устройства, и проявява интелигентно поведение, като наред с другото събира и обработва данни, анализира и тълкува заобикалящата я среда, и като предприема действия с известна степен на автономност за постигането на конкретни цели (4);

б)

„автономност“ означава система с ИИ, която функционира чрез тълкуване на определени входящи данни и чрез използване на набор от предварително определени инструкции, без да се ограничава до такива инструкции, въпреки че поведението на системата е ограничено от и е насочено към изпълнение на целта, която ѝ е била зададена, и други съответни проектни решения, взети от разработчика;

в)

„роботика“ означава технологии, които дават възможност на автоматично контролирани, препрограмируеми, мултифункционални машини (5) да изпълняват във физическата среда задачи, които традиционно се изпълняват или инициират от човешки същества, включително чрез изкуствен интелект или свързани с него технологии;

г)

„свързани технологии“ означава технологии, които дават възможност на софтуер да контролира с частична или пълна автономност даден физически или виртуален процес, технологии, способни да установяват биометрични, генетични или други данни, и технологии, които копират или използват по друг начин човешки характеристики;

д)

„висок риск“ означава значителен риск, произтичащ от разработването, внедряването и използването на изкуствен интелект, роботика и свързани с тях технологии, от причиняване на наранявания или вреди на отделни лица или на обществото в нарушение на основните права и правилата за безопасност, установени в правото на Съюза, като се има предвид тяхната специфична употреба или цел, секторът, в който са разработени, внедрени или използвани, и сериозността на нараняването или вредата, които могат да бъдат евентуално причинени;

е)

„разработване“ означава изграждане и проектиране на алгоритми, писане и проектиране на софтуер или събиране, съхранение и управление на данни с цел създаване или обучаване на изкуствен интелект, роботика и свързани с тях технологии или с цел създаване на ново приложение за съществуващи технологии за изкуствен интелект, роботика и свързани с тях технологии;

ж)

„разработчик“ означава всяко физическо или юридическо лице, вземащо решения, които определят и контролират посоката или начина на развитие на изкуствения интелект, роботиката и свързаните с тях технологии;

з)

„внедряване“ означава експлоатацията и управлението на изкуствения интелект, роботиката и свързаните с тях технологии, както и тяхното пускане на пазара или предоставянето им по друг начин на разположение на ползвателите;

и)

„внедрител“ означава всяко физическо или юридическо лице, което участва в процеса на конкретното внедряване на изкуствен интелект, роботика и свързани с тях технологии и което изпълнява функции, свързани с контрола или управлението чрез вземането на решения, упражняването на контрол върху риска и извличането на ползи от това внедряване;

й)

„използване“ означава всяко действие, свързано с изкуствения интелект, роботиката и свързаните с тях технологии, различно от разработване или внедряване;

к)

„ползвател“ означава всяко физическо или юридическо лице, което използва изкуствения интелект, роботиката и свързаните с тях технологии за цели, различни от разработване или внедряване;

л)

„предубеденост“ означава пристрастно лично или социално възприятие, чийто обект е лице или група лица, въз основа на техните лични характеристики;

м)

„дискриминация“ означава всяко диференцирано третиране на лице или група лица въз основа на мотив, който не е обективно или разумно обоснован и следователно е забранен от правото на Съюза;

н)

„увреждане или вреда“, включително такива, причинени чрез слово на омразата, предубеждение, дискриминация или стигматизиране, физическо или душевно нараняване, материална или нематериална вреда, като например финансови или икономически загуби, загуба на работни места или възможности за образование, неправомерно ограничаване на свободата на избор или на изразяване, загуба на неприкосновеност на личния живот и всяко нарушение на правото на Съюза, което е в ущърб на дадено лице;

о)

„добро управление“ означава начинът да се гарантира, че се приемат и спазват от разработчиците, внедрителите и ползвателите целесъобразни и разумни стандарти и протоколи на поведение въз основа на официален набор от правила, процедури и ценности, като това им позволява да решават по подходящ начин въпроси от етичен характер, когато те възникват или преди това.

Член 5

Етични принципи на изкуствения интелект, роботиката и свързаните с тях технологии

1.   В рамките на Съюза изкуственият интелект, роботиката и свързаните с тях технологии, включително софтуерът, алгоритмите и данните, използвани или генерирани от такива технологии, се разработват, внедряват и използват в съответствие с правото на Съюза, при пълно зачитане на човешкото достойнство, автономия и безопасност, както и на останалите основни права, определени в Хартата.

2.   Всяко обработване на лични данни, извършвано в контекста на разработването, внедряването и използването на изкуствен интелект, роботика и свързани с тях технологии, включително лични данни, извлечени от нелични данни, и биометрични данни, се извършва в съответствие с Регламент (ЕС) 2016/679 и Директива 2002/58/ЕО.

3.   Съюзът и неговите държави членки насърчават научноизследователските проекти, насочени към намиране на решения, основаващи се на изкуствен интелект, роботика и свързани с тях технологии, които имат за цел насърчаване на социалното приобщаване, демокрацията, плурализма, солидарността, справедливостта, равенството и сътрудничеството.

Глава II

Задължения във връзка с високорисковите технологии

Член 6

Задължения във връзка с високорисковите технологии

1.   Разпоредбите от настоящата глава се прилагат за изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуера, алгоритмите и данните, използвани или генерирани от такива технологии, които са разработвани, внедрявани и използвани в Съюза, само ако те се считат за високорискови.

2.   Всички високорискови технологии с изкуствен интелект, роботика и свързаните с тях технологии, включително софтуерът, алгоритмите и данните, използвани или генерирани от такива технологии, се разработват, внедряват и използват по начин, който гарантира, че те не нарушават етичните принципи, определени в настоящия регламент.

Член 7

Ориентиран към човека и създаден от човека изкуствен интелект

1.   Всички високорискови технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, се разработват, внедряват и използват по начин, който гарантира пълен надзор от страна на човека по всяко време.

2.   Технологиите, посочени в параграф 1, се разработват, внедряват и използват по начин, който дава възможност при необходимост човешкият контрол да се възвърне, включително чрез промяна или спиране на тези технологии.

Член 8

Безопасност, прозрачност и отчетност

1.   Всички високорискови технологии с изкуствен интелект, роботика и свързаните с тях технологии, включително софтуерът, алгоритмите и данните, използвани или генерирани от такива технологии, се разработват, внедряват и използват по начин, който гарантира, че те:

а)

се разработват, внедряват и използват по устойчив начин, така че да гарантират подходящо ниво на сигурност, като се придържат към минимално базово равнище, което е пропорционално на установения риск, и също така ниво на сигурност, което предотвратява експлоатацията на технически слабости за злонамерени или незаконни цели;

б)

се разработват, внедряват и използват по сигурен начин, който гарантира наличието на предпазни механизми, включващи резервен план и резервни действия в случай на риск за безопасността или сигурността;

в)

се разработват, внедряват и използват по начин, който гарантира надеждни резултати, каквито ползвателят разумно може да очаква, по отношение на постигането на целите и изпълнението на дейностите, за които са били създадени, включително като се гарантира, че всички операции са възпроизводими;

г)

се разработват, внедряват и използват по начин, който гарантира, че изпълнението на целите и дейностите на конкретните технологии е точно; ако не могат да се избегнат отделни неточности, системата показва, доколкото е възможно, на внедрителите и ползвателите вероятността от грешки и неточности чрез подходящи средства;

д)

се разработват, внедряват и използват по лесно обясним начин, така че да се гарантира, че е възможно техническите процеси на технологиите да бъдат обект на преглед;

е)

се разработват, внедряват и използват по такъв начин, че да информират своите ползватели, че взаимодействат със системи за изкуствен интелект, като разкриват надлежно и цялостно своите способности, точност и ограничения пред разработчиците, внедрителите и ползвателите на изкуствен интелект;

ж)

се разработват, внедряват и използват в съответствие с член 6 по начин, който позволява, в случай на несъответствие с характеристиките за безопасност, посочени в букви а) — ж), съответните функции да бъдат временно изключени и да се възвърне предишното им състояние, възстановяващо безопасните функционални възможности.

2.   В съответствие с член 6, параграф 1, технологиите, посочени в параграф 1 от настоящия член, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, се разработват, внедряват и използват по прозрачен и проследим начин, така че техните елементи, процеси и фази да са документирани съгласно възможно най-високите стандарти и да е възможно националните надзорни органи, посочени в член 18, да оценяват съответствието на тези технологии със задълженията, установени в настоящия регламент. По-конкретно, разработчикът, внедрителят или ползвателят на тези технологии отговаря за съответствието им с характеристиките за безопасност, посочени в параграф 1, и трябва да бъде в състояние да го докаже.

3.   Разработчикът, внедрителят или ползвателят на технологиите, посочени в параграф 1, гарантира, че предприетите мерки за осигуряване на съответствие с характеристиките за безопасност, посочени в параграф 1, могат да бъдат одитирани от националните надзорни органи, посочени в член 18, или, при целесъобразност, от други национални или европейски надзорни органи, свързани с този сектор.

Член 9

Непредубеденост и недискриминация

1.   Софтуерите, алгоритмите или данните, използвани или генерирани от високорисков изкуствен интелект, роботика и свързани с тях технологии, които са разработени, внедрени или използвани в Съюза, не съдържат предубеждения и — без да се засяга параграф 2, не дискриминират на основания като раса, пол, сексуална ориентация, бременност, увреждане, физически или генетични характеристики, възраст, национално малцинство, етнос или социален произход, език, религия или убеждения, политически възгледи или гражданско участие, гражданство, гражданско или икономическо състояние, образование или съдимост.

2.   Чрез дерогация от параграф 1 и без да се засяга правото на Съюза относно незаконната дискриминация, всяко диференцирано третиране на лица или групи от лица може да бъде оправдано само ако съществува обективна, разумна и законна цел, която е едновременно пропорционална и необходима, доколкото не съществува алтернатива, която би засегнала в по-малка степен принципа на равно третиране.

Член 10

Социална отговорност и равенство между половете

Всеки високорисков изкуствен интелект, роботика и свързани с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, разработени, внедрени и използвани в Съюза, се разработват, внедряват и използват в съответствие с приложимото право, принципи и ценности на Съюза по начин, който не допуска намеса в избори и не допринася за разпространението на дезинформация, зачита правата на работниците, насърчава качественото образование и цифровата грамотност, не увеличава неравнопоставеността между половете чрез предотвратяване на равните възможности за всички и не нарушава правата на интелектуална собственост и ограниченията или изключенията от тях.

Член 11

Екологична устойчивост

Високорисковият изкуствен интелект, високорисковата роботика и свързаните с тях високорискови технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, се оценяват по отношение на тяхната екологична устойчивост от националните надзорни органи, посочени в член 18, или, при целесъобразност, от други национални или европейски надзорни органи, свързани с този сектор, като се гарантира, че са въведени мерки за смекчаване и преодоляване на общото им въздействие по отношение на природните ресурси, потреблението на енергия, генерирането на отпадъци, въглеродния отпечатък, извънредната ситуация с изменението на климата и влошаването на околната среда, за да се гарантира съответствие с приложимото право на Съюза или национално право, както и с всички други международни екологични ангажименти, поети от Съюза.

Член 12

Зачитане на неприкосновеността на личния живот и защита на личните данни

Използването и събирането на биометрични данни с цел дистанционна идентификация на обществени места, като биометрично разпознаване или разпознаване на лица, носи специфични рискове за основните права и се внедрява или използва единствено от публичните органи на държавите членки за цели от съществен обществен интерес. Тези органи гарантират, че това внедряване или използване е оповестено публично и е пропорционално и целенасочено, ограничено до конкретни цели и места, а също така и по времетраене, в съответствие с правото на Съюза и националното право, по-специално Регламент (ЕС) 2016/679 и Директива 2002/58/EО, и при надлежно зачитане на човешкото достойнство и автономност и на основните права, определени в Хартата, а именно правото на зачитане на неприкосновеността на личния живот и защитата на личните данни.

Член 13

Право на правна защита

Всяко физическо или юридическо лице има право да търси правна защита за нараняване или вреда, причинени от разработването, внедряването и използването на високорисков изкуствен интелект, роботика и свързани с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, в нарушение на правото на Съюза и на задълженията, определени в настоящия регламент.

Член 14

Оценка на риска

1.   За целите на настоящия регламент изкуственият интелект, роботиката и свързаните с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, се считат за високорискови технологии, когато след оценка на риска, основана на обективни критерии, като например тяхната специфична употреба или цел, секторът, в който те се разработват, внедряват или използват, и тежестта на евентуалната причинена вреда, тяхното разработване, внедряване или използване водят до значителен риск от причиняване на нараняване или вреда, които може да се очаква да настъпят за отделни лица или за обществото в нарушение на основните права и правилата за безопасност, установени в законодателството на Съюза.

2.   Без да се засяга приложимото секторно законодателство, оценката на риска по отношение на изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от тези технологии, се извършва в съответствие с обективните критерии, предвидени в параграф 1 от настоящия член, и в изчерпателния и кумулативен списък, посочен в приложението към настоящия регламент, от националните надзорни органи, посочени в член 18, под координацията на Комисията и/или други съответни институции, органи, служби и агенции на Съюза, които могат да бъдат определени за тази цел в рамките на сътрудничеството помежду им.

3.   В сътрудничество с националните надзорни органи, посочени в параграф 2, чрез делегирани актове в съответствие с член 20 Комисията изготвя и впоследствие актуализира общ списък на високорисковите технологии, идентифицирани в рамките на Съюза.

4.   Комисията също така редовно актуализира чрез делегирани актове в съответствие с член 20 списъка, предвиден в приложението към настоящия регламент.

Член 15

Оценка на съответствието

1.   Високорисковият изкуствен интелект, роботиката и свързаните с тях технологии подлежат на оценка на съответствието спрямо задълженията, посочени в членове 6 — 12 от настоящия регламент, както и на последващ мониторинг, като и оценката, и мониторинга се извършват от националните надзорни органи, посочени в член 18, под координацията на Комисията и/или други съответни институции, органи, служби и агенции на Съюза, които могат да бъдат определени за тази цел.

2.   Счита се, че софтуерът, алгоритмите и данните, използвани или генерирани от високорискови технологии, които са били оценени като съответстващи на задълженията, посочени в параграф 1 от настоящия регламент, са в съответствие с тези задължения, освен ако съответният национален надзорен орган реши да извърши оценка по своя инициатива или по искане на разработчика, внедрителя или ползвателя.

3.   Без да се засяга секторното законодателство, Комисията и/или всички съответни институции, органи, служби и агенции на Съюза, които могат да бъдат специално определени за тази цел, изготвят задължителни насоки относно методиката, която да се използва от националните надзорни органи за оценката на съответствието, посочена в параграф 1, до датата на влизане в сила на настоящия регламент.

Член 16

Европейски сертификат за етично съответствие

1.   Когато е налице положителна оценка на съответствието на високорисковия изкуствен интелект, роботика и свързаните с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, извършена в съответствие с член 15, съответният национален надзорен орган издава европейски сертификат за етично съответствие.

2.   Всеки разработчик, внедрител или ползвател на изкуствен интелект, роботика и свързани с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, които не се считат за високорискови и следователно не подлежат на задълженията, установени в членове 6 — 12, и на оценките на риска и на съответствието, предвидени в членове 14 и 15, може да решида удостовери също и спазването на задълженията, установени в настоящия регламент, или част от тях, когато това е оправдано от естеството на въпросната технология според решението на националните надзорни органи. Сертификат се издава само ако е извършена оценка на съответствието от съответния национален надзорен орган и ако тази оценка е положителна.

3.   За целите на издаването на удостоверението, посочено в параграф 2, Комисията и/или всички други съответни институции, органи, служби и агенции на Съюза, които могат да бъдат посочени за тази цел, разработват процес на кандидатстване.

Глава III

Институционален контрол

Член 17

Стандарти за управление и насоки за прилагане

1.   Изкуственият интелект, роботиката и свързаните с тях технологии, които се разработват, внедряват или използват в Съюза, отговарят на съответните стандарти за управление, установени от националните надзорни органи, посочени в член 18, съгласно правото, принципите и ценностите на Съюза, под координацията на Комисията и/или всички съответни институции, органи, служби и агенции на Съюза, които могат да бъдат определени за тази цел, и след консултации със съответните заинтересовани страни.

2.   Стандартите, посочени в параграф 1, включват незадължителни насоки за изпълнение относно методиката за спазването на настоящия регламент от страна на разработчиците, внедрителите и потребителите и се публикуват до датата на влизане в сила на настоящия регламент.

3.   Данните, използвани или генерирани от изкуствения интелект, роботиката и свързаните с тях технологии, разработени, разгърнати или използвани в Съюза, се управляват от разработчиците, внедрителите и ползвателите съгласно съответните правила и стандарти на национално равнище, на равнището на Съюза и на други европейски организации и на международно равнище, както и със съответните отраслови и търговски протоколи. По-специално разработчиците и внедрителите извършват, където е осъществимо, проверки на качеството на външните източници на данни, използвани от изкуствения интелект, роботиката и свързаните с тях технологии, и въвеждат механизми за надзор по отношение на тяхното събиране, съхранение, обработка и използване.

4.   Без да се засягат правата на преносимост и правата на лицата, чието използване на изкуствен интелект, роботика и свързани с тях технологии е генерирало данни, събирането, съхранението, обработката, споделянето и достъпа до данни, използвани или генерирани от изкуствен интелект, роботика и свързани с тях технологии, разработени, внедрени или използвани в Съюза, отговарят на съответните правила и стандарти на национално равнище, на равнището на Съюза и на други европейски организации и на международно равнище, както и на съответните отраслови и търговски протоколи. По-специално, разработчиците и доставчиците гарантират, че тези протоколи се прилагат по време на разработването и внедряването на изкуствен интелект, роботика и свързани с тях технологии, като ясно определят изискванията за обработване и предоставяне на достъп до данните, използвани или генерирани от тези технологии, както и целта, обхвата и адресатите на обработването и предоставянето на достъп до такива данни, като съществува възможност всички тези елементи по всяко време да бъдат одитирани и проследявани.

Член 18

Надзорни органи

1.   Всяка държава членка определя независим публичен орган, който да отговаря за наблюдението на прилагането на настоящия регламент („надзорен орган“) и за извършването на оценки на риска и съответствието и на сертифицирането, предвидени в членове 14, 15 и 16, без да се засяга секторното законодателство.

2.   Всеки надзорен орган допринася за последователното прилагане на настоящия регламент в рамките на целия Съюз. За тази цел надзорните органи във всяка държава членка сътрудничат помежду си, а също така с Комисията и с други съответни институции, органи, служби и агенции на Съюза, определен за тази цел.

3.   Всеки национален надзорен орган действа като първо звено за контакт в случай на предполагаемо нарушение на етичните принципи и правните задължения, установени в настоящия регламент, включително дискриминационно третиране или нарушаване на други права в резултат на разработването, внедряването или използването на изкуствен интелект, роботика и свързани с тях технологии. В такива случаи съответният национален надзорен орган извършва оценка на съответствието, за да подкрепи правото на гражданите на оспорване и правна защита.

4.   Всеки национален надзорен орган отговаря за надзора върху прилагането на посочените в член 17 съответни национални, европейски и международни правила и стандарти за управление по отношение на изкуствения интелект, роботиката и свързаните с тях технологии, включително като осъществява връзка с възможно най-голям брой заинтересовани страни. За тази цел надзорните органи във всяка държава членка предоставят форум за редовен обмен със и между заинтересовани страни от академичните, научноизследователските и промишлените среди и от гражданското общество.

5.   Всеки национален надзорен орган предоставя професионални и административни насоки и оказва подкрепа за общото прилагане на правото на Съюза относно изкуствения интелект, роботиката и свързаните с тях технологии, и на етичните принципи, установени в настоящия регламент, по-специално на съответните изследователски и развойни организации, малките и средните предприятия и стартиращите предприятия.

6.   Всяка държава членка уведомява Европейската комисия за правните разпоредби, които приема съгласно настоящия член, до … [ОВ: моля, въведете дата — една година след влизането в сила] и я уведомява незабавно за всяко последващо изменение, което ги засяга.

7.   Държавите членки предприемат всички необходими мерки, за да гарантират прилагането на етичните принципи и правните задължения, определени в настоящия регламент. Държавите членки подкрепят съответните заинтересовани страни и гражданското общество както на равнището на Съюза, така и на национално равнище, в усилията им да осигурят своевременен, етичен и добре информиран отговор на новите възможности и предизвикателства, по-специално тези от трансгранично естество, които произтичат от аспекти на технологичното развитие, отнасящи се до изкуствения интелект, роботиката и свързаните с тях технологии.

Член 19

Докладване на нарушения и защита на лицата, които подават сигнали

Директива (ЕС) 2019/1937 на Европейския парламент и на Съвета (6) се прилага по отношение на докладването на нарушения на настоящия регламент и защитата на лицата, които подават сигнали за такива нарушения.

Член 20

Координация на равнището на Съюза

1.   Комисията и/или всички съответни институции, органи, служби и агенции на Съюза, които могат да бъдат определени в този контекст, имат следните задачи:

осигуряване на последователна оценка на риска по отношение на изкуствения интелект, роботиката и свързаните с тях технологии, посочена в член 14, която се извършва от националните надзорни органи, посочени в член 18, въз основа на общите обективни критерии, предвидени в член 8, параграф 1 и в списъка на високорисковите сектори, употреби и цели, установен в приложението към настоящия регламент;

вземане под внимание на оценката на съответствието и последващия мониторинг на високорисковия изкуствен интелект, роботиката и свързаните с тях технологии, посочени в член 15, които трябва да бъдат извършени от националните надзорни органи, посочени в член 18;

разработване на процеса на подаване на заявления за сертификата, посочен в член 16, който се издава от националните надзорни органи, посочени в член 18;

без да се накърнява секторното законодателство, разработване на задължителните насоки, посочени в член 17, параграф 4, относно методологията, която да използват националните надзорни органи, посочени в член 18;

координиране на установяването на съответните стандарти за управление, посочени в член 17, от страна на националните надзорни органи, посочени в член 18, включително необвързващи насоки за изпълнение за разработчиците, внедрителите и ползвателите относно методиката за спазване на настоящия регламент;

сътрудничество с националните надзорни органи, посочени в член 18, във връзка с приноса им за последователното прилагане на настоящия регламент в целия Съюз съгласно член 18, параграф 2;

функциониране като експертен център чрез насърчаване на обмена на информация относно изкуствения интелект, роботиката и свързаните с тях технологии, и подпомагане на развитието на общо разбиране в рамките на единния пазар, издаване на допълнителни насоки, становища и експертен опит за националните надзорни органи, посочени в член 18, наблюдение на прилагането на съответното право на Съюза, определяне на стандарти за най-добри практики и когато е целесъобразно, отправяне на препоръки за регулаторни мерки; по този начин следва да се поддържа връзка с възможно най-голям брой съответни заинтересовани страни и да се гарантира, че съставът на равнищата на вземане на решения е разнообразен и гарантира равенство между половете;

да бъдат домакин на работна група по сигурност и отбрана, която има за цел да разгледа въпросите на политиката и инвестициите, конкретно свързани с етичното използване на изкуствения интелект, роботиката и свързаните с тях технологии в областта на сигурността и отбраната.

Член 21

Упражняване на делегирането

1.   Правомощието да приема делегирани актове се предоставя на Комисията при спазване на предвидените в настоящия член условия.

2.   Правомощието да приема делегирани актове, посочено в член 14, параграфи 3 и 4, се предоставя на Комисията за срок от 5 години, считано от (датата на влизане в сила на настоящия регламент).

3.   Делегирането на правомощия, посочено в член 14, параграфи 3 и 4, може да бъде оттеглено по всяко време от Европейския парламент или от Съвета. С решението за оттегляне се прекратява посоченото в него делегиране на правомощия. Оттеглянето поражда действие в деня след публикуването на решението в Официален вестник на Европейския съюз или на по-късна дата, посочена в решението. То не засяга действителността на делегираните актове, които вече са в сила.

4.   Преди приемането на делегиран акт Комисията се консултира с експерти, определени от всяка държава членка, в съответствие с принципите, залегнали в Междуинституционалното споразумение от 13 април 2016 г. за по-добро законотворчество.

5.   Веднага след като приеме делегиран акт, Комисията нотифицира акта едновременно на Европейския парламент и на Съвета.

6.   Делегиран акт, приет съгласно член 14, параграфи 3 и 4, влиза в сила само ако Европейският парламент или Съветът не са повдигнали възражение в срок от три месеца, след като са получили нотификация за него, или ако преди изтичането на този срок Европейският парламент и Съветът са уведомили Комисията, че няма да повдигат възражения. Посоченият срок може да се удължи с три месеца по инициатива на Европейския парламент или на Съвета.

Член 22

Изменение на Директива (ЕС) 2019/1937

Директива (ЕС) 2019/1937 се изменя, както следва:

(1)

В член 2, параграф 1 се добавя следната подточка:

„xi)

разработване, внедряване и използване на изкуствен интелект, роботика и свързани с тях технологии.“

(2)

В част I от приложението се добавя следната буква:

„К.

Член 2, параграф 1, буква а), подточка xi) — разработване, внедряване и използване на изкуствен интелект, роботика и свързани с тях технологии.

„xxi)

Регламент [XXX] на Европейския парламент и на Съвета относно етичните принципи за разработването, внедряването и използването на изкуствен интелект, роботика и свързаните с тях технологии“.“

Член 23

Преглед

Комисията редовно извършва прегледи на развитието на изкуствения интелект, роботиката и свързаните с тях технологии, включително софтуер, алгоритми и данни, използвани или генерирани от такива технологии, и до … [OВ: моля, въведете дата — три години след влизането в сила] и на всеки три години след това представя на Европейския парламент, на Съвета и на Европейския икономически и социален комитет доклад за прилагането на настоящия регламент, включително оценка на възможното изменение на приложното поле на настоящия регламент.

Член 24

Влизане в сила

Настоящият регламент влиза в сила на двадесетия ден след деня на публикуването му в Официален вестник на Европейския съюз.

Той се прилага от XX.

Настоящият регламент е задължителен в своята цялост и се прилага пряко във всички държави членки.

Съставено в …

За Европейския парламент

Председател

За Съвета

Председател

ПРИЛОЖЕНИЕ

Изчерпателен и кумулативен списък на високорисковите сектори и на високорисковите употреби или цели, които могат да доведат до евентуално нарушаване на основните права и правилата за безопасност.

Високорискови сектори

Заетост

Образование

Здравеопазване

Транспорт

Енергетика

Публичен сектор (убежище, миграция, граничен контрол, съдебна система и служби за социална сигурност)

Отбрана и сигурност

Финанси, банково дело, застраховане

Високорискови употреби или цели

Наемане на служители

Оценяване на учащи се

Разпределяне на публични средства

Отпускане на заеми

Търговия, посредничество, данъчно облагане и др.

Медицинско лечение и процедури

Изборен процес и политически кампании

Решения в публичния сектор, които имат значително и пряко въздействие върху правата и задълженията на физическите или юридическите лица

Автоматизирано шофиране

Управление на движението

Автономни военни системи

Производство и разпределение на енергия

Управление на отпадъците

Контрол на емисиите


(1)  При автоматизирано управление на превозни средства, шест нива на автоматизация на управлението на превозни средства са предложени в рамките на международния стандарт на Дружеството на автомобилните инженери (SA) J3016, последно актуализиран през 2018 г. с версия J3016_201806. https://www.sae.org/standards/content/j3016_201806/

(2)  Регламент (ЕС) 2016/679 на Европейския парламент и на Съвета от 27 април 2016 г. относно защитата на физическите лица във връзка с обработването на лични данни и относно свободното движение на такива данни и за отмяна на Директива 95/46/EО (Общ регламент относно защитата на данните) (ОВ L 119, 4.5.2016 г., стр. 1).

(3)  Директива 2002/58/ЕО на Европейския парламент и на Съвета от 12 юли 2002 г. относно обработката на лични данни и защита на правото на неприкосновеност на личния живот в сектора на електронните комуникации (Директива за правото на неприкосновеност на личния живот и електронни комуникации) (ОВ L 201, 31.7.2002 г., стр. 37).

(4)  Определение, включено в съобщението на Европейската комисия COM(2018)0237, 25.4.2018 г., стр. 1, адаптирано.

(5)  Въз основа на определението за промишлени роботи в ISO 8373.

(6)  Директива (ЕС) 2019/1937 на Европейския парламент и на Съвета от 23 октомври 2019 г. относно защитата на лица, които подават сигнали за нарушения на правото на Съюза (ОВ L 305, 26.11.2019 г., стр. 17).


Top