EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52020IP0276

Резолюция на Европейския парламент от 20 октомври 2020 г. с препоръки към Комисията относно режим на гражданска отговорност за изкуствения интелект (2020/2014(INL))

OB C 404, 6.10.2021, p. 107–128 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

6.10.2021   

BG

Официален вестник на Европейския съюз

C 404/107


P9_TA(2020)0276

Режим на гражданска отговорност за изкуствения интелект

Резолюция на Европейския парламент от 20 октомври 2020 г. с препоръки към Комисията относно режим на гражданска отговорност за изкуствения интелект (2020/2014(INL))

(2021/C 404/05)

Европейският парламент,

като взе предвид член 225 от Договора за функционирането на Европейския съюз,

като взе предвид членове 114 и 169 от Договора за функционирането на Европейския съюз,

като взе предвид Директива 85/374/ЕИО на Съвета от 25 юли 1985 г. за сближаване на законовите, подзаконовите и административните разпоредби на държавите членки относно отговорността за вреди, причинени от дефект на стока (1) (Директивата относно отговорността за вреди, причинени от дефект на стока),

като взе предвид Директива 2005/29/ЕО на Европейския парламент и на Съвета от 11 май 2005 г. относно нелоялни търговски практики от страна на търговци към потребители на вътрешния пазар („Директива за нелоялните търговски практики“) (2) и Директива 2011/83/ЕС на Европейския парламент и на Съвета от 25 октомври 2011 г. относно правата на потребителите (3), както и други правила за защита на потребителите,

като взе предвид Регламент (ЕС) 2017/745 на Европейския парламент и на Съвета от 5 април 2017 г. за медицинските изделия (4),

като взе предвид Регламент (ЕС) 2018/1488 на Съвета от 28 септември 2018 г. за създаване на Съвместно предприятие за европейски високопроизводителни изчислителни технологии (5);

като взе предвид Директива (ЕС) 2019/770 на Европейския парламент и на Съвета от 20 май 2019 г. за някои аспекти на договорите за предоставяне на цифрово съдържание и цифрови услуги (6),

като взе предвид Междуинституционалното споразумение от 13 април 2016 г. за по-добро законотворчество и насоките за по-добро регулиране (7),

като взе предвид предложението за регламент на Европейския парламент и на Съвета от 6 юни 2018 г. за създаване на програмата „Цифрова Европа“ за периода 2021 — 2027 г. (COM(2018)0434),

като взе предвид съобщението на Комисията от 25 април 2018 г., озаглавено „Изкуствен интелект за Европа“ (COM(2018)0237),

като взе предвид съобщението на Комисията от 7 декември 2018 г., озаглавено „Координиран план за изкуствения интелект“ (COM(2018)0795),

като взе предвид съобщението на Комисията от 8 април 2019 г., озаглавено „Изграждане на доверие в ориентирания към човека изкуствен интелект“ (COM(2019)0168),

като взе предвид доклада на Комисията от 19 февруари 2020 г. до Европейския парламент, Съвета и Европейския икономически и социален комитет относно последиците от изкуствения интелект, интернета на нещата и роботиката за безопасността и отговорността (COM(2020)0064),

като взе предвид Бялата книга на Комисията от 19 февруари 2020 г., озаглавена „Изкуствен интелект — Европа в търсене на високи постижения и атмосфера на доверие“ (COM(2020)0065),

като взе предвид своята резолюция от 16 февруари 2017 г., съдържаща препоръки към Комисията относно гражданскоправни норми за роботиката (8),

като взе предвид своята резолюция от 1 юни 2017 г. относно цифровизацията на европейската промишленост (9),

като взе предвид своята резолюция от 12 септември 2018 г. относно автономните оръжейни системи (10),

като взе предвид своята резолюция от 12 февруари 2019 г. относно всеобхватната европейска промишлена политика в областта на изкуствения интелект и роботиката (11),

като взе предвид своята резолюция от 12 февруари 2020 г. относно автоматизираните процеси на вземане на решения: гарантиране на защитата на потребителите и на свободното движение на стоки и услуги (12),

като взе предвид доклада от 8 април 2019 г. на експертната група на високо равнище по въпросите на изкуствения интелект, озаглавен „Насоки относно етичните аспекти за надежден ИИ“,

като взе предвид доклада от 8 април 2019 г. на експертната група на високо равнище по въпросите на изкуствения интелект, озаглавен „Определение за ИИ: основни възможности и дисциплини“,

като взе предвид доклада от 26 юни 2019 г. на експертната група на високо равнище по въпросите на изкуствения интелект, озаглавен „Policy and investment recommendations for trustworthy AI“ (Препоръки относно политиката и инвестициите за надежден ИИ),

като взе предвид доклада от 21 ноември 2019 г. на експертната група по въпросите на отговорността и новите технологии — подгрупа по новите технологии, озаглавен „Liability for Artificial Intelligence and other emerging digital technologies“ (Отговорност за изкуствения интелект и други нововъзникващи цифрови технологии),

като взе предвид проучването за оценка на европейската добавена стойност, проведено от Службата на ЕП за парламентарни изследвания и озаглавено „Режим на гражданска отговорност във връзка с изкуствения интелект: проучване за оценка на европейската добавена стойност“ (13),

като взе предвид информационната бележка на отдела за оценка на научно-технологичните възможности (STOA) на Генералната дирекция за парламентарни изследвания от юни 2016 г. относно правните и етичните съображения, свързани с роботиката (14),

като взе предвид проучването на Генералната дирекция за вътрешни политики на Европейския парламент от октомври 2016 г. за комисията по правни въпроси, озаглавено „European Civil Law Rules in Robotics“ (Европейските гражданскоправни норми за роботиката) (15),

като взе предвид членове 47 и 54 от своя Правилник за дейността,

като взе предвид становищата на комисията по вътрешния пазар и защита на потребителите и комисията по транспорт и туризъм,

като взе предвид доклада на комисията по правни въпроси (A9-0178/2020),

А.

като има предвид, че понятието „отговорност“ играе важна двойна роля в нашето ежедневие: от една страна, то гарантира, че лице, което е претърпяло вреда, има право да търси и получи обезщетение от страната, за която е установено, че носи отговорност за тази вреда, а от друга страна — предоставя икономически стимули на физическите и юридическите лица да избягват преди всичко да причиняват вреди или да имат предвид в поведението си риска да трябва да заплатят обезщетение;

Б.

като има предвид, че всяка ориентирана към бъдещето правна уредба относно гражданската отговорност трябва да вдъхва доверие в безопасността, надеждността и съгласуваността на продуктите и услугите, включително в цифровите технологии, за да се постигне баланс между ефективната и справедлива защита на потенциалните увредени лица, и същевременно осигуряването на достатъчно свобода на действие, за да се даде възможност на предприятията, и в частност на малките и средните предприятия, да разработват нови технологии, продукти или услуги; като има предвид, че това ще спомогне за изграждането на доверие и за създаването на стабилност за инвестиции; като има предвид, че в крайна сметка целта на всяка уредба относно отговорността следва да бъде осигуряването на правна сигурност за всички страни, независимо дали става въпрос за производителя, оператора, засегнатото лице или друго трето лице;

В.

като има предвид, че правната система на дадена държава членка може да приспособи своите правила за отговорност за определени субекти или да ги направи по-строги за определени дейности; като има предвид, че обективна отговорност означава, че страната може да носи отговорност въпреки липсата на вина; като има предвид, че в деликтното право на много държави ответникът носи обективна отговорност, ако риск, който този ответник е създал за обществеността, например в случая с автомобили или опасни дейности, или риск, който той не може да контролира, като например животните, причини вреди;

Г.

като има предвид, че всяко бъдещо законодателство на Съюза, което има за цел изричното определяне на отговорността по отношение на системите с изкуствен интелект (ИИ), следва да бъде предшествано от анализ и консултация с държавите членки относно съответствието на предложения законодателен акт с икономическите, правните и социалните условия;

Д.

като има предвид, че въпросът за режима на гражданска отговорност за ИИ следва да бъде предмет на широк обществен дебат, който взема предвид всички засегнати интереси, и особено етичните, правните, икономическите и социалните аспекти, за да се избегнат недоразумения и необосновани опасения, които подобна технология може да предизвика у гражданите; като има предвид, че внимателното разглеждане — в рамките на оценка на въздействието — на последствията от всяка нова регулаторна рамка за всички участници следва да бъде предварително условие за предприемането на по-нататъшни законодателни стъпки;

Е.

като има предвид, че понятието „системи с ИИ“ обхваща голяма група от различни технологии, включително проста статистика, машинно самообучение и задълбочено учене;

Ж.

като има предвид, че с използването на термина „автоматизирано вземане на решения“ би могло да се избегне евентуалното двусмислие на термина ИИ; като има предвид, че при „автоматизираното вземане на решения“ ползвател първоначално делегира решение, частично или изцяло, на друго лице чрез използването на софтуер или услуга; като има предвид, че впоследствие това лице на свой ред използва автоматично изпълнявани модели за вземане на решение, за да извърши действие от името на ползвателя или за да осигури информация за решенията на ползвателя при извършването на дадено действие;

З.

като има предвид, че определени системи с ИИ поставят значителни правни предизвикателства пред съществуващата уредба относно отговорността и биха могли да доведат до ситуации, при които тяхната непрозрачност би могла да направи изключително скъпо или дори невъзможно да се установи кой е упражнявал контрол върху риска, свързан със системата с ИИ, или кой код, информация или данни в крайна сметка са обусловили вредоносната експлоатация; като има предвид, че този фактор би могъл да затрудни идентифицирането на връзката между вредата и поведението, което я причинява, като в резултат на това увредените лица може да не получат подходящо обезщетение;

И.

като има предвид, че правните предизвикателства произтичат също така и от свързаността между дадена система с ИИ и други системи със или без ИИ, тяхната зависимост от външни данни, тяхната уязвимост спрямо нарушения в сферата на киберсигурността, както и от факта, че се разработват все по-автономни системи с ИИ, които използват, наред с другото, техники за машинно самообучение и техники за задълбочено учене;

Й.

като има предвид, че стабилните етични стандарти за системите с ИИ, съчетани с надеждни и справедливи процедури за обезщетение, могат да помогнат за справянето с тези правни предизвикателства и да елиминират риска ползвателите да са по-малко склонни да приемат нововъзникващата технология; като има предвид, че справедливите процедури за обезщетение означават, че всяко лице, което търпи вреда, причинена от системи с ИИ, или чиято имуществена вреда е причинена от системи с ИИ, следва да има еднакво ниво на защита в сравнение със случаите, при които не е намесена система с ИИ; като има предвид, че потребителят трябва да бъде сигурен, че потенциалните вреди, причинени от системите, използващи ИИ, имат подходящо застрахователно покритие и че съществува установен законов ред за правна защита;

К.

като има предвид, че правната сигурност е също така съществено условие за динамичното развитие и иновациите на технологията, основаваща се на ИИ, особено за стартиращите предприятия, микро-, малките и средните предприятия, и практическото ѝ прилагане в ежедневието; като има предвид, че ключовата роля на стартиращите предприятия, микро-, малките и средните предприятия, особено в европейската икономика, оправдава използването на строго пропорционален подход, който да им позволи да се развиват и да извършват иновации;

Л.

като има предвид, че разнородността на системите с ИИ и разнообразният спектър от рискове, които технологията създава, усложняват усилията за намиране на единно решение, което да е подходящо за целия спектър от рискове; като има предвид, че в това отношение следва да се възприеме подход, при който да се използват експерименти, пилотни проекти и експериментални регулаторни практики, за да се намерят пропорционални и основани на доказателства решения, насочени към конкретни ситуации и сектори, когато е необходимо;

Въведение

1.

счита, че предизвикателството, свързано с въвеждането на системите с ИИ в обществото, на работното място и в икономиката, е един от най-важните въпроси в настоящия политически дневен ред; като има предвид, че технологиите, основани на ИИ, биха могли и следва да се стремят да подобрят живота ни в почти всяка област, от личната сфера, например транспортния сектор, персонализираното образование, подпомагането на уязвими лица, фитнес програмите и предоставянето на кредити, до работната среда, например облекчаването от еднообразни и повтарящи се задачи, и глобалните предизвикателства като изменението на климата, здравеопазването, изхранването и логистиката;

2.

твърдо вярва, че за да се използват ефективно предимствата и да се предотвратят потенциалните злоупотреби със системите с ИИ и за да се избегне нормативната разпокъсаност в Съюза, е изключително важно да има единно, основано на принципи и ориентирано към бъдещето законодателство на цялата територия на Съюза за всички системи с ИИ; счита, че макар за широкия кръг от възможни приложения да са за предпочитане регламенти, които са специфични за даден сектор, изглежда е необходима хоризонтална и хармонизирана правна рамка, основана на общи принципи, за да се гарантира правна яснота, за да се установят еднакви стандарти в целия Съюз и за да се защитят ефективно европейските ценности и правата на гражданите;

3.

заявява, че цифровият единен пазар трябва да бъде напълно хармонизиран, тъй като цифровата сфера се характеризира с бърза трансгранична динамика и международни потоци от данни; счита, че Съюзът ще постигне целите за запазване на цифровия суверенитет на Съюза и за насърчаване на цифровите иновации в Европа само чрез съгласувани и общи правила в съответствие с култура на иновации;

4.

отбелязва, че глобалната надпревара в областта на ИИ вече е в ход и че Съюзът следва да играе водеща роля в нея, като използва своя научен и технологичен потенциал; категорично подчертава, че технологичното развитие не трябва да бъде за сметка на защитата на ползвателите от вреди, които могат да бъдат причинени от устройства и системи, използващи ИИ; насърчава популяризирането на стандартите на Съюза за гражданската отговорност на международно равнище;

5.

твърдо вярва, че новите общи правила за системите с ИИ следва да бъдат единствено под формата на регламент; счита, че въпросът за отговорността в случай на вреда, причинена от система с ИИ, е един от ключовите аспекти, които трябва да бъдат разгледани в тази уредба;

Отговорност и изкуствен интелект

6.

счита, че не е необходимо цялостно преразглеждане на добре функциониращите режими на отговорност, но че сложността, свързаността, непрозрачността, уязвимостта, възможността за промяна посредством актуализации, възможността за самообучение и потенциалната автономност на системите с ИИ, както и множеството ангажирани участници, все пак представляват значително предизвикателство по отношение на ефективността на разпоредбите на уредбата на Съюза и националните уредби относно отговорността; счита, че са необходими конкретни и координирани корекции на режимите на отговорност, за да се предотврати ситуация, при която лица, които претърпяват вреди или на чието имущество са нанесени вреди, в крайна сметка не получават обезщетение;

7.

отбелязва, че всички физически или виртуални дейности, устройства или процеси, които се задвижват от системи с ИИ, могат технически да бъдат пряка или косвена причина за вреди, но все пак почти винаги са резултат от изграждането, внедряването или манипулирането на системите от дадено лице; във връзка с това отбелязва, че не е необходимо да се дава юридическа правосубектност на системите с ИИ; счита, че непрозрачността, свързаността и автономността на системите с ИИ биха могли да направят практически трудно или дори невъзможно да се проследи дали конкретни вредоносни действия на системите с ИИ се дължат на конкретен принос на човек или на решения при проектирането; припомня, че в съответствие с широко възприетите концепции за отговорност все пак може да се избегне тази пречка, като различните лица по цялата верига за създаване на стойност, които създават или поддържат системите с ИИ или контролират риска, свързан с посочените системи, носят отговорност;

8.

счита, че през последните над 30 години Директивата за отговорността за вреди, причинени от дефект на стокa, се доказа като ефективно средство за получаване на обезщетение за вреди, причинени от дефектен продукт, но въпреки това следва да бъде преразгледана с оглед на адаптирането ѝ към цифровия свят и с цел да се обърне внимание на предизвикателствата, породени от нововъзникващите цифрови технологии, като по този начин се гарантира високо равнище на ефективна защита на потребителите, както и правна сигурност за потребителите и предприятията, като същевременно се избягват високите разходи и рискове за МСП и стартиращите предприятия; настоятелно призовава Комисията да прецени дали Директивата за отговорността за вреди, причинени от дефект на стока, следва да бъде преобразувана в регламент, да поясни определението за „продукти“, като определи дали цифровото съдържание и цифровите услуги попадат в нейното приложно поле, и да разгледа възможността за адаптиране на понятия като „вреда“, „дефект“ и „производител“; счита, че за целите на правната сигурност в целия Съюз след прегледа на Директивата за отговорността за вреди, причинени от дефект на стокa, понятието „производител“ следва да включва производителите, разработчиците, програмистите, доставчиците на услуги, както и бекенд операторите; призовава Комисията да разгледа възможността за отмяна на правилата, уреждащи тежестта на доказване на вреда, причинена от нововъзникващи цифрови технологии, в ясно определени случаи и след подходяща оценка; посочва, че е важно да се гарантира, че актуализираният акт на Съюза остава ограничен до ясно набелязани проблеми, за които вече съществуват осъществими решения, и същевременно позволява да се обхване и бъдещото технологично развитие, включително разработките, които се основават на безплатен и с отворен код софтуер; отбелязва, че Директивата за отговорността за вреди, причинени от дефект на стокa, следва да продължи да се използва по отношение на претенции за гражданска отговорност срещу производителя на дефектна система с ИИ, когато системата с ИИ отговаря на определението за продукт по силата на посочената директива; подчертава, че всяка актуализация на рамката за отговорност за продуктите следва да върви ръка за ръка с актуализацията на Директива 2001/95/ЕО на Европейския парламент и на Съвета от 3 декември 2001 г. относно общата безопасност на продуктите (16), за да се гарантира, че системите с ИИ включват при проектирането си принципите за безопасност и сигурност;

9.

счита, че съществуващото деликтно право на държавите членки, основано на виновна отговорност, предлага в повечето случаи достатъчно ниво на защита за лицата, които претърпяват вреди, причинени от трето лице, което манипулира системите, например хакер, или за лицата, на чието имущество са нанесени вреди от такова трето лице, тъй като манипулирането обикновено представлява действие, за което се носи виновна отговорност; отбелязва, че добавянето на правила за отговорност с цел допълване на съществуващото национално деликтно право изглежда необходимо само в специфични случаи, включително когато третото лице е непроследимо или не разполага със средства;

10.

поради това счита, че е целесъобразно този доклад да се съсредоточи върху претенциите за гражданска отговорност срещу оператора на система с ИИ; потвърждава, че отговорността на оператора се обосновава с факта, че той упражнява контрол върху риск, свързан със системата с ИИ, сравним с този на собственика на автомобил; счита, че поради сложността и свързаността на системата с ИИ в много случаи операторът ще бъде първата видима точка за контакт за засегнатото лице;

Отговорност на оператора

11.

счита, че правилата за отговорност, прилагани към оператора, следва да обхващат всички операции на системите с ИИ, независимо от това къде се извършва експлоатацията и дали това се случва физически или виртуално; отбелязва обаче, че експлоатацията на обществени места, която излага много лица на риск, представлява случай, който се нуждае от допълнително разглеждане; счита, че потенциалните увредени лица често не са запознати с експлоатацията и обикновено нямат претенции за договорна отговорност срещу оператора; отбелязва, че когато настъпи вреда, тези лица ще имат само претенция за виновна отговорност и може да се окаже трудно да докажат вината на оператора на системата с ИИ и следователно съответните претенции за отговорност може да се окажат неуспешни;

12.

счита, че е целесъобразно под „оператор“ да се разбира както бекенд оператор, така и фронтенд оператор, при условие че последният не е вече покрит съгласно Директивата за отговорността за вреди, причинени от дефект на стокa; отбелязва, че „фронтенд операторът“ следва да бъде определен като физическото или юридическото лице, което упражнява определен контрол върху риск, свързан с експлоатацията и функционирането на системата с ИИ, и което извлича ползи от нейната експлоатация; заявява, че „бекенд операторът“ следва да бъде определен като физическото или юридическото лице, което постоянно определя характеристиките на технологията, предоставя данни и основни бекенд помощни услуги и следователно също така упражнява известен контрол върху риска, свързан с експлоатацията и функционирането на системата с ИИ; счита, че упражняването на контрол означава всяко действие на оператора, което влияе върху експлоатацията на системата с ИИ и следователно върху това до каква степен излага трети лица на потенциалните рискове на системата; счита, че подобни действия биха могли да окажат влияние върху експлоатацията на система с ИИ от началото до края чрез определяне на входящите данни, изходящите данни или резултатите, или да променят специфични функции или процеси в рамките на системата с ИИ;

13.

отбелязва, че е възможно да има случаи, в които има повече от един оператор, например бекенд и фронтенд оператор; счита, че в такъв случай всички оператори следва да бъдат солидарно отговорни, като същевременно имат право на пропорционален регресен иск; счита, че пропорциите на отговорността следва да се определят от съответните степени на контрол, които операторите са имали върху риска, свързан с експлоатацията и функционирането на системата с ИИ; счита, че проследимостта на продуктите следва да се подобри, за да се определят по-добре участниците в различните етапи;

Различни правила за отговорност за различните рискове

14.

признава, че видът на системата с ИИ, върху която операторът упражнява контрол, е определящ фактор по отношение на отговорността; отбелязва, че система с ИИ, която носи присъщ висок риск и функционира автономно, потенциално застрашава обществеността в много по-висока степен; счита, че въз основа на правните предизвикателства, които системите с ИИ пораждат за съществуващите режими на гражданска отговорност, изглежда разумно да се установи общ режим на обективна отговорност за тези високорискови автономни системи с ИИ; подчертава, че такъв основан на риска подход, който може да включва няколко равнища на риск, следва да се основава на ясни критерии и подходящо определение за висок риск и да предвижда правна сигурност;

15.

счита, че дадена система с ИИ носи висок риск, когато нейното автономно функциониране има значителен потенциал да причини вреда на едно или повече лица по начин, който е случаен и надхвърля това, което може разумно да се очаква; счита, че когато се определя дали дадена система с ИИ е високорискова, трябва да се вземат предвид секторът, в който може да се очаква да възникнат значителни рискове, и естеството на предприеманите дейности; счита, че значимостта на потенциала зависи от взаимодействието между сериозността на възможната вреда, вероятността рискът да причини вреда и начина на използване на системата с ИИ;

16.

препоръчва всички високорискови системи с ИИ да бъдат изчерпателно изброени в приложение към предложения регламент; признава, че като се имат предвид бързото технологично развитие и необходимият технически експертен опит, Комисията следва да извършва преглед на това приложение без ненужно забавяне, но най-малко на всеки шест месеца и, ако е необходимо, да го изменя чрез делегиран акт; счита, че Комисията следва да си сътрудничи тясно с новоучреден постоянен комитет, подобен на съществуващия Постоянен комитет по прекурсорите или на Техническия комитет по моторните превозни средства, който да включва национални експерти от държавите членки и заинтересованите лица; счита, че балансираното членство в „експертната група на високо равнище по въпросите на изкуствения интелект“ би могло да послужи като пример за сформирането на групата от заинтересовани лица, като се включат и експерти по етика и антрополози, социолози и специалисти в областта на психичното здраве; счита също така, че Европейският парламент следва да назначи консултативни експерти, които да съветват новосъздадения постоянен комитет;

17.

отбелязва, че развитието на технологии, основани на ИИ, е изключително динамично и темпът му се ускорява непрекъснато; подчертава, че за да се гарантира адекватна защита на ползвателите, е необходим ускорен подход за анализиране на новите устройства и системи, използващи системи с ИИ, които се появяват на европейския пазар, по отношение на потенциалните рискове; препоръчва всички процедури в това отношение да бъдат опростени във възможно най-голяма степен; освен това предлага оценката на Комисията дали дадена система с ИИ представлява висок риск да започне едновременно с оценката на безопасността на продукта, за да се предотврати ситуация, при която високорискова система с ИИ вече е одобрена за пазара, но все още не е класифицирана като високорискова и следователно функционира без задължително застрахователно покритие;

18.

отбелязва, че Комисията следва да направи оценка на това как данните, събрани, записани или съхранявани във високорискови системи с ИИ за целите на събирането на доказателства в случай на вреда, причинена от тази система с ИИ, могат да бъдат достъпни и използвани от разследващия орган и как биха могли да се подобрят проследимостта и проверимостта на тези данни, като същевременно се вземат предвид основните права и правата на неприкосновеност на личния живот;

19.

заявява, че в съответствие със системите за обективна отговорност на държавите членки предложеният регламент следва да обхваща нарушенията на важните защитени от закона права на живот, здраве, физическа неприкосновеност и имущество и следва да определя размера и обхвата на обезщетенията, както и давностния срок; счита, че предложеният регламент следва също така да включва значителна неимуществена вреда, която води до проверима икономическа загуба над определен праг, хармонизиран в правото на Съюза относно отговорността, с което се постига баланс между достъпа до правосъдие на засегнатите лица и интересите на други участващи лица; настоятелно призовава Комисията да направи преоценка и да приведе в съответствие праговете за вреди в правото на Съюза; счита, че Комисията следва да анализира задълбочено правните традиции във всички държави членки и техните съществуващи национални законодателства, които предоставят обезщетение за неимуществени вреди, за да прецени дали е необходимо неимуществените вреди да бъдат включени в специфични за ИИ законодателни актове и дали това противоречи на съществуващата правна рамка на Съюза или подкопава националното право на държавите членки;

20.

счита, че всички дейности, устройства или процеси, задвижвани от системи с ИИ, които причиняват вреда, но не са изброени в приложението към предложения регламент, следва да продължат да подлежат на виновна отговорност; счита, че засегнатото лице следва все пак да се ползва от презумпция за вина от страна на оператора, който следва да може да се освободи от отговорност, като докаже, че е спазил задължението за полагане на грижа;

21.

счита, че система с ИИ, която все още не е оценена от Комисията и новосъздадения постоянен комитет и следователно все още не е класифицирана като високорискова и не е включена в списъка в приложението към предложения регламент, следва въпреки това, по изключение от предвидената в параграф 20 система, да подлежи на обективна отговорност, ако е причинила многократни инциденти, водещи до сериозни вреди; отбелязва, че ако случаят е такъв, Комисията следва също без ненужно забавяне да направи оценка на необходимостта от преразглеждане на това приложение с цел въпросната система с ИИ да бъде добавена към списъка; счита, че ако след тази оценка Комисията реши да включи системата с ИИ в списъка, това включване следва да има обратно действие от момента на първия доказан инцидент, причинен от тази система с ИИ, който е довел до сериозни вреди;

22.

изисква от Комисията да направи оценка на необходимостта от правни разпоредби на равнището на Съюза относно договорите с цел предотвратяване на договорни клаузи за освобождаване от отговорност, включително в отношенията между предприятията (Business-to-Business) и между предприятията и администрацията (Business-to-Administration);

Застраховки и системи с ИИ

23.

счита, че застрахователното покритие за отговорност е един от ключовите фактори, които определят успеха на новите технологии, продукти и услуги; отбелязва, че адекватното покритие за отговорност също е от съществено значение, за да се гарантира пред обществеността, че може да се довери на новата технология въпреки потенциала за претърпяване на вреда или съдебни искове от страна на засегнатите лица; отбелязва в същото време, че тази регулаторна система се съсредоточава върху необходимостта от използване и разширяване на предимствата на системите с ИИ, като същевременно се въвеждат строги предпазни мерки;

24.

счита, че въз основа на значителния потенциал за причиняване на вреда и като се вземе предвид Директива 2009/103/ЕО на Европейския парламент и на Съвета от 16 септември 2009 г. относно застраховката „Гражданска отговорност“ при използването на моторни превозни средства и за контрол върху задължението за сключване на такава застраховка (17), всички оператори на високорискови системи с ИИ, изброени в приложението към предложения регламент, следва да имат застраховка за отговорност; счита, че такъв задължителен застрахователен режим за високорисковите системи с ИИ следва да покрива размера и обхвата на обезщетението, определено с предложения регламент; осъзнава факта, че понастоящем тези технологии все още са много редки, тъй като предполагат висока степен на автономно вземане на решения, и че следователно настоящите дискусии са насочени предимно към бъдещето; въпреки това счита, че несигурността по отношение на рисковете не следва да води до прекомерно повишаване на застрахователните премии и съответно да стане пречка за научните изследвания и иновациите;

25.

счита, че един механизъм за обезщетение на равнището на Съюза, финансиран с публични средства, не е правилният начин за запълване на евентуални застрахователни празноти; счита, че липсата на данни за рисковете, свързани със системите с ИИ, в съчетание с несигурността по отношение на развитието в бъдещето, пречи на застрахователния сектор да предлага адаптирани или нови застрахователни продукти; счита, че ако развитието на задължителна застраховка бъде оставено изцяло на пазара, това вероятно ще доведе до използването на универсален подход с непропорционални високи застрахователни премии и погрешни стимули, насърчаващи операторите да избират най-евтината застраховка, а не най-доброто покритие, и би могло да стане пречка за научните изследвания и иновациите; счита, че Комисията следва да работи в тясно сътрудничество със застрахователния сектор, за да прецени как данните и иновативните модели могат да се използват за създаване на застрахователни полици, които предлагат адекватно покритие на достъпна цена;

Заключителни аспекти

26.

изисква от Комисията да представи, въз основа на член 225 от Договора за функционирането на Европейския съюз, предложение за регламент относно отговорността за експлоатацията на системи с изкуствен интелект, в съответствие с препоръките, отправени в приложението към настоящата резолюция;

27.

счита, че исканото предложение няма да породи финансови последици;

o

o o

28.   

възлага на своя председател да предаде настоящата резолюция и приложените към нея препоръки на Комисията и на Съвета.


(1)  ОВ L 210, 7.8.1985 г., стр. 29.

(2)  ОВ L 149, 11.6.2005 г., стр. 22.

(3)  ОВ L 304, 22.11.2011 г., стр. 64.

(4)  ОВ L 117, 5.5.2017 г., стр. 1.

(5)  ОВ L 252, 8.10.2018 г., стр. 1.

(6)  ОВ L 136, 22.5.2019 г., стр. 1.

(7)  ОВ L 123, 12.5.2016 г., стр. 1.

(8)  ОВ C 252, 18.7.2018 г., стр. 239.

(9)  ОВ C 307, 30.8.2018 г., стр. 163.

(10)  ОВ C 433, 23.12.2019 г., стр. 86.

(11)  Приети текстове, P8_TA(2019)0081.

(12)  Приети текстове, P9_TA(2020)0032.

(13)  https://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2020)654178

(14)  https://www.europarl.europa.eu/RegData/etudes/STUD/2016/563501/EPRS_STU(2016)563501(ANN)_EN.pdf

(15)  https://www.europarl.europa.eu/RegData/etudes/STUD/2016/571379/IPOL_STU(2016)571379_EN.pdf

(16)  ОВ L 11, 15.1.2002 г., стр. 4.

(17)  ОВ L 263, 7.10.2009 г., стр. 11.


ПРИЛОЖЕНИЕ КЪМ РЕЗОЛЮЦИЯTA:

ПОДРОБНИ ПРЕПОРЪКИ ЗА ИЗГОТВЯНЕ НА РЕГЛАМЕНТ НА ЕВРОПЕЙСКИЯ ПАРЛАМЕНТ И НА СЪВЕТА ОТНОСНО ОТГОВОРНОСТТА ЗА ЕКСПЛОАТАЦИЯТА НА СИСТЕМИ С ИЗКУСТВЕН ИНТЕЛЕКТ

А.   ПРИНЦИПИ И ЦЕЛИ НА ПРЕДЛОЖЕНИЕТО

Настоящият доклад разглежда важен аспект на цифровизацията, който е обусловен от трансграничната дейност, конкуренцията в световен мащаб и основни съображения от обществен характер. Като насоки следва да служат следните принципи:

1.

За истински цифров единен пазар е необходима пълна хармонизация чрез регламент.

2.

Новите правни предизвикателства, породени от развитието на системите с изкуствен интелект (ИИ), трябва да бъдат преодолени, като се създаде максимална правна сигурност по цялата верига на отговорност, включително за производителя, оператора, засегнатото лице и всяка друго трето лице.

3.

Не следва да има свръхрегулиране и трябва да се предотвратява бюрокрацията, тъй като това би попречило на европейските иновации в областта на ИИ, особено в случай че технологията, продуктите или услугите са разработени от МСП или стартиращи предприятия.

4.

Правилата за гражданска отговорност за ИИ следва да се стремят към постигане на баланс между защитата на обществеността, от една страна, и стимулите за предприятията да инвестират в иновации, по-специално в системи с ИИ, от друга страна;

5.

Вместо да се заменят добре функциониращите режими за отговорност, би трябвало да се направят няколко необходими корекции чрез въвеждането на нови и ориентирани към бъдещето идеи.

6.

Бъдещото предложение за регламент и Директивата за отговорността за вреди, причинени от дефект на стокa, са два стълба на обща уредба относно отговорността за системите с ИИ и изискват тясно сътрудничество и съгласуваност между всички участници в политическия живот на равнището на Съюза и на национално равнище.

7.

Гражданите следва да имат право на едно и също ниво на защита и права, независимо дали вредата е причинена от система с ИИ или не и независимо дали се случва физически или виртуално, така че да се укрепи доверието им в новата технология.

8.

В бъдещото предложение за регламент следва да се вземат предвид както имуществените, така и неимуществените вреди. Въз основа, наред с други документи, на съобщението ѝ от 19 февруари 2020 г. относно последиците от изкуствения интелект и роботиката за безопасността и отговорността, към Европейската комисия е отправен призив да анализира задълбочено правните традиции във всички държави членки, както и техните съществуващи законодателни разпоредби, които предоставят обезщетение за неимуществени вреди, за да прецени дали включването на неимуществените вреди в бъдещото предложение за регламент е правно издържано и необходимо от гледна точна на засегнатото лице. Въз основа на наличната към момента информация, Парламентът счита, че значителната неимуществена вреда следва да бъде включена, ако засегнатото лице е претърпяло явна, т.е. проверима, икономическа загуба.

Б.   ТЕКСТ НА ИЗИСКВАНОТО ПРЕДЛОЖЕНИЕ

Предложение за

РЕГЛАМЕНТ НА ЕВРОПЕЙСКИЯ ПАРЛАМЕНТ И НА СЪВЕТА

относно отговорността за експлоатацията на системи с изкуствен интелект

ЕВРОПЕЙСКИЯТ ПАРЛАМЕНТ И СЪВЕТЪТ НА ЕВРОПЕЙСКИЯ СЪЮЗ,

като взеха предвид Договора за функционирането на Европейския съюз, и по-специално член 114 от него,

като взеха предвид предложението на Европейската комисия,

след предаване на проекта на законодателния акт на националните парламенти,

като взеха предвид становището на Европейския икономически и социален комитет (1),

в съответствие с обикновената законодателна процедура (2),

като имат предвид, че:

(1)

Понятието „отговорност“ играе важна двойна роля в нашето ежедневие: от една страна, то гарантира, че лице, което е претърпяло вреда, има право да търси обезщетение от страната, която носи отговорност за тази вреда, а от друга страна, предоставя икономически стимули за лицата да избягват преди всичко да причиняват вреди. Целта на всяка уредба относно отговорността следва да бъде да вдъхва доверие в безопасността, надеждността и съгласуваността на продуктите и услугите, включително нововъзникващите цифрови технологии, като например изкуствения интелект (ИИ), интернет на нещата (ИН) или роботиката, за да се постигне баланс между ефективната защита на потенциалните увредени лица и същевременно осигуряването на достатъчно свобода на действие, за да се даде възможност за разработване на нови технологии, продукти или услуги.

(2)

Особено в началото на жизнения цикъл на новите продукти и услуги, след като те са били предварително изпитани, съществува известен риск за ползвателя, както и за трети лица, че нещо няма да функционира правилно. Този процес на „проба и грешка“ е в същото време и ключов фактор на техническия прогрес, без който повечето от нашите технологии не биха съществували. До този момент рисковете, свързани с новите продукти и услуги, са били подходящо ограничени от строгите разпоредби относно безопасността на продуктите и правилата за отговорност.

(3)

Засиленото използване на ИИ обаче представлява значително предизвикателство за съществуващите уредби относно отговорността. Използването на системи с ИИ в нашето ежедневие ще доведе до ситуации, при които тяхната непрозрачност (елементът „черна кутия“) и множеството лица, които се намесват в техния жизнен цикъл, ще направят изключително скъпо или дори невъзможно да се установи кой е упражнявал контрол върху риска, свързан със системата с ИИ, или кой код или информация в крайна сметка е обусловил вредоносната експлоатация. Тази трудност е още по-голяма поради свързаността между дадена система с ИИ и други системи със или без ИИ, поради нейната зависимост от външни данни, поради нейната уязвимост спрямо нарушения в сферата на киберсигурността, както и поради нарастващата автономност на системите с ИИ благодарение на възможностите за машинно самообучение и задълбочено учене. Освен тези сложни характеристики и потенциални уязвимости, системите с ИИ също така биха могли да бъдат използвани за причиняване на сериозни вреди, като например компрометиране на човешкото достойнство и европейските ценности и свободи чрез проследяване на физическите лица против тяхната воля, чрез въвеждане на системи за социален кредит, чрез вземане на субективни решения по въпроси на здравното осигуряване, предоставянето на кредити, съдебни разпореждания или решения за назначаване на работа или във връзка със заетостта или чрез изграждане на смъртоносни автономни оръжейни системи.

(4)

Важно е да се отбележи, че предимствата от внедряването на системи с ИИ далеч ще надхвърлят недостатъците. Те ще помогнат за по-ефективна борба с изменението на климата, за подобряване на медицинските прегледи и условията на труд, за по-добро интегриране на хората с увреждания и възрастните хора в обществото и за предоставяне на съобразени с конкретните нужди учебни курсове за всички видове студенти. За да се използват различните технологични възможности и да се засили доверието на хората в използването на системите с ИИ, като същевременно се предотвратят вредоносните сценарии, най-доброто решение е наличието на стабилни етични стандарти в съчетание със солидни и справедливи процедури за обезщетение.

(5)

Необходим е подходящ режим на отговорност, за да се противодейства на нарушаването на правилата за безопасност. Определеният в настоящия регламент режим на отговорност обаче трябва да отчита всички засегнати интереси. Внимателното разглеждане на последствията от всяка нова регулаторна рамка за малките и средните предприятия (МСП) и стартиращите предприятия представлява предварително условие за предприемането на по-нататъшни законодателни действия. Ключовата роля на тези предприятия в европейската икономика оправдава използването на строго пропорционален подход с цел да им се позволи да се развиват и да извършват иновации. От друга страна, лицата, претърпели вреди, причинени от системи с ИИ, трябва да имат право на правни средства за защита и пълно обезщетение за понесените вреди.

(6)

Всички необходими промени в съществуващата правна уредба следва да започнат с уточнението, че системите с ИИ нямат нито статут на юридическо лице, нито човешко съзнание, и че единствената им задача е да служат на хората. Много системи с ИИ също така не се различават твърде от други технологии, които понякога се базират на още по-сложен софтуер. В крайна сметка по-голямата част от системите с ИИ се използват за обработка на обикновени задачи без никакви рискове или с минимални рискове за обществото. С използването на термина „автоматизирано вземане на решения“ би могло да се избегне евентуалното двусмислие на термина ИИ. Този термин описва ситуация, при която ползвател първоначално делегира решение, частично или изцяло, на друго лице посредством софтуер или услуга. Това лице на свой ред използва автоматично изпълнявани модели за вземане на решение, за да извърши действие от името на ползвателя или за да осигури информация за решението на ползвателя при извършването на дадено действие.

(7)

Съществуват обаче и системи с ИИ, които биват разработвани и внедрявани по критичен начин и се базират на такива технологии като невронни мрежи и процеси на задълбочено учене. Непрозрачността и автономността на тези системи биха могли да направят много трудно проследяването на конкретни действия във връзка с конкретни решения, взети от хора при тяхното проектиране или експлоатация. Оператор на такава система с ИИ може например да твърди, че физическата или виртуалната дейност, устройството или процесът, причинил вреда, са били извън неговия контрол, тъй като тя е била причинена от автономно функциониране на неговата система с ИИ. Освен това функционирането на автономна система с ИИ само по себе си не би трябвало да е достатъчно основание за приемане на претенцията за отговорност. В резултат на това е възможно да има случаи на отговорност, при които определението на отговорността би могло да бъде несправедливо или неефективно или при които лице, което претърпява вреди, причинени от система с ИИ, не може да докаже вината на производителя, на трето лице, което е манипулирало системата, или на оператора и в крайна сметка не получава обезщетение.

(8)

Въпреки това следва винаги да бъде ясно, че който създава, поддържа, контролира или манипулира системата с ИИ, следва да носи отговорност за вредите, причинени от дейността, устройството или процеса. Това следва от общи и широко приети в правосъдието концепции за отговорност, съгласно които лицето, което създава или поддържа риск за обществеността, носи отговорност, ако този риск причини вреда, и поради това следва предварително да сведе риска до минимум или впоследствие да предостави обезщетение за този риск. Следователно засиленото използване на системите с ИИ не налага необходимост от цялостно преразглеждане на правилата за отговорност в целия Съюз. Конкретни корекции на съществуващото законодателство и въвеждането на подложени на внимателна оценка и целенасочени нови разпоредби биха били достатъчни, за да се отговори на предизвикателствата, свързани с ИИ, с цел да се предотврати регулаторната разпокъсаност и да се гарантира хармонизирането на законодателството в областта на гражданската отговорност в целия Съюз във връзка с изкуствения интелект.

(9)

През последните над 30 години Директива 85/374/ЕИО на Съвета (3) („Директивата за отговорността за вредите, причинени от дефект на стокa“) се доказа като ефективно средство за получаване на обезщетение за вреди, причинени от дефектен продукт. Поради това тя следва да се използва и по отношение на претенциите за гражданска отговорност на страна, която претърпява вреди, срещу производителя на дефектна система с ИИ. В съответствие с принципите на Съюза за по-добро регулиране всички необходими законодателни корекции следва да бъдат обсъдени по време на необходимото преразглеждане на посочената директива. Съществуващото деликтно право на държавите членки, основано на виновна отговорност, също предлага в повечето случаи достатъчно ниво на защита за лицата, които претърпяват вреди, причинени от трето лице, което манипулира системата, тъй като манипулирането обикновено представлява действие, за което се носи виновна отговорност, когато третото лице използва системата с ИИ с цел причиняване на вреда. Поради тази причина настоящият регламент следва да се съсредоточи върху претенциите срещу оператора на система с ИИ.

(10)

Отговорността на оператора съгласно настоящия регламент се основава на факта, че той упражнява известен контрол върху риск, свързан с експлоатацията и функционирането на система с ИИ, който е сравним с този на собственика на автомобил. Колкото по-сложна и по-автономна е една система, толкова по-голямо въздействие може да има определянето и промяната на алгоритмите, например чрез непрекъснато актуализиране. Тъй като често има повече от едно лице, което по същество може да се счита за „опериращо“ със системата с ИИ, то съгласно настоящия регламент както бекенд операторът, така и фронтенд операторът могат да бъдат квалифицирани като „оператор“. Въпреки че по принцип фронтенд операторът се счита за лицето, което „основно“ взема решение относно използването на системата с ИИ, бекенд операторът всъщност може да има по-висока степен на контрол върху операционните рискове. Ако бекенд операторът отговаря и на определението за „производител“ съгласно член 3 от Директивата за отговорността за вредите, причинени от дефект на стокa, тази директива следва да се прилага за него. Ако има само един оператор и той е също така производителят на системата с ИИ, настоящият регламент има предимство пред Директивата за отговорността за вредите, причинени от дефект на стокa.

(11)

Ако ползвател, а именно лицето, използващо системата с ИИ, участва във вредоносното събитие, той следва да носи отговорност съгласно настоящия регламент само ако отговаря и на определението за оператор. Ако това не е така, степента на груба небрежност или умишлен принос на ползвателя към риска може да доведе до виновна отговорност на ползвателя към ищеца. Приложимите потребителски права на ползвателя следва да останат незасегнати.

(12)

Настоящият регламент следва да даде възможност на засегнатото лице да предявява претенции за отговорност по цялата верига на отговорност и през целия жизнен цикъл на системата с ИИ. Той следва също така да обхваща по принцип всички системи с ИИ, без значение къде се осъществява експлоатацията и дали операциите се извършват физически или виртуално. По-голямата част от претенциите за отговорност съгласно настоящия регламент следва обаче да касаят случаи на гражданска отговорност, когато дадена система с ИИ се експлоатира на обществено място и излага много лица на риск. В такъв случай засегнатите лица често няма да са информирани за функционирането на системата с ИИ и няма да имат договорно или правно отношение с оператора. Следователно функционирането на системата с ИИ ги поставя в положение, при което в случай на претърпяна вреда те могат да предявят единствено претенции за виновна отговорност срещу оператора на системата с ИИ, като същевременно срещат сериозни затруднения да докажат наличието на вина при този оператор.

(13)

Видът на системата с ИИ, върху която операторът упражнява контрол, е определящ фактор. Система с ИИ, която носи висок риск, потенциално застрашава ползвателя или обществеността в много по-висока степен и по начин, който е произволен и надвишава това, което може логично да се очаква. Това означава, че в началото на автономното функциониране на системата с ИИ по-голямата част от потенциално засегнатите лица са неизвестни и не могат да бъдат идентифицирани — например лица на площад на публично място или лица в съседна къща, за разлика от функционирането на система с ИИ с участието на конкретни лица, които обикновено са дали съгласието си за нейното внедряване предварително, например операция в болница или демонстрация с цел продажби в малък магазин. Да се определи доколко е значим потенциалът на дадена високорискова система с ИИ да причини вреди зависи от взаимодействието между целта на използване, за която системата с ИИ е пусната на пазара, начина на използване на системата с ИИ, сериозността на потенциалната вреда, степента на самостоятелност при вземането на решения, която може да доведе до вреди, и вероятността за осъществяване на риска. Степента на сериозност следва да се определя въз основа на относими фактори, като например обхвата на евентуалната вреда, причинена на засегнатите лица в резултат на експлоатацията (в това число по-специално последиците за основните права), броя на засегнатите лица, общата стойност на евентуалните вреди, както и вредата за обществото като цяло. Вероятността за причиняване на вреда следва да бъде определена въз основа на относими фактори като например ролята на алгоритмичните изчисления в процеса на вземане на решения, сложността на решението и обратимостта на последиците. В крайна сметка начинът на използване следва да зависи от относими фактори, като например контекста и сектора, в който функционира системата с ИИ, дали тя би могла да има правни или фактически последици за важни защитени от закона права на засегнатото лице, както и дали последиците могат да бъдат предотвратени в разумни граници.

(14)

Всички системи с ИИ, които носят висок риск, следва да бъдат изчерпателно изброени в приложение към настоящия регламент. Като се имат предвид бързите технически и пазарни промени в целия свят, както и техническият експертен опит, необходим за адекватен преглед на системите с ИИ, на Комисията следва да бъде делегирано правомощието да приема делегирани актове в съответствие с член 290 от Договора за функционирането на Европейския съюз за изменение на настоящия регламент по отношение на видовете системи с ИИ, които представляват висок риск, и критичните сектори, в които се използват. Въз основа на определенията и разпоредбите, предвидени в настоящия регламент, Комисията следва да извършва преглед на приложението без ненужно забавяне, но най-малко на всеки шест месеца и, ако е необходимо, да го изменя чрез делегирани актове. Оценката на Комисията дали дадена система с ИИ представлява висок риск следва да започне едновременно с оценката на безопасността на продукта, за да се предотврати ситуация, при която високорискова система с ИИ вече е одобрена за пазара, но все още не е класифицирана като високорискова и следователно функционира без задължително застрахователно покритие. За да се осигури на предприятията и научноизследователските организации достатъчно сигурност на планирането и на инвестициите, промените в критичните сектори следва да се правят само веднъж на всеки дванадесет месеца. Операторите следва да бъдат призовани да уведомят Комисията, ако работят върху нова технология, продукти или услуги, които попадат в някой от съществуващите критични сектори, предвидени в приложението, и които по-късно може да бъдат квалифицирани като „високорискова система с ИИ“.

(15)

От особено значение е по време на подготвителната си работа Комисията да провежда целесъобразни консултации със заинтересованите лица, включително на експертно равнище, като те бъдат съобразени с принципите, заложени в Междуинституционалното споразумение от 13 април 2016 г. за по-добро законотворчество (4). При извършването на редовния преглед съгласно настоящия регламент Комисията следва да бъде подпомагана от постоянен комитет, наречен „Технически комитет за високорискови системи с ИИ“ (TCRAI). Този постоянен комитет следва да включва представители на държавите членки, както и балансирана извадка на заинтересовани лица, включително организации на потребителите, асоциации, представляващи засегнатите лица, представители на предприятията от различни сектори и с различни размери, както и изследователи и учени. По-специално, с цел осигуряване на равно участие при подготовката на делегираните актове, Европейският парламент и Съветът получават всички документи едновременно с експертите от държавите членки, като експертите на Европейския парламент и Съвета получават систематично достъп до заседанията на експертните групи на Комисията, както и на постоянния комитет TCRAI, когато се занимават с подготовката на делегирани актове.

(16)

Настоящият регламент следва да обхваща вредите за живота, здравето, физическата неприкосновеност, имуществото и значителна неимуществена вреда, която води до проверима икономическа загуба над определен праг, хармонизиран в правото на Съюза, основано на виновна отговорност, с което се постига баланс между достъпа до правосъдие на засегнатите лица и интересите на други участващи лица. Комисията следва да направи преоценка и да приведе в съответствие праговете за вреди в правото на Съюза. Под „значителна неимуществена вреда“ следва да се разбира вреда, в резултат на която засегнатото лице претърпява значително увреждане, обективно и доказуемо накърняване на неговите лични интереси и икономическа загуба, изчислена, като се вземат предвид например средните годишни стойности на приходите от минали периоди и други относими обстоятелства. В настоящия регламент следва също да се определят размерът и обхватът на обезщетението, както и давностният срок за предявяване на претенции за отговорност. За разлика от Директивата за отговорността за вредите, причинени от дефект на стокa, в настоящия регламент следва да бъде определен значително по-нисък таван за обезщетението, тъй като регламентът се отнася само за вредата, претърпяна от едно лице в резултат от една-единствена операция на дадена система с ИИ, докато директивата се отнася за определен брой продукти или дори за продуктова линия с еднакъв дефект.

(17)

Всички физически или виртуални дейности, устройства или процеси, задвижвани от системи с ИИ, които не са изброени в приложението към предложения регламент като високорискова система с ИИ, следва да продължат да подлежат на виновна отговорност, освен ако не са в сила по-строги национални закони и законодателство в областта на защитата на потребителите; По отношение на размера и обхвата на обезщетението, както и на давностния срок следва да продължат да се прилагат националните законодателства на държавите членки, включително съответната съдебна практика. Лице, което претърпява вреди, причинени от дадена система с ИИ, която не е посочена в приложението като високорискова система с ИИ, следва да се ползва от презумпцията за вина на оператора.

(18)

Комплексната проверка, която може да се очаква от оператора, следва да бъде съизмерима с: i) естеството на системата с ИИ; ii) защитеното от закона право, което може да бъде засегнато; iii) потенциалните вреди, които системата с ИИ би могла да причини; и iv) вероятността от такива вреди. При това следва да се има предвид, че операторът може да има ограничени познания за алгоритмите и данните, използвани в системата с ИИ. Следва да се приеме, че операторът е положил дължимата грижа, която разумно може да се очаква от него при избора на подходяща система с ИИ, ако той е избрал система с ИИ, сертифицирана съгласно схема, подобна на доброволната схема за сертифициране, предвидена от Комисията (5). Следва да се приеме, че при експлоатацията на системата с ИИ операторът е положил дължимата грижа, която разумно може да се очаква от него, ако операторът може да докаже, че действително и редовно е контролирал системата с ИИ по време на нейната експлоатация и е уведомил производителя за потенциални нередности по време на експлоатацията. Следва да се приеме, че операторът е положил дължимата грижа, която разумно може да се очаква от него по отношение на поддържането на оперативната надеждност, ако операторът е инсталирал всички налични актуализации, предоставени от производителя на системата с ИИ. Тъй като нивото на познания на операторите може да варира в зависимост от това дали те са само потребители или са професионалисти, задълженията за полагане на грижи следва да бъдат съответно адаптирани.

(19)

За да може операторът да докаже, че няма вина, или за да може засегнатото лице да докаже наличието на вина, производителите следва да са задължени да сътрудничат с двете засегнати страни, включително и като предоставят добре документирана информация. Освен това както производителите със седалище в Съюза, така и производителите, чието седалище не се намира в Съюза, следва да са задължени да определят представител по въпросите на отговорността, свързана с ИИ, в рамките на Съюза като звено за контакт, което да отговаря на всички запитвания от страна на операторите, по подобен начин на предвиденото за длъжностните лица по защита на данните съгласно член 37 от Регламент (ЕС) 2016/679 на Европейския парламент и на Съвета (6), за представителя на производителя съгласно член 3, параграф 41 и член 13, параграф 4 от Регламент (ЕС) 2018/858 на Европейския парламент и на Съвета (7), както и за упълномощения представител съгласно член 4, параграф 2 и член 5 от Регламент (ЕС) 2019/1020 на Европейския парламент и на Съвета (8).

(20)

Законодателят трябва да отчита рисковете от възникване на отговорност във връзка със системите с ИИ по време на целия им жизнен цикъл — от разработването до използването и края на експлоатационния им период, включително управлението на отпадъците и рециклирането. Включването на системи с ИИ в даден продукт или услуга представлява финансов риск за предприятията и следователно ще окаже сериозно въздействие върху капацитета и възможностите и вариантите, с които МСП, както и стартиращите предприятия разполагат по отношение на застраховането и финансирането на базираните си на нови технологии научноизследователски и развойни проекти. Следователно целта на отговорността е не само да се гарантират важни защитени от закона права на физическите лица, но и да се определи дали предприятията, и особено МСП и стартиращите предприятия, са в състояние да набират капитал, да правят иновации, научни изследвания и в крайна сметка да предлагат нови продукти и услуги, както и дали клиентите имат доверие в такива продукти и услуги и са склонни да ги използват въпреки потенциалните рискове и съдебни искове, свързани с такива продукти и услуги.

(21)

Застраховката може да помогне да се гарантира, че увредените лица получават ефективно обезщетение, както и да се обединят рисковете на всички застраховани лица. Един от факторите, на който застрахователните дружества базират своето предлагане на застрахователни продукти и услуги, е оценката на риска въз основа на достъпа до достатъчно данни за минали периоди относно предявените претенции. Липсата на достъп до висококачествени данни или недостатъчното им количество би могло да е една от причините, поради която създаването на застрахователни продукти за нови и нововъзникващи технологии е трудно в началото. При все това, по-големият достъп до генерираните от новите технологии данни и оптимизирането на тяхното използване, в съчетание със задължение за предоставяне на добре документирана информация, ще повишат способността на застрахователите да моделират нововъзникващия риск и да насърчат разработването на по-иновативно покритие.

(22)

Като се има предвид, че липсват исторически данни за претенциите, следва да се проучи как и при какви условия отговорността може да се застрахова, за да се обвърже застраховката с продукта, а не с отговорното лице. Вече съществуват застрахователни продукти, които са разработени по области и покрития, успоредно с развитието на технологиите. Много застрахователи се специализират в определени пазарни сегменти (например МСП) или в осигуряването на покритие за определени видове продукти (например електрически изделия), което означава, че обикновено ще има наличен застрахователен продукт за застрахованото лице. Трудно е обаче да се предвиди универсално решение, а застрахователният пазар ще има нужда от време, за да се приспособи. Комисията следва да работи в тясно сътрудничество със застрахователния пазар, за да се разработят иновативни застрахователни продукти, които биха могли да запълнят липсата на адекватни застраховки. В изключителни случаи, например при събитие, водещо до колективни вреди, при които обезщетението значително надвишава максималните размери, определени в настоящия регламент, държавите членки следва да бъдат насърчени да създадат за ограничен период от време специален фонд за обезщетения, с който да се посрещнат специфичните нужди в тези случаи. Могат да бъдат създадени и специални фондове за обезщетение, които да покриват изключителните случаи, в които система с ИИ, която все още не е класифицирана като високорискова система с ИИ и следователно все още не е застрахована, причинява вреди. За да се гарантира правна сигурност и да се изпълни задължението за информиране на всички потенциално засегнати лица, съществуването на специалния фонд за обезщетение, както и условията за неговото използване, следва да бъдат оповестени по ясен и изчерпателен начин.

(23)

Изключително важно е всички бъдещи промени в настоящия регламент да бъдат съпроводени от необходимото преразглеждане на Директивата за отговорността за вреди, причинени от дефект на стокa, за да се направи всеобхватен и последователен преглед и да се гарантират правата и задълженията на всички заинтересовани лица по цялата верига на отговорност. Въвеждането на нов режим на отговорност за оператора на системи с ИИ изисква разпоредбите на настоящия регламент и преразглеждането на Директивата за отговорността за вреди, причинени от дефект на стокa, да бъдат тясно координирани от гледна точка на съдържанието и подхода, така че заедно да представляват съгласувана уредба относно отговорността за системите с ИИ, която постига баланс между интересите на производителя, оператора, потребителя и засегнатото лице по отношение на риска от възникване на отговорност и съответните условия за обезщетение. Поради това е необходимо да се адаптират и рационализират определенията за система с ИИ, фронтенд оператор, бекенд оператор, производител, дефект, продукт и услуга във всички законодателни актове и те следва да бъдат предвидени паралелно.

(24)

Целите на настоящия регламент, а именно създаване на ориентиран към бъдещето единен подход на равнището на Съюза, който установява общи европейски стандарти за европейските граждани и предприятия, за да се гарантира съгласуваност на правата и правна сигурност в целия Съюз и да се избегне фрагментирането на цифровия единен пазар, което би възпрепятствало постигането на целта за запазване на цифровия суверенитет, за насърчаване на цифровите иновации в Европа и за постигане на високо равнище на защита на гражданите и на правата на потребителите, изискват пълно хармонизиране на режимите на отговорност за системите с ИИ. Доколкото това не може да бъде постигнато в достатъчна степен от държавите членки поради бързите технологични промени, трансграничното развитие, използването на системите с ИИ и в крайна сметка — противоречащите си законодателни подходи в Съюза, но поради обхвата или последиците от действието може по-скоро да бъде постигнато на равнището на Съюза, Съюзът може да приеме мерки в съответствие с принципа на субсидиарност, уреден в член 5 от Договора за Европейския съюз. В съответствие с принципа на пропорционалност, уреден в същия член, настоящият регламент не надхвърля необходимото за постигането на тези цели,

ПРИЕXA НАСТОЯЩИЯ РЕГЛАМЕНТ:

ГЛАВА I

ОБЩИ РАЗПОРЕДБИ

Член 1

Предмет

В настоящия регламент се определят правила за претенциите за гражданска отговорност на физически и юридически лица срещу оператори на системи с ИИ.

Член 2

Обхват

1.   Настоящият регламент се прилага на територията на Съюза, когато в резултат на физическа или виртуална дейност, устройство или процес, задвижван от система с ИИ, е причинена вреда на живота, здравето, физическата неприкосновеност на физическо лице, на имуществото на физическо или юридическо лице или е причинена значителна неимуществена вреда, която е довела до проверима икономическа загуба.

2.   Всяко споразумение между оператор на система с ИИ и физическо или юридическо лице, претърпяло вреда заради тази система, което заобикаля или ограничава предвидените в настоящия регламент права и задължения, сключено преди или след причиняването на вредата, се счита за недействително по отношение на права и задължения, предвидени в настоящия регламент.

3.   Настоящият регламент не засяга евентуалните допълнителни претенции за отговорност, произтичащи от договорни отношения, както и от разпоредби относно отговорността за вреди, причинени от дефект на стока, защитата на потребителите, борбата с дискриминацията, труда и опазването на околната среда, между оператора и физическото или юридическото лице, което е претърпяло вреда заради системата с ИИ, и за които може да се предяви иск срещу оператора съгласно правото на Съюза или националното право.

Член 3

Определения

За целите на настоящия регламент се прилагат следните определения:

а)

„система с ИИ“ означава система, която е базирана на софтуер или е вградена в хардуерни устройства и проявява поведение, наподобяващо интелект, като inter alia събира и обработва данни, анализира и тълкува заобикалящата я среда и като предприема действия с известна степен на автономност за постигането на конкретни цели;

б)

„автономна“ означава система с ИИ, която функционира чрез тълкуване на определени входящи данни и чрез използване на набор от предварително определени инструкции, без да се ограничава до такива инструкции, въпреки че поведението на системата е ограничено от и е насочено към изпълнение на целта, която ѝ е била зададена, и други съответни проектни решения, взети от разработчика;

в)

„висок риск“ означава значителен потенциал на автономно функционираща система с ИИ да причини вреда на едно или повече лица по начин, който е случаен и надхвърля това, което разумно може да се очаква; значимостта на потенциала зависи от взаимодействието между сериозността на възможната вреда, степента на автономност на вземане на решения, вероятността от настъпване на риска и начина и контекста на използване на системата с ИИ;

г)

„оператор“ означава както фронтенд оператор, така и бекенд оператор, при условие че отговорността на последния не е вече уредена съгласно Директива 85/374/ЕИО;

д)

„фронтенд оператор“ означава всяко физическо или юридическо лице, което упражнява определен контрол върху риск, свързан с експлоатацията и функционирането на системата с ИИ, и което извлича ползи от нейната експлоатация;

е)

„бекенд оператор“ означава всяко физическо или юридическо лице, което постоянно определя характеристиките на технологията и предоставя данни и основни бекенд помощни услуги и следователно също така упражнява известен контрол върху риска, свързан с експлоатацията и функционирането на системата с ИИ;

ж)

„контрол“ означава всяко действие на оператор, което влияе върху експлоатацията на система с ИИ и следователно върху това до каква степен операторът излага трети страни на потенциалните рискове, свързани с експлоатацията и функционирането на системата с ИИ; подобно действие може да окаже влияние върху експлоатацията на всеки етап чрез определяне на входящите данни, изходящите данни или резултатите, или да промени специфични функции или процеси в рамките на системата с ИИ; степента, в която действието определя тези аспекти на експлоатацията на системата с ИИ, зависи от степента на влияние на оператора върху риска, свързан с експлоатацията и функционирането на системата с ИИ;

з)

„засегнато лице“ означава всяко лице, което търпи вреда, причинена от физическа или виртуална дейност, устройство или процес, задвижван от система с ИИ, и което не е оператор на тази система;

и)

„вреда“ означава неблагоприятно въздействие, което засяга живота, здравето, физическата неприкосновеност на физическо лице, имуществото на физическо или юридическо лице или което причинява неимуществена вреда, водеща до проверима икономическа загуба;

й)

„производител“ означава производител по смисъла на член 3 от Директива 85/374/ЕИО.

ГЛАВА II

ВИСОКОРИСКОВИ СИСТЕМИ С ИИ

Член 4

Обективна отговорност за високорискови системи с ИИ

1.   Операторът на високорискова система с ИИ носи обективна отговорност за всяка вреда, която е причинена от физическа или виртуална дейност, устройство или процес, задвижван от система с ИИ.

2.   Всички високорискови системи с ИИ, както и всички критични сектори, в които се използват, са изброени в приложението към настоящия регламент. На Комисията се предоставя правомощието да приема делегирани актове в съответствие с член 13 за изменение на изчерпателния списък, като:

а)

включва нови видове високорискови системи с ИИ и критичните сектори, в които са внедрени;

б)

заличава видовете системи с ИИ, за които вече не може да се счита, че представляват висок риск; и/или

в)

променя критичните сектори за съществуващите високорискови системи с ИИ.

Всеки делегиран акт за изменение на приложението влиза в сила шест месеца след приемането му. При определянето на нови високорискови системи с ИИ и/или критични сектори, които да бъдат включени чрез делегирани актове в приложението, Комисията взема изцяло предвид критериите, посочени в настоящия регламент, и по-специално критериите, посочени в член 3, буква в).

3.   Операторите на високорискови системи с ИИ не може да се освобождават от отговорност, като твърдят, че са действали с дължимата грижа или че вредата е причинена от автономна дейност, устройство или процес, задвижван от тяхната система с ИИ. Операторите не носят отговорност, ако вредата е причинена от непреодолима сила.

4.   Фронтенд операторът на високорискова система с ИИ гарантира, че операциите на тази система с ИИ са покрити от застраховка за гражданска отговорност, чието покритие е адекватно спрямо размера и обхвата на обезщетението, предвидено в членове 5 и 6 от настоящия регламент. Бекенд операторът гарантира, че неговите услуги са покрити от застраховка за професионална отговорност или застраховка за отговорност за продукта, чието покритие е адекватно спрямо размера и обхвата на обезщетението, предвидено в членове 5 и 6 от настоящия регламент. Ако се счита, че режимите за задължителна застраховка за фронтенд или бекенд оператора, които вече са в сила съгласно друго законодателство на Съюза или национално законодателство или чрез съществуващи доброволни фондове за корпоративно застраховане, покриват експлоатацията на системата с ИИ или предоставената услуга, задължението за сключване на застраховка за системата с ИИ или за предоставената услуга съгласно настоящия регламент се счита за изпълнено, ако съответната съществуваща задължителна застраховка или доброволните фондове за корпоративно застраховане покриват размера и обхвата на обезщетението, предвидено в членове 5 и 6 от настоящия регламент.

5.   Настоящият регламент има предимство пред националните режими на отговорност в случай на противоречаща класификация на обективната отговорност на системите с ИИ.

Член 5

Размер на обезщетението

1.   Операторът на високорискова система с ИИ, който носи отговорност за вреда съгласно настоящия регламент, обезщетява:

а)

до максимален размер от два милиона евро в случай на смърт на засегнато лице или в случай на вреда, причинена на здравето или физическата неприкосновеност на засегнато лице вследствие на операция на високорискова система с ИИ;

б)

до максимален размер от един милион евро в случай на значителна неимуществена вреда, която води до проверима икономическа загуба, или вреда, причинена на имуществото, включително когато са причинени вреди на няколко вещи на едно лице вследствие на една-единствена операция на една-единствена високорискова система с ИИ; когато засегнатото лице предявява също така и претенция за договорна отговорност срещу оператора, не се изплаща обезщетение съгласно настоящия регламент, ако общият размер на имуществените вреди или на значителната неимуществена вреда е под [500 EUR] (9).

2.   Когато комбинираното обезщетение, което трябва да бъде изплатено на няколко лица, които са претърпели вреда, причинена от една и съща операция на една и съща високорискова система с ИИ, надвишава предвидените в параграф 1 максимални общи размери, сумите, които трябва да бъдат изплатени на всяко лице, се намаляват пропорционално, така че комбинираното обезщетение да не надвишава максималните размери, посочени в параграф 1.

Член 6

Обхват на обезщетението

1.   В рамките на размера, посочен в член 5, параграф 1, буква а), дължимото обезщетение от оператора, който носи отговорност в случай на телесно увреждане, последвано от смъртта на засегнатото лице, се изчислява въз основа на разходите за медицинско лечение, което засегнатото лице е преминало преди смъртта си, както и на имуществените вреди, претърпени преди смъртта в резултат на загубата или намаляването на работоспособността му или увеличаването на нуждите му за периода на увреждането преди настъпването на смъртта. Операторът, който носи отговорност, също така възстановява разходите за погребението на починалото засегнато лице на лицето, което е отговорно за покриването на тези разноски.

Ако в момента на злополуката, която е причинила увреждането, довело до неговата смърт, засегнатото лице е имало връзка с трето лице и правно задължение да го издържа, операторът, който носи отговорност, обезщетява третото лице, като плаща издръжка до размера, в който засегнатото лице е щяло да бъде задължено да плати за периода, съответстващ на средната продължителност на живота на лице с неговата възраст и общо описание. Операторът също така обезщетява третото лице, ако по време на злополуката, която е причинила смъртта, третото лице е било заченато, но все още не е било родено.

2.   В рамките на размера, посочен в член 5, параграф 1, буква б), дължимото обезщетение от оператора, който носи отговорност в случай на причиняване на вреда на здравето или физическата неприкосновеност на засегнатото лице, включва възстановяването на разходите за съответното медицинско лечение, както и изплащането на евентуални имуществени вреди, претърпени от засегнатото лице в резултат на временната му неработоспособност, намаляването или трайната загуба на работоспособността му или последващото медицински удостоверено увеличаване на неговите нужди.

Член 7

Давностен срок

1.   За претенциите за гражданска отговорност, предявени в съответствие с член 4, параграф 1 за вреда за живота, здравето или физическата неприкосновеност, се прилага специален давностен срок от 30 години от датата, на която е настъпила вредата.

2.   За претенциите за гражданска отговорност, предявени в съответствие с член 4, параграф 1 за имуществени вреди или за значителни неимуществени вреди, които водят до проверима икономическа загуба, се прилага специален давностен срок от:

а)

10 години от датата, на която са настъпили имуществените вреди или проверимата икономическа загуба, произтичаща съответно от значителната неимуществена вреда, или

б)

30 години от датата, на която е извършена операцията на високорисковата система с ИИ, която впоследствие е причинила имуществената вреда или неимуществената вреда.

От посочените в първа алинея срокове се прилага срокът, който изтича първи.

3.   Настоящият член не засяга националното законодателство, което урежда спирането или прекъсването на давностните срокове.

ГЛАВА III

ДРУГИ СИСТЕМИ С ИИ

Член 8

Виновна отговорност за други системи с ИИ

1.   Операторът на система с ИИ, която не представлява високорискова система с ИИ съгласно определението в член 3, буква в) и член 4, параграф 2 и вследствие на това не фигурира в приложението към настоящия регламент, подлежи на виновна отговорност за всяка вреда, причинена от физическа или виртуална дейност, устройство или процес, задвижван от системата с ИИ.

2.   Операторът не носи отговорност, ако може да докаже, че вредата не е причинена по негова вина, позовавайки се на някое от следните основания:

а)

системата с ИИ е задействана без негово знание, а същевременно са взети всички разумни и необходими мерки, за да се избегне такова задействане извън контрола на оператора, или

б)

положена е дължимата грижа, като са изпълнени следните действия: избиране на подходяща система с ИИ за правилните задачи и умения, надлежно въвеждане на системата с ИИ в експлоатация, наблюдение на дейностите и поддържане на оперативната надеждност чрез редовно инсталиране на всички налични актуализации.

Операторът не може да избегне отговорността, като твърди, че вредата е причинена от автономна дейност, устройство или процес, задвижван от неговата система с ИИ. Операторът не носи отговорност, ако вредата е причинена от непреодолима сила.

3.   Когато вредата е причинена от трето лице, което е манипулирало системата с ИИ, променяйки нейния начин на функциониране или нейните последици, операторът въпреки това носи отговорност за изплащането на обезщетение, ако въпросното трето лице е непроследимо или не разполага със средства.

4.   По искане на оператора или на засегнатото лице производителят на система с ИИ е длъжен да си сътрудничи с тях или да им предоставя информация, доколкото е обосновано от значимостта на претенцията, за да може да се даде възможност за установяване на отговорността.

Член 9

Национални разпоредби относно обезщетението и давностния срок

По отношение на давностните срокове, размера и обхвата на обезщетението претенциите за гражданска отговорност, предявени в съответствие с член 8, параграф 1, подлежат на законите на държавата членка, в която е настъпила вредата.

ГЛАВА IV

РАЗПРЕДЕЛЕНИЕ НА ОТГОВОРНОСТТА

Член 10

Съпричиняване

1.   Ако вредата е причинена както от физическа или виртуална дейност, устройство или процес, задвижван от система с ИИ, така и от действията на засегнатото лице или всяко лице, за което засегнатото лице е отговорно, размерът на отговорността на оператора по настоящия регламент съответно се намалява. Операторът не носи отговорност, ако засегнатото лице или лицето, за което то е отговорно, е единствено отговорно за причинената вреда.

2.   Операторът, който носи отговорност, може да използва генерираните от системата с ИИ данни, за да докаже съпричиняване от страна на засегнатото лице в съответствие с Регламент (ЕС) 2016/679 и друго относимо законодателство в областта на защитата на данните. Засегнатото лице може също да използва тези данни като доказателство или пояснение в претенцията за отговорност.

Член 11

Солидарна отговорност

Ако има повече от един оператор на дадена система с ИИ, те са солидарно отговорни. Ако фронтенд оператор е и производителят на системата с ИИ, настоящият регламент има предимство пред Директивата за отговорността за вреди, причинени от дефект на стока. Ако бекенд операторът отговаря и на определението за „производител“ съгласно член 3 от Директивата за отговорността за вредите, причинени от дефект на стокa, тази директива следва да се прилага за него. Ако има само един оператор и той е също така производителят на системата с ИИ, настоящият регламент има предимство пред Директивата за отговорността за вредите, причинени от дефект на стокa.

Член 12

Регресен иск за обезщетение

1.   Операторът няма право да предявява регресен иск, освен ако засегнатото лице е получило в пълен размер обезщетението, на което има право съгласно настоящия регламент.

2.   В случай че операторът е солидарно отговорен с други оператори по отношение на засегнатото лице и е обезщетил в пълен размер въпросното лице в съответствие с член 4, параграф 1 или член 8, параграф 1, то той може да си възстанови част от обезщетението от другите оператори, пропорционално на отговорността си.

Пропорциите на отговорността се основават на съответните степени на контрол, които операторите са имали върху риска, свързан с експлоатацията и функционирането на системата с ИИ. Ако дължимото от солидарно отговорния оператор плащане не може да бъде получено от него, разликата се поема от другите оператори. Доколкото солидарно отговорният оператор обезщети засегнатото лице и изиска корекция на авансовите си плащания от другите отговорни оператори, той встъпва в правата на засегнатото лице по отношение на предявената срещу другите оператори претенция. Суброгацията на претенциите не се извършва в ущърб на първоначалната претенция.

3.   В случай че операторът на неизправна система с ИИ обезщети в пълен размер засегнатото лице за вреда в съответствие с член 4, параграф 1 или член 8, параграф 1 от настоящия регламент, той може да предприеме действия за правна защита срещу производителя на неизправната система с ИИ съгласно Директива 85/374/ЕИО и националните разпоредби относно отговорността за вреди, причинени от дефект на стока.

4.   В случай че застрахователят на оператора обезщети засегнатото лице за вреда в съответствие с член 4, параграф 1 или член 8, параграф 1, застрахователят на оператора встъпва в правата на засегнатото лице по отношение на всяка претенция за гражданска отговорност, предявена срещу друго лице за същата вреда, до размера, в който застрахователят на оператора е обезщетил засегнатото лице.

ГЛАВА V

ЗАКЛЮЧИТЕЛНИ РАЗПОРЕДБИ

Член 13

Упражняване на делегирането

1.   Правомощието да приема делегирани актове се предоставя на Комисията при спазване на предвидените в настоящия член условия.

2.   Правомощието да приема делегирани актове, посочено в член 4, параграф 2, се предоставя на Комисията за срок от пет години, считано от [датата на прилагане на настоящия регламент].

3.   Делегирането на правомощия, посочено в член 4, параграф 2, може да бъде оттеглено по всяко време от Европейския парламент или от Съвета. С решението за оттегляне се прекратява посоченото в него делегиране на правомощия. Оттеглянето поражда действие в деня след публикуването на решението в Официален вестник на Европейския съюз или на по-късна дата, посочена в решението. То не засяга действителността на делегираните актове, които вече са в сила.

4.   Преди приемането на делегиран акт Комисията се консултира с постоянния Технически комитет за високорискови системи с ИИ (TCRAI) в съответствие с принципите, заложени в Междуинституционалното споразумение от 13 април 2016 г. за по-добро законотворчество.

5.   Веднага след като приеме делегиран акт, Комисията нотифицира акта едновременно на Европейския парламент и на Съвета.

6.   Делегиран акт, приет съгласно член 4, параграф 2, влиза в сила единствено ако нито Европейският парламент, нито Съветът са представили възражения в срок от два месеца след нотифицирането или ако преди изтичането на този срок и Европейският парламент, и Съветът са уведомили Комисията, че няма да представят възражения. Посоченият срок се удължава с два месеца по инициатива на Европейския парламент или на Съвета.

Член 14

Преглед

Най-късно до 1 януари 202X г. [3 години след датата на прилагане на настоящия регламент] и на всеки три години след това Комисията представя на Европейския парламент, на Съвета и на Европейския икономически и социален комитет подробен доклад за преглед на настоящия регламент с оглед на по-нататъшното развитие на изкуствения интелект.

При изготвянето на доклада, посочен в първа алинея, Комисията изисква съответната информация от държавите членки относно съдебната практика и съдебните спогодби, както и статистически данни за злополуките, като например броя на злополуките, причинените вреди, приложенията на ИИ, за които става въпрос, и изплатените от застрахователните дружества обезщетения, но също така и оценка на броя искове, предявени от засегнати лица, индивидуално или колективно, и на сроковете, в които тези искове са разгледани в съда.

Когато е целесъобразно, докладът на Комисията се придружава от законодателни предложения с цел да се отстранят установените в доклада пропуски.

Член 15

Влизане в сила

Настоящият регламент влиза в сила на двадесетия ден след публикуването му в Официален вестник на Европейския съюз.

Той се прилага от 1 януари 202X г.

Настоящият регламент е задължителен в своята цялост и се прилага пряко в държавите членки.

Съставено в …

За Европейския парламент

Председател

За Съвета

Председател

ПРИЛОЖЕНИЕ

[…]


(1)  ОВ …

(2)  ОВ …

(3)  Директива 85/374/ЕИО на Съвета от 25 юли 1985 г. за сближаване на законовите, подзаконовите и административните разпоредби на държавите членки относно отговорността за вреди, причинени от дефект на стока (ОВ L 210, 7.8.1985 г., стр. 29).

(4)  ОВ L 123, 12.5.2016 г., стр. 1.

(5)  Вж. стр. 24 от Бялата книга на Комисията от 19 февруари 2020 г., озаглавена „Бяла книга за изкуствения интелект — Европа в търсене на високи постижения и атмосфера на доверие“ (COM(2020)0065),

(6)  Регламент (ЕС) 2016/679 на Европейския парламент и на Съвета от 27 април 2016 г. относно защитата на физическите лица във връзка с обработването на лични данни и относно свободното движение на такива данни и за отмяна на Директива 95/46/EО (Общ регламент относно защитата на данните) (ОВ L 119, 4.5.2016 г., стр. 1).

(7)  Регламент (ЕС) 2018/858 на Европейския парламент и на Съвета от 30 май 2018 г. относно одобряването и надзора на пазара на моторни превозни средства и техните ремаркета, както и на системи, компоненти и отделни технически възли, предназначени за такива превозни средства, за изменение на регламенти (ЕО) № 715/2007 и (ЕО) № 595/2009 и за отмяна на Директива 2007/46/ЕО (ОВ L 151, 14.6.2018 г., стр. 1).

(8)  Регламент (ЕС) 2019/1020 на Европейския парламент и на Съвета от 20 юни 2019 г. относно надзора на пазара и съответствието на продуктите и за изменение на Директива 2004/42/ЕО и регламенти (ЕО) № 765/2008 и (ЕС) № 305/2011 (OB L 169, 25.6.2019 г., стр. 1).

(9)  Сумата да бъде коригирана от Комисията, както е посочено в параграф 19 от резолюцията.


Top