Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52022PC0496

    Предложение за ДИРЕКТИВА НА ЕВРОПЕЙСКИЯ ПАРЛАМЕНТ И НА СЪВЕТА за адаптиране на правилата за извъндоговорна гражданска отговорност към изкуствения интелект (Директива относно отговорността във връзка с ИИ)

    COM/2022/496 final

    Брюксел, 28.9.2022

    COM(2022) 496 final

    2022/0303(COD)

    Предложение за

    ДИРЕКТИВА НА ЕВРОПЕЙСКИЯ ПАРЛАМЕНТ И НА СЪВЕТА

    за адаптиране на правилата за извъндоговорна гражданска отговорност към изкуствения интелект
    (Директива относно отговорността във връзка с ИИ)

    (текст от значение за ЕИП)

    {SEC(2022) 344 final} - {SWD(2022) 318 final} - {SWD(2022) 319 final} - {SWD(2022) 320 final}


    ОБЯСНИТЕЛЕН МЕМОРАНДУМ

    1.КОНТЕКСТ НА ПРЕДЛОЖЕНИЕТО

    ·Основания и цели на предложението

    Настоящият обяснителен меморандум придружава предложението за Директива за адаптиране на правилата за извъндоговорна гражданска отговорност към изкуствения интелект (ИИ). В представително проучване от 2020 г. 1 отговорността се нарежда сред трите най-големи пречки пред използването на ИИ от европейските дружества. Тя е посочена като най-значимата външна пречка (43 %) за дружествата, които обмислят да въведат ИИ, но все още не са го направили.

    В своите политически насоки председателят на Комисията Урсула фон дер Лайен изложи координиран европейски подход към ИИ 2 . В своята Бяла книга за ИИ от 19 февруари 2020 г. 3 Комисията се ангажира да насърчава навлизането на ИИ и да се справя с рисковете, свързани с някои от неговите приложения, като насърчава високите постижения и атмосферата на доверие. В Доклада относно отговорността за ИИ 4 , придружаващ Бялата книга, Комисията определи специфичните предизвикателства, които ИИ поставя пред съществуващите правила за отговорност. В заключенията си от 9 юни 2020 г. относно изграждането на цифровото бъдеще на Европа Съветът приветства консултациите относно предложенията за политики в Бялата книга за ИИ и призова Комисията да представи конкретни предложения. На 20 октомври 2020 г. Европейският парламент прие законодателна резолюция по собствена инициатива съгласно член 225 от ДФЕС с искане към Комисията да приеме предложение за режим на гражданска отговорност за ИИ на основание член 114 от Договора за функционирането на ЕС (ДФЕС) 5 .

    Действащите национални правила за отговорност, по-специално за виновна отговорност, не са пригодни за разглеждането на искове за отговорност за вреди, причинени от продукти и услуги, използващи ИИ. По силата на тези правила пострадалите трябва да докажат неправомерно действие или бездействие на лицето, причинило вредата. Специфичните характеристики на ИИ, включително сложността, автономността и непрозрачността (т.нар. ефект на „черната кутия“), могат да направят трудно или възпрепятстващо скъпо за пострадалите да установят отговорното лице и да докажат изискванията за успешен иск за отговорност. По-специално, когато предявят иск за обезщетение, пострадалите може да понесат много високи първоначални разходи и да бъдат изправени пред значително по-продължителни съдебни производства в сравнение със случаите, които не са свързани с ИИ. Следователно пострадалите може изцяло да бъдат разколебани да предявят иск за обезщетение. Тези опасения се поддържат и от Европейския парламент (ЕП) в неговата резолюция от 3 май 2022 г. относно изкуствения интелект в цифровата ера.  6

    Ако пострадалият предяви иск, националните съдилища, изправени пред специфичните характеристики на ИИ, могат да адаптират начина, по който прилагат съществуващите правила, на ad hoc принцип, за да постигнат справедлив за пострадалия резултат. Това ще доведе до правна несигурност. За предприятията ще бъде трудно да предвидят как ще бъдат приложени съществуващите правила за отговорност, а следователно и да оценят и обезпечат своя риск от понасяне на отговорност. Ефектът ще бъде още по-голям за предприятията, извършващи трансгранична търговия, тъй като несигурността ще обхване различни юрисдикции. Това ще засегне по-специално малките и средните предприятия (МСП), които не могат да разчитат на вътрешен юридически експертен опит или капиталови резерви.

    От националните стратегии за ИИ е видно, че няколко държави членки обмислят или дори конкретно планират законодателни действия във връзка с гражданската отговорност за ИИ. Поради това се очаква, че ако ЕС не предприеме действия, то държавите членки ще адаптират своите национални правила за отговорност към предизвикателствата, свързани с ИИ. Това ще доведе до допълнително фрагментиране и увеличаване на разходите за предприятията, осъществяващи дейност в целия ЕС.

    Разгледаните по-горе проблеми бяха потвърдени при откритата обществена консултация, на която се основава оценката на въздействието на настоящото предложение. Според обществеността ефектът на „черната кутия“ може да затрудни пострадалия при доказването на вината и причинно-следствената връзка и може да има несигурност относно начина, по който съдилищата ще тълкуват и прилагат съществуващите национални правила за отговорност в случаи, свързани с ИИ. Освен това се демонстрира обществена загриженост относно начина, по който инициираните от отделните държави членки законодателни действия за адаптиране на правилата за отговорност, както и произтичащото от това фрагментиране, биха се отразили на разходите на дружествата, особено в случая на МСП, като така биха възпрепятствали навлизането на ИИ в целия Съюз.

    Следователно целта на настоящото предложение е да се насърчи внедряването на надежден изкуствен интелект, за да се извлекат всички ползи от него за вътрешния пазар. Това се постига, като се гарантира, че пострадалите, претърпели вреди, причинени от ИИ, получават защита, равностойна на тази, която получават пострадалите, претърпели вреди, причинени от продукти като цяло. Също така се намалява правната несигурност за предприятията, които разработват или използват ИИ, по отношение на евентуалния им риск от понасяне на отговорност и се предотвратява появата на фрагментирани, специфични за ИИ адаптации на националните правила за гражданска отговорност.

    ·Съгласуваност с действащите разпоредби в тази област на политиката

    Настоящото предложение е част от пакет от мерки в подкрепа на внедряването на ИИ в Европа чрез насърчаване на високите постижения и атмосферата на доверие. Този пакет се състои от три допълващи се работни направления:

    законодателно предложение за определяне на хоризонтални правила относно системите с изкуствен интелект (Законодателен акт за изкуствения интелект) 7 ;

    преразглеждане на секторните и хоризонталните правила за безопасност на продуктите;

    правила на ЕС за решаване на въпроси относно отговорността, свързани със системите с ИИ.

    В предложението за Законодателен акт за изкуствения интелект Комисията предложи правила, които имат за цел намаляване на рисковете за безопасността и защита на основните права. Безопасността и отговорността са двете страни на една и съща монета: те се прилагат в различни моменти и взаимно се подсилват. Въпреки че правилата за гарантиране на безопасността и защита на основните права ще намалят рисковете, те не отстраняват напълно тези рискове 8 . Когато такъв риск се осъществи, могат да настъпят и вреди. В такива случаи ще се прилагат правилата за отговорност, включени в настоящото предложение.

    Ефективните правила за отговорност също така предоставят икономически стимул за спазване на правилата за безопасност и по този начин допринасят за предотвратяване на настъпването на вреди 9 . Освен това с настоящото предложение се допринася за прилагането на наложените със Законодателния акт за изкуствения интелект изисквания за високорисковите системи с ИИ, тъй като неспазването на тези изисквания представлява важен елемент за облекчаване на тежестта на доказване. Настоящото предложение е в съответствие и с предложените общи 10 и секторни правила за безопасност на продуктите, приложими за използващите ИИ машиностроителни изделия 11 и радиосъоръжения 12 .

    В своята политика в областта на ИИ Комисията възприема цялостен подход спрямо отговорността, като предлага адаптиране на отговорността на производителя за вреди, причинени от дефект на стока, по смисъла на Директивата относно отговорността за вреди, причинени от дефект на стока, както и целенасочено хармонизиране съгласно настоящото предложение. Тези две политически инициативи са тясно свързани и образуват пакет, тъй като исковете, попадащи в техния обхват, се отнасят до различни видове отговорност. Директивата относно отговорността за вреди, причинени от дефект на стока, обхваща безвиновната отговорност на производителя за вреди, причинени от дефект на стока, която води до обезщетение за определени видове вреди, понесени главно от физически лица. Настоящото предложение обхваща националните искове за отговорност, които се основават главно на вината на което и да е лице с оглед на обезщетяването на всякакъв вид вреди и всякакъв вид пострадали. Те се допълват взаимно, като образуват цялостна ефективна система за гражданска отговорност.

    С тези правила в тяхната съвкупност ще се насърчи доверието в ИИ (и други цифрови технологии), като се гарантира, че ако въпреки превантивните изисквания съгласно Законодателния акт за изкуствения интелект и други правила за безопасност настъпят вреди, пострадалите ще получат ефективно обезщетение.

    ·Съгласуваност с други политики на Съюза

    Предложението е съгласувано с цялостната цифрова стратегия на Съюза, тъй като допринася за насърчаване на технологиите, които работят за хората — един от трите основни стълба на насоката и целите на политиката, обявени в съобщението на Комисията „Изграждане на цифровото бъдеще на Европа“ 13 .

    В този контекст целта на настоящото предложение е да се изгради доверие в ИИ и да се разшири неговото навлизане. По този начин ще се постигнат полезни взаимодействия и ще се допълни [Законодателният акт за киберустойчивост] 14 , който също има за цел да се повиши доверието в продуктите с цифрови елементи чрез намаляване на уязвимите места по отношение на киберсигурността и да се подобри защитата за бизнес ползвателите и потребителите.

    Настоящото предложение не засяга правилата, определени в [Законодателния акт за цифровите услуги], с които се предвижда всеобхватна и напълно хармонизирана рамка за задълженията за дължима грижа за вземането на решения от онлайн платформи въз основа на алгоритми, включително за освобождаването от отговорност на доставчиците на посреднически услуги.

    Освен това, като насърчава внедряването на ИИ, настоящото предложение има връзка с инициативите в рамките на стратегията на ЕС за данните 15 . С него също така се засилва ролята на Съюза в подкрепа на създаването на световни норми и стандарти и за насърчаване на надежден изкуствен интелект, който е в съответствие с ценностите и интересите на Съюза.

    Предложението е косвено свързано и с Европейския зелен пакт 16 . По-специално, цифровите технологии, включително ИИ, са решаващ фактор за постигане на целите за устойчивост на Зеления пакт в много различни сектори (в това число здравеопазване, транспорт, околна среда и земеделие).

    ·Основни икономически, социални и екологични последици

    Директивата ще допринесе за внедряването на ИИ. Условията за внедряване и разработване на технологии с ИИ на вътрешния пазар могат да бъдат значително подобрени, като се предотврати фрагментирането и се повиши правната сигурност посредством хармонизирани мерки на равнището на ЕС, в сравнение с евентуалното адаптиране на правилата за отговорност на национално равнище. В икономическото проучване 17 , на което се основава оценката на въздействието на настоящото предложение, се стига до заключението, че — като консервативна прогноза — целенасочените мерки за хармонизиране на гражданската отговорност за ИИ биха имали положително въздействие в размер на 5—7 % върху производствената стойност на съответната трансгранична търговия в сравнение с базовия сценарий. Тази добавена стойност ще бъде генерирана по-специално чрез намаляване на фрагментирането и повишаване на правната сигурност по отношение на риска от понасяне на отговорност от страна на заинтересованите страни. Това би намалило разходите на заинтересованите страни за правна информация/процесуално представителство, вътрешно управление на риска и за привеждане в съответствие, би улеснило финансовото планиране, както и оценките на риска за застрахователни цели, и би дало възможност на дружествата — по-специално на МСП — да проучат нови пазари зад граница. Въз основа на общата стойност на пазара на ИИ в ЕС, който е засегнат от обхванатите от настоящата директива проблеми, свързани с отговорността, се счита, че с директивата ще се генерира допълнителна пазарна стойност от порядъка на 500 милиона евро и 1,1 милиарда евро.

    Що се отнася до социалното въздействие, благодарение на директивата ще се повиши общественото доверие в технологиите с ИИ и ще се разшири достъпът до ефективна правосъдна система. С нея ще се допринесе за ефикасен режим на гражданска отговорност, адаптиран към особеностите на ИИ, при който основателните искове за обезщетение за вреди се уважават. Повишаването на общественото доверие би било от полза и за всички дружества във веригата на стойността на ИИ, тъй като укрепването на доверието на гражданите ще допринесе за по-бързото навлизане на ИИ. Поради стимулиращия ефект на правилата за отговорност предотвратяването на пропуски при отговорността би облагодетелствало непряко всички граждани чрез повишаване на равнището на защита на здравето и безопасността (член 114, параграф 3 от ДФЕС) и премахване на източниците на рискове за здравето (член 168, параграф 1 от ДФЕС).

    По отношение на въздействието върху околната среда се очаква също така директивата да допринесе за постигането на съответните цели и задачи за устойчиво развитие (ЦУР). Навлизането на приложения с ИИ е благоприятно за околната среда. Например системите с ИИ, използвани за оптимизация на процесите, правят последните по-малко разточителни (например чрез намаляване на необходимите количества торове и пестициди, ограничаване на потреблението на вода при равен краен продукт и др.). Директивата ще окаже положително въздействие и върху ЦУР, тъй като ефективното законодателство относно прозрачността, отчетността и основните права ще насочи потенциала на ИИ към постигането на ЦУР в полза на хората и обществото.

    2.ПРАВНО ОСНОВАНИЕ, СУБСИДИАРНОСТ И ПРОПОРЦИОНАЛНОСТ

    ·    Правно основание

    Правното основание за предложението е член 114 от ДФЕС, в който се предвижда приемането на мерки за осигуряване на създаването и функционирането на вътрешния пазар.

    Проблемите, чието преодоляване е цел на настоящото предложение, по-специално правната несигурност и правното фрагментиране, възпрепятстват развитието на вътрешния пазар и по този начин представляват значителни пречки пред трансграничната търговия с продукти и услуги, използващи ИИ.

    С предложението се преодоляват пречките, произтичащи от факта, че предприятията, които искат да произвеждат, разпространяват и използват зад граница продукти и услуги, използващи ИИ, не са сигурни дали и как съществуващите режими на отговорност се прилагат за вреди, причинени от ИИ. Тази несигурност засяга по-специално държавите членки, в които предприятията ще изнасят или използват своите продукти и услуги. В трансграничен контекст правото, приложимо към извъндоговорната отговорност, произтичаща от непозволено увреждане или деликт, по подразбиране е правото на държавата, в която е настъпила вредата. За тези предприятия е от съществено значение да познават съответните рискове от възникване на отговорност и да могат да се застраховат срещу тях.

    Освен това са налице конкретни признаци, че редица държави членки обмислят едностранни законодателни мерки за справяне със специфичните предизвикателства, породени от ИИ по отношение на отговорността. Например в стратегиите за ИИ, приети в Чехия 18 , Италия 19 , Малта 20 , Полша 21 и Португалия 22 , се споменават инициативи за изясняване на въпроса с отговорността. Като се имат предвид значителните различия между съществуващите правила на държавите членки за гражданска отговорност, има вероятност всяка специфична за ИИ национална мярка относно отговорността да следва съществуващите различни национални подходи и следователно да задълбочи фрагментирането.

    Поради това предприетите на чисто национална основа адаптации на правилата за отговорност биха увеличили пречките пред внедряването на продукти и услуги, използващи ИИ, в рамките на вътрешния пазар и биха допринесли допълнително за фрагментирането.

    ·Субсидиарност

    Целите на настоящото предложение не могат да бъдат постигнати по подходящ начин на национално равнище, тъй като възникващите различаващи се национални правила биха задълбочили правната несигурност и фрагментирането, създавайки пречки пред внедряването в рамките на вътрешния пазар на продукти и услуги, използващи ИИ. Правната несигурност би засегнала особено силно дружествата, които извършват трансгранична дейност, като създаде необходимост от допълнителни разходи за правна информация/процесуално представителство и управление на риска и стане причина за пропуснати приходи. Същевременно различаващите се национални правила относно исковете за обезщетение за причинени от ИИ вреди биха увеличили разходите по сделките за предприятията, особено при трансграничната търговия, което ще доведе до значителни пречки пред вътрешния пазар. Освен това правната несигурност и фрагментирането засягат непропорционално стартиращите предприятия и МСП, които съставляват по-голямата част от дружествата и извършват основна част от инвестициите на съответните пазари.

    В условията на липса на хармонизирани правила на ЕС за обезщетяване на причинени от системи с ИИ вреди доставчиците, операторите и ползвателите на системи с ИИ, от една страна, и увредените лица, от друга страна, ще бъдат изправени пред 27 различни режима на отговорност, което ще доведе до различни равнища на защита и нарушаване на конкуренцията между предприятията от различните държави членки.

    Хармонизираните мерки на равнището на ЕС биха подобрили значително условията за внедряване и разработване на технологии с ИИ на вътрешния пазар чрез предотвратяване на фрагментирането и повишаване на правната сигурност. Тази добавена стойност ще бъде генерирана по-специално чрез намаляване на фрагментирането и повишаване на правната сигурност по отношение на риска от понасяне на отговорност от страна на заинтересованите страни. Освен това единствено действията на равнището на ЕС могат последователно да постигат желания ефект на насърчаване на доверието на потребителите в продуктите и услугите, използващи ИИ, чрез предотвратяване на пропуските по отношение на отговорността, свързани със специфичните характеристики на ИИ, в рамките на вътрешния пазар. Това би гарантирало последователно (минимално) равнище на защита за всички пострадали (физически лица и дружества) и последователни стимули за предотвратяване на вредите и за осигуряване на отчетност.

    ·Пропорционалност

    Предложението се основава на поетапен подход. На първия етап целите се постигат с минимално инвазивен подход; вторият етап включва преоценка на необходимостта от по-строги или широкообхватни мерки.

    Първият етап се ограничава до мерките, свързани с тежестта на доказване, за справяне с установените специфични за ИИ проблеми. Той се основава на материалноправните условия за отговорност, които понастоящем съществуват в националните правила, като например причинно-следствената връзка или вината, но се съсредоточава върху целенасочени мерки, свързани с доказването, като се гарантира, че пострадалите имат същото равнище на защита, както в случаите, които не включват системи с ИИ. Освен това, измежду различните налични в националното право инструменти за облекчаване на тежестта на доказване 23 , при настоящото предложение е направен избор да се използват оборими презумпции като инструмент, свързан с най-слаба степен на намеса. Такива презумпции се срещат често в националните системи за отговорност и с тях се постига баланс между интересите на ищците и ответниците. Същевременно те са предназначени да стимулират спазването на съществуващите задължения за полагане на грижа, определени на равнището на Съюза или на национално равнище. Предложението не води до разместване на тежестта на доказване, за да се избегне излагането на доставчиците, операторите и ползвателите на системи с ИИ на по-високи рискове от възникване на отговорност, което може да възпрепятства иновациите и да намали навлизането на продукти и услуги, използващи ИИ.

    С втория етап, включен в предложението, се гарантира, че при оценката на въздействието на първия етап по отношение на защитата на пострадалите и навлизането на ИИ ще бъдат взети предвид бъдещите технологични, регулаторни и правни промени, когато се прави преоценка на необходимостта от хармонизиране на други елементи на исковете за обезщетение или други инструменти, свързани с искове за отговорност, включително за ситуации, при които обективната отговорност би била по-подходяща, както беше поискано от Европейския парламент. При тази оценка вероятно ще се разгледа и въпросът дали подобно хармонизиране ще трябва да бъде съчетано със задължително застраховане, за да се гарантира ефективността.

    ·Избор на инструмент

    Директивата е най-подходящият инструмент за настоящото предложение, тъй като с нея се осигурява желаният ефект на хармонизиране и правна сигурност, като същевременно се предоставя гъвкавост, за да се позволи на държавите членки да включат безпроблемно хармонизираните мерки в националните си режими на отговорност.

    Един задължителен инструмент би предотвратил пропуските в защитата, произтичащи от частично изпълнение или от неизпълнение. Въпреки че един незадължителен инструмент би включвал по-слаба намеса, малко вероятно е той да разреши ефективно установените проблеми. Трудно е да се предвиди степента на изпълнение на незадължителните инструменти и няма достатъчно данни, че убеждаващото въздействие на дадена препоръка би било достатъчно силно, за да доведе до последователно адаптиране на националните законодателства.

    Това въздействие е още по-малко вероятно при мерките в областта на частното право, от които са част правилата за извъндоговорна отговорност. Тази област се характеризира с дългогодишни правни традиции, поради което държавите членки не са склонни да провеждат координирани реформи, освен ако не се ръководят от ясната перспектива за ползи за вътрешния пазар по силата на обвързващ инструмент на ЕС или от необходимостта от адаптиране към новите технологии в цифровата икономика.

    Съществуващите значителни различия между уредбите на държавите членки в областта на отговорността са друга причина, поради която е малко вероятно дадена препоръка да бъде изпълнена по последователен начин.

    1.РЕЗУЛТАТИ ОТ ПОСЛЕДВАЩИТЕ ОЦЕНКИ, КОНСУЛТАЦИИТЕ СЪС ЗАИНТЕРЕСОВАНИТЕ СТРАНИ И ОЦЕНКИТЕ НА ВЪЗДЕЙСТВИЕТО

    ·Консултации със заинтересованите страни

    Беше приложена обширна стратегия за консултации, за да се гарантира широко участие на заинтересованите страни през целия цикъл на политиката на настоящото предложение. Стратегията за консултации се основаваше както на публични, така и на няколко целеви консултации (уебинари, двустранни дискусии с дружества и различни организации).

    След първоначалните въпроси във връзка с отговорността, които бяха част от обществената консултация относно Бялата книга за ИИ и доклада на Комисията за безопасността и отговорността, в периода между 18 октомври 2021 г. до 10 януари 2022 г. беше открита специална обществена онлайн консултация, за да се съберат мнения от широк кръг заинтересовани страни, включително потребители, организации на гражданското общество, браншови асоциации, предприятия, включително МСП, и публични органи. След като анализира всички получени отговори, Комисията публикува резюме на резултатите и отделните отговори на своя уебсайт 24 .

    Бяха получени общо 233 отговора от участници в консултацията от 21 държави членки, както и от трети държави. Като цяло по-голямата част от заинтересованите страни потвърдиха проблемите с тежестта на доказване, правната несигурност и фрагментирането и подкрепиха действията на равнището на ЕС.

    Гражданите на ЕС, организациите на потребителите и академичните институции до голяма степен потвърдиха необходимостта от действия на ЕС за облекчаване на проблемите с тежестта на доказване, с които се сблъскват пострадалите. Макар да признават отрицателните последици от несигурността във връзка с прилагането на правилата за отговорност, предприятията бяха по-предпазливи и поискаха целенасочени мерки, за да се избегне ограничаването на иновациите.

    Подобна е ситуацията и по отношение на вариантите на политиката. Гражданите на ЕС, организациите на потребителите и академичните институции категорично подкрепиха мерките във връзка с тежестта на доказване и хармонизирането на безвиновната отговорност (наричана „обективна отговорност“), наред със задължително застраховане. Предприятията бяха по-разделени по отношение на вариантите на политиката, като различията зависят отчасти от размера им. По-голямата част от участниците в консултацията от средите на бизнеса считат обективната отговорност за непропорционална. Хармонизирането на облекчаването на тежестта на доказване получи по-голяма подкрепа, особено сред МСП. Предприятията обаче предупредиха за опасността от пълно изместване на тежестта на доказване.

    Поради това предпочетеният вариант на политиката беше разработен и усъвършенстван с оглед на обратната връзка, получена от заинтересованите страни по време на процеса на оценка на въздействието, за да се постигне баланс между изразените нужди и опасенията, изтъкнати от всички съответни групи заинтересовани страни.

    ·Събиране и използване на експертни становища

    Предложението се основава на 4-годишен анализ и активно участие на заинтересованите страни, включително академичните среди, предприятия, сдружения на потребителите, държавите членки и гражданите. Подготвителната работа започна през 2018 г. със създаването на Експертната група по въпросите на отговорността и новите технологии (подгрупа по новите технологии). През ноември 2019 г. експертната група изготви доклад 25 , в който се прави оценка на предизвикателствата, които някои характеристики на ИИ поставят пред националните правила за гражданска отговорност.

    Информацията от доклада на експертната група беше допълнена от три допълнителни външни изследвания:

    сравнителноправно изследване, основано на сравнителноправен анализ на европейските закони в областта на непозволеното увреждане, съсредоточено върху ключови въпроси, свързани с ИИ 26 ;

    проучване на поведенческата икономика относно въздействието на целенасочените адаптации на режима на отговорност върху вземането на решения от страна на потребителите, по-специално тяхното доверие и готовност да възприемат продукти и услуги, използващи ИИ 27 ;

    икономическо проучване 28 , обхващащо редица въпроси: предизвикателствата, пред които са изправени пострадалите от приложения с ИИ, в сравнение с пострадалите от устройства без ИИ, при опитите им да получат обезщетение за понесените от тях вреди; дали и до каква степен предприятията изпитват несигурност във връзка с прилагането на действащите правила за отговорност по отношение на своите операции, свързани с ИИ, и дали въздействието на правната несигурност може да възпрепятства инвестициите в ИИ; дали по-нататъшното фрагментиране на националните закони в областта на отговорността би направило вътрешния пазар по-малко ефективен спрямо приложенията и услугите с ИИ и дали и до каква степен хармонизирането на някои аспекти на националната гражданска отговорност чрез законодателството на ЕС би смекчило тези проблеми и би улеснило цялостното навлизане на технологиите с ИИ сред дружествата от ЕС.

    ·Оценка на въздействието

    В съответствие със своята политика за „по-добро регулиране“ Комисията извърши оценка на въздействието на настоящото предложение, разгледана от Комитета за регулаторен контрол на Комисията. Заседанието на Комитета за регулаторен контрол от 6 април 2022 г. доведе до положително становище с коментари.

    Бяха оценени три варианта на политиката:

    Вариант на политиката 1: три мерки за облекчаване на тежестта на доказване за пострадалите, които се опитват да докажат основателността на своя иск за отговорност.

    Вариант на политиката 2: мерките съгласно вариант 1 + хармонизиране на правилата за обективна отговорност за случаи на употреба на ИИ с определен рисков профил, съчетано със задължително застраховане.

    Вариант на политиката 3: поетапен подход, състоящ се от:

    първи етап: мерките съгласно вариант 1;

    втори етап: механизъм за преразглеждане, с който да се направи преоценка по-специално на необходимостта от хармонизиране на обективната отговорност за случаи на употреба на ИИ с определен рисков профил (евентуално съчетано със задължително застраховане).

    Беше извършено сравнение на вариантите на политиката посредством базиран на множество критерии анализ, като бяха взети предвид тяхната ефективност, ефикасност, съгласуваност и пропорционалност. Резултатите от базирания на множество критерии анализ и от анализа на чувствителността сочат, че вариант на политиката 3, който включва облекчаване на тежестта на доказване при свързани с ИИ искове + целенасочен преглед по отношение на обективната отговорност, евентуално съчетани със задължително застраховане, се нарежда най-напред и следователно е предпочетеният избор на вариант на политиката за настоящото предложение.

    Предпочетеният вариант на политиката ще гарантира, че пострадалите от продукти и услуги, използващи ИИ (физически лица, предприятия и други публични или частни субекти), са не по-малко защитени от пострадалите от традиционни технологии. Това ще повиши равнището на доверие в ИИ и ще насърчи неговото навлизане.

    Освен това така ще се намали правната несигурност и ще се предотврати фрагментирането, като по този начин ще се помогне на дружествата — и преди всичко на МСП — които искат да реализират пълния потенциал на единния пазар на ЕС, като внедряват отвъд граница продукти и услуги, използващи ИИ. Предпочетеният вариант на политиката също така създава по-добри условия, за да могат застрахователите да предлагат покритие на свързани с ИИ дейности, което е от решаващо значение, за да могат предприятията, особено МСП, да управляват своите рискове. По-конкретно се прогнозира, че през 2025 г. предпочетеният вариант на политиката би генерирал по-висока пазарна стойност на ИИ в ЕС-27 от порядъка на 500 милиона евро и 1,1 милиарда евро.

    ·Основни права

    Една от най-важните функции на правилата за гражданска отговорност е да се гарантира, че пострадалите от вреди могат да претендират за обезщетение. Като се гарантира ефективно обезщетение, с тези правила се допринася за защитата на правото на ефективни правни средства за защита и на справедлив съдебен процес (член 47 от Хартата на основните права на ЕС, наричана по-надолу „Хартата“), като същевременно на потенциално отговорните лица се предоставя стимул да предотвратяват вредите, за да избегнат отговорност.

    С настоящото предложение Комисията има за цел да гарантира, че пострадалите от вреди, причинени от ИИ, разполагат с равностойно равнище на защита съгласно правилата за гражданска отговорност като пострадалите от вреди, причинени без участие на ИИ. С предложението ще се създаде възможност за ефективно прилагане на основните права от страна на частноправните субекти и ще се запази правото на ефективни правни средства за защита, когато настъпят специфични за ИИ рискове. Предложението по-специално ще спомогне за защитата на основните права, като правото на живот (член 2 от Хартата), правото на физическа и психическа неприкосновеност (член 3) и правото на собственост (член 17). Освен това, в зависимост от гражданскоправната система и традициите на всяка държава членка, пострадалите ще могат да претендират за обезщетение за вреди, нанесени на други правни интереси, като например накърняване на личното достойнство (членове 1 и 4 от Хартата), зачитане на личния и семейния живот (член 7), правото на равенство (член 20) и недискриминация (член 21).

    С настоящото предложение също така се допълват други направления на политиката на Комисията в областта на ИИ, основани на превантивни регулаторни и надзорни изисквания, насочени пряко към избягване на нарушения на основните права (като например дискриминация). Това са Законодателният акт за изкуствения интелект, Общият регламент относно защитата на данните, Законодателният акт за цифровите услуги и правото на ЕС в областта на недискриминацията и равното третиране. Същевременно с настоящото предложение не се създават, нито се хармонизират задълженията за полагане на грижа или отговорността на различни субекти, чиято дейност се регулира от тези правни актове, и следователно не се създават нови искове за отговорност, нито се засяга освобождаването от отговорност съгласно тези други правни актове. С настоящото предложение само се въвежда облекчаване на тежестта на доказване за пострадалите от вреди, причинени от системи с ИИ, при искове, които могат да се основават на националното право или на тези други актове на ЕС. Като се допълват тези други направления, с настоящото предложение се защитава правото на пострадалите на обезщетение съгласно частното право, включително за нарушения на основните права.

    4.ОТРАЖЕНИЕ ВЪРХУ БЮДЖЕТА

    Настоящото предложение няма да има отражение върху бюджета на Европейския съюз.

    5.ДРУГИ ЕЛЕМЕНТИ

    ·Планове за изпълнение и механизми за мониторинг и оценка, програма за мониторинг и целеви преглед

    В настоящото предложение се предлага поетапен подход. За да се осигури наличието на достатъчно доказателства за целевия преглед на втория етап, Комисията ще изготви план за мониторинг, в който подробно се описва как и колко често ще се събират данни и други необходими доказателства.

    Механизмът за мониторинг може да обхваща следните видове данни и доказателства:

    докладване и обмен на информация от държавите членки във връзка с прилагането на мерки за облекчаване на тежестта на доказване при националните съдебни или извънсъдебни процедури за уреждане на спорове;

    информация, събрана от Комисията или органите за надзор на пазара съгласно Законодателния акт за изкуствения интелект (по-специално член 62) или други съответни инструменти;

    информация и анализи в подкрепа на оценката на Законодателния акт за изкуствения интелект и докладите, които трябва да бъдат изготвени от Комисията относно прилагането на този акт;

    информация и анализи в подкрепа на оценката на съответни бъдещи мерки на политиката съгласно законодателството в областта на безопасността, използващо „стария подход“, за да се гарантира, че пуснатите на пазара на Съюза продукти отговарят на високи изисквания по отношение на здравето, безопасността и околната среда;

    информация и анализи в подкрепа на доклада на Комисията относно прилагането на Директивата за автомобилното застраховане по отношение на технологичното развитие (по-специално автономните и полуавтономните превозни средства) съгласно член 28в, параграф 2, буква а) от нея.

    ·Подробно разяснение на отделните разпоредби на предложението

    1.Предмет и обхват (член 1)

    Целта на настоящата директива е да се подобри функционирането на вътрешния пазар, като се определят единни изисквания за някои аспекти на извъндоговорната гражданска отговорност за вреди, причинени с участието на системи с ИИ. Тя е последващо действие във връзка с Резолюция 2020/2014(INL) на Европейския парламент и с нея се адаптира частното право към нуждите на прехода към цифрова икономика.

    Изборът на подходящи правни инструменти е ограничен, като се имат предвид естеството на въпроса за тежестта на доказване и специфичните характеристики на ИИ, които представляват проблем за съществуващите правила за отговорност. В тази връзка чрез настоящата директива по много целенасочен и пропорционален начин се облекчава тежестта на доказване, като се използват разкриване и оборими презумпции. В нея се предвижда възможност за лицата, които търсят обезщетение за вреди, да получават информация за високорисковите системи с ИИ, която да бъде записвана/документирана съгласно Законодателния акт за изкуствения интелект. Освен това с оборимите презумпции тежестта на доказване за лицата, които търсят обезщетение за вреди, причинени от системи с ИИ, ще стане по-разумна и те ще имат възможност за успех, ако исковете им за отговорност са обосновани.

    Тези инструменти не са нови; те могат да бъдат открити в националните законодателни системи. Следователно тези национални инструменти представляват полезни отправни точки за решаване на проблемите, които се повдигат с ИИ във връзка със съществуващите правила за отговорност, с възможно най-минимална намеса в различните национални правни режими.

    Освен това, при запитване по време на консултациите относно по-мащабни промени, като например разместване на тежестта на доказване или необорима презумпция, предприятията предоставиха отрицателна обратна връзка. Целенасочените мерки за облекчаване на тежестта на доказване под формата на оборими презумпции бяха избрани като прагматични и подходящи средства да се помогне на пострадалите да се справят с тежестта на доказване по възможно най-целенасочения и пропорционален начин.

    В член 1 се посочват предметът и обхватът на настоящата директива: тя се прилага за извъндоговорни гражданскоправни искове за вреди, причинени от система с ИИ, когато такива искове са предявени съгласно режими на виновна отговорност. Това означава по-специално режими, съгласно които се предвижда законоустановена отговорност за обезщетяване на вреди, причинени умишлено или поради небрежност или бездействие. Предвидените в настоящата директива мерки могат да се впишат безпроблемно в съществуващите системи за гражданска отговорност, понеже те отразяват подход, който не засяга определението на основни понятия като „вина“ или „вреда“, като се има предвид, че значението на тези понятия се различава значително в отделните държави членки. Следователно, с изключение на презумпциите, които се установяват с нея, настоящата директива не засяга правилата на Съюза или националните правила, с които се определя например коя страна носи тежестта на доказване, каква степен на сигурност се изисква по отношение на стандарта на доказване или как се определя вината.

    Освен това с настоящата директива не се засягат съществуващите правила, уреждащи условията за отговорност в транспортния сектор, и тези, определени в Законодателния акт за цифровите услуги.

    Въпреки че настоящата директива не се прилага по отношение на наказателната отговорност, тя може да е приложима по отношение на отговорността на държавата. Държавните органи са обхванати и от разпоредбите на Законодателния акт за изкуствения интелект като субекти на предвидените в него задължения.

    Настоящата директива не се прилага с обратно действие, а само за искове за обезщетение за вреди, възникнали след датата на нейното транспониране.

    Предложението за настоящата директива беше прието заедно с предложението за преразглеждане на Директива 85/374/ЕИО относно отговорността за вреди, причинени от дефект на стока, като част от пакет, чиято цел е да се адаптират правилата за отговорност към цифровата ера и ИИ, като се гарантира необходимото привеждане в съответствие между тези два допълващи се правни инструмента.

    2.Определения (член 2)

    Определенията в член 2 следват тези от Законодателния акт за изкуствения интелект, за да се гарантира последователност.

    В член 2, параграф 6, буква б) се предвижда, че исковете за обезщетение за вреди могат да се предявяват не само от увреденото лице, но и от лицата, които са го наследили или са встъпили в правата му. Суброгацията е поемането от трето лице (например застрахователно дружество) на юридическото право на друго лице да събере дълг или обезщетение за вреди. Така едно лице има право да предяви правата на друго лице в своя полза. Суброгацията обхваща и наследниците на пострадал, който е починал.

    Освен това в член 2, параграф 6, буква в) се предвижда, че иск за обезщетение за вреди може да бъде предявен и от лице, което действа от името на едно или повече увредени лица, в съответствие с правото на Съюза или националното право. Целта на тази разпоредба е да се предоставят повече възможности за разглеждане от съд на исковете на лицата, увредени от система с ИИ, дори в случаите, когато индивидуалните дела могат да изглеждат твърде скъпи или обременителни за завеждане, или когато съвместните дела могат да доведат до ползи от мащаба. С цел да се даде възможност на пострадалите от вреди, причинени от системи с ИИ, да упражняват правата си във връзка с настоящата директива чрез представителни искове, с член 6 се изменя приложение I към Директива (ЕС) 2020/1828.

    3.Разкриване на доказателства (член 3)

    Целта на настоящата директива е на лицата, които търсят обезщетение за вреди, причинени от високорискови системи с ИИ, да се предоставят ефективни средства за установяване на потенциално отговорните лица, както и на относими доказателства за иска. Същевременно тези средства служат за изключване на погрешно установените потенциални ответници, като се спестяват време и разходи на участващите страни и се намалява натовареността на съдилищата.

    В тази връзка в член 3, параграф 1 от директивата се предвижда, че съдът може да разпореди разкриването на относими доказателства за конкретни високорискови системи с ИИ, за които съществуват подозрения, че са причинили вреди. Исканията за доказателства се отправят до доставчика на система с ИИ, до лице, което e обект на задълженията на доставчика, определени в член 24 или член 28, параграф 1 от Законодателния акт за изкуствения интелект, или до ползвател съгласно Законодателния акт за изкуствения интелект. Исканията следва да бъдат подкрепени от факти и доказателства, които са достатъчни, за да се установи правдоподобността на обмисляния иск за обезщетение за вреди, а адресатите следва да разполагат с исканите доказателства. Искания не могат да бъдат отправяни до страни, които не са обект на задължения съгласно Законодателния акт за изкуствения интелект и следователно нямат достъп до доказателствата.

    Съгласно член 3, параграф 2 ищецът може да поиска разкриване на доказателства от доставчици или ползватели, които не са ответници, само в случай че са предприети без успех всички пропорционални опити за събиране на доказателства от ответника.

    В член 3, параграф 3 от директивата се предвижда, че — за да бъдат ефективни съдебните средства — съдът може също така да разпореди запазването на такива доказателства.

    Както се предвижда в член 3, параграф 4, първа алинея, съдът може да разпореди такова разкриване само доколкото това е необходимо за поддържане на иска, като се има предвид, че информацията може да бъде решаващо доказателство за иска на увреденото лице в случай на вреда, която включва системи с ИИ.

    Като се ограничава задължението за разкриване или запазване до необходимите и пропорционални доказателства, с член 3, параграф 4, първа алинея се цели да се гарантира пропорционалност при разкриването на доказателства, т.е. да се ограничи разкриването до необходимия минимум и да се предотвратят бланкетните искания.

    Член 3, параграф 4, втора и трета алинея имат за цел освен това да се постигне баланс между правата на ищеца и необходимостта да се гарантира, че подобно разкриване ще бъде предмет на предпазни мерки за защита на законните интереси на всички засегнати страни, като например търговските тайни или поверителната информация.

    В същия контекст целта на член 3, параграф 4, четвърта алинея е да се гарантира, че лицето, което е обект на заповедта за разкриване или запазване, разполага с процесуални средства за защита срещу нея.

    В член 3, параграф 5 се въвежда презумпция за неспазване на задължението за полагане на дължима грижа. Това е процесуален инструмент, който е относим единствено в случаите, когато действителният ответник по иск за обезщетение за вреди понася последиците от неспазването на искане за разкриване или запазване на доказателства. Ответникът ще има право да обори тази презумпция. С определената в посочения параграф мярка се цели да се насърчи разкриването, но също така и да се ускори съдебното производство.

    4.Презумпция за причинно-следствена връзка в случай на вина (член 4)

    По отношение на вредите, причинени от системи с ИИ, целта на настоящата директива е да се осигури ефективна основа за предявяване на иск за обезщетение във връзка с вина, изразяваща се в неспазване на задължение за полагане на дължима грижа съгласно правото на Съюза или националното право.

    За ищците може да се окаже трудно да установят причинно-следствена връзка между това неспазване и причинените от системата с ИИ резултати/непостигането на резултати от системата с ИИ, в резултат на което е възникнала съответната вреда. Поради това в член 4, параграф 1 e определена специална оборима презумпция за тази цел по отношение на причинно-следствената връзка. Тази презумпция е най-необременителната мярка за справяне с необходимостта от справедливо обезщетение на пострадалия.

    Вината на ответника трябва да се докаже от ищеца в съответствие с приложимите правила на Съюза или националните правила. Тази вина може да се установи например при неспазване на задължението за полагане на дължима грижа съгласно Законодателния акт за изкуствения интелект или съгласно други правила, определени на равнището на Съюза, като например правилата, уреждащи използването на автоматизирано наблюдение и вземане на решения за работа през платформа, или правилата, уреждащи експлоатацията на безпилотни въздухоплавателни средства. Тази вина може също така да се предполага от съда въз основа на неспазване на съдебна заповед за разкриване или запазване на доказателства съгласно член 3, параграф 5. Въпреки това е целесъобразно да се въведе презумпция за причинно-следствената връзка само когато може да се счита за вероятно въпросната вина да е повлияла на резултата от съответната система с ИИ или на липсата на такъв, което може да се прецени въз основа на общите обстоятелства по случая. Същевременно продължава да е необходимо ищецът да докаже, че системата с ИИ (т.е. резултатът от нея или липсата на такъв) е довела до възникването на вредата.

    В параграфи 2 и 3 се прави разграничение между, от една страна, исковете, предявени срещу доставчика на високорискова система с ИИ или срещу лице, което e обект на задълженията на доставчика съгласно Законодателния акт за изкуствения интелект, и от друга страна, исковете, предявени срещу ползвателя на такива системи. В това отношение се следват съответните разпоредби и относимите условия по Законодателния акт за изкуствения интелект. В случай на искове въз основа на член 4, параграф 2 спазването от страна на ответниците на изброените в този параграф задължения трябва да се преценява и с оглед на системата за управление на риска и резултатите от нея, т.е. мерките за управление на риска, съгласно Законодателния акт за изкуствения интелект.

    В случай на високорискови системи с ИИ, както са определени в Законодателния акт за изкуствения интелект, в член 4, параграф 4 се установява изключение от презумпцията за причинно-следствена връзка, когато ответникът докаже, че ищецът разполага с достатъчно доказателства и експертен опит, за да докаже причинно-следствената връзка. Тази възможност може да предостави на ответниците стимул да спазват задълженията си за разкриване, определените в Законодателния акт за изкуствения интелект мерки за гарантиране на високо равнище на прозрачност на ИИ или изискванията за документиране и записване.

    В случая на системи с ИИ, които не са високорискови, в член 4, параграф 5 се установява условие за приложимостта на презумпцията за причинно-следствена връзка, съгласно което последната подлежи на преценка от съда, че за ищеца е прекомерно трудно да докаже причинно-следствената връзка. Тези трудности трябва да се оценяват с оглед на характеристиките на някои системи с ИИ, като например автономността и непрозрачността, които много затрудняват на практика обяснението на вътрешното функциониране на системата с ИИ, което оказва отрицателно въздействие върху способността на ищеца да докаже причинно-следствената връзка между вината на ответника и резултата от ИИ.

    В случаите, когато ответникът използва системата с ИИ в рамките на лична непрофесионална дейност, в член 4, параграф 6 се предвижда, че презумпцията за причинно-следствена връзка следва да се прилага само ако ответникът е оказал съществена намеса в условията на експлоатация на системата с ИИ или ако ответникът е бил длъжен и в състояние да определи условията на експлоатация на системата с ИИ, но не го е направил. Това условие се обосновава с необходимостта да се намери баланс между интересите на увредените лица и непрофесионалните ползватели, като от прилагането на презумпцията за причинно-следствена връзка бъдат освободени случаите, в които непрофесионалните ползватели не увеличават риска чрез своето поведение.

    И накрая, в член 4, параграф 7 се предвижда, че ответникът има правото да обори презумпцията за причинно-следствена връзка въз основа на член 4, параграф 1.

    Тези ефективни правила за гражданска отговорност имат допълнителното предимство, че с тях на всички участници в дейности, свързани със системи с ИИ, се предоставя допълнителен стимул да спазват задълженията си по отношение на очакваното от тях поведение.

    5.Оценка и целеви преглед (член 5)

    В различните национални правни системи се предвиждат различни режими на обективна отговорност. Елементи за такъв режим на равнището на Съюза бяха предложени и от Европейския парламент в неговата резолюция по собствена инициатива от 20 октомври 2020 г., състоящи се от режим на ограничена обективна отговорност за определени технологии, използващи ИИ, и облекчена тежест на доказване съгласно правилата за виновна отговорност. Предпочитание за такъв режим беше подчертано също така от участниците в обществените консултации (освен при предприятията, които не са МСП), независимо дали в съчетание със задължително застраховане, или не.

    В предложението обаче се отчитат различията между националните правни традиции и фактът, че все още не са широко достъпни на пазара видът продукти и услуги, оборудвани със системи с ИИ, които биха могли да засегнат широката общественост и да изложат на риск важни юридически права, като например правото на живот, здраве и собственост, и следователно биха могли да подлежат на режим на обективна отговорност.

    Въведена е програма за мониторинг, за да се предоставя на Комисията информация за инциденти, свързани със системи с ИИ. При целевия преглед ще се прецени дали ще са необходими допълнителни мерки, като например въвеждане на режим на обективна отговорност и/или задължителна застраховка.

    6.Транспониране (член 7)

    Когато уведомяват Комисията за националните мерки за транспониране с цел спазване на настоящата директива, държавите членки следва също така да предоставят обяснителни документи, с които се предоставя достатъчно ясна и точна информация и се посочват за всяка разпоредба от настоящата директива националните разпоредби, с които се осигурява нейното транспониране. Това е необходимо, за да може Комисията да определи за всяка разпоредба от директивата, която изисква транспониране, съответната част от националните мерки за транспониране, с която се създава съответното правно задължение в националния правен ред, независимо от избраната от държавите членки форма.



    2022/0303 (COD)

    Предложение за

    ДИРЕКТИВА НА ЕВРОПЕЙСКИЯ ПАРЛАМЕНТ И НА СЪВЕТА

    за адаптиране на правилата за извъндоговорна гражданска отговорност към изкуствения интелект
    (Директива относно отговорността във връзка с ИИ)

    (текст от значение за ЕИП)

    ЕВРОПЕЙСКИЯТ ПАРЛАМЕНТ И СЪВЕТЪТ НА ЕВРОПЕЙСКИЯ СЪЮЗ,

    като взеха предвид Договора за функционирането на Европейския съюз, и по-специално член 114 от него,

    като взеха предвид предложението на Европейската комисия,

    след предаване на проекта на законодателния акт на националните парламенти,

    като взеха предвид становището на Европейския икономически и социален комитет 29 ,

    като взеха предвид становището на Комитета на регионите 30 ,

    в съответствие с обикновената законодателна процедура,

    като имат предвид, че:

    (1)Изкуственият интелект („ИИ“) представлява набор от базови технологии, които могат да доведат до широк кръг от ползи за всички сфери на икономиката и обществото. ИИ има голям потенциал за технологичен напредък и открива възможност за нови бизнес модели в много сектори на цифровата икономика.

    (2)В същото време, в зависимост от обстоятелствата на конкретното му прилагане и използване, ИИ може да породи рискове и вреди за интереси и права, които са защитени от правото на Съюза или националното право. Например използването на ИИ може да окаже неблагоприятно въздействие върху редица основни права, включително правото на живот, физическа неприкосновеност, недискриминация и равно третиране. В Регламент (ЕС) .../... на Европейския парламент и на Съвета [Законодателен акт за изкуствения интелект] 31 се предвиждат изисквания, предназначени да намалят рисковете за безопасността и основните права, а с други правни инструменти на Съюза се уреждат общите 32 и секторните правила за безопасност на продуктите, приложими и за машиностроителните изделия 33 и радиосъоръженията 34 , използващи ИИ. Въпреки че тези изисквания, предназначени за намаляване на рисковете за безопасността и основните права, имат за цел предотвратяване, наблюдение и справяне с рисковете и по този начин преодоляване на опасенията на обществото, тс тях не се предоставя индивидуална помощ на тези, които са понесли вреди, причинени от ИИ. Съществуващите изисквания предвиждат по-специално разрешения, проверки, мониторинг и административни санкции във връзка със системи с ИИ с цел предотвратяване на евентуални вреди. В тях не се предвижда обезщетяване на увреденото лице за вреди, причинени от резултат или непостигане на резултат от система с ИИ.

    (3)Когато увредено лице иска обезщетение за понесени вреди, в общите правила на държавите членки за виновна отговорност обикновено се изисква от това лице да докаже небрежно или умишлено увреждащо действие или бездействие („вина“) от страна на лицето, потенциално отговорно за тази вреда, както и причинно-следствена връзка между тази вина и съответната вреда. Когато обаче между действието или бездействието на дадено лице и вредата е намесен изкуствен интелект, специфичните характеристики на някои системи с ИИ, като например непрозрачност, автономно поведение и сложност, могат да направят прекомерно трудно, ако не и невъзможно, за увреденото лице да изпълни тази тежест на доказване. По-специално може да бъде прекомерно трудно да се докаже, че конкретно действие на потенциално отговорното лице е довело до конкретен резултат от система с ИИ, който е причинил въпросната вреда.

    (4)В такива случаи равнището на обезщетение, предоставено от националните правила за гражданска отговорност, може да бъде по-ниско, отколкото в случаите, в които технологии, различни от ИИ, участват в причиняването на вреди. Подобни пропуски по отношение на обезщетенията могат да допринесат за по-неблагоприятно обществено възприемане на ИИ и по-ниско доверие в продуктите и услугите, използващи ИИ.

    (5)За да се извлекат икономическите и обществените ползи от ИИ и да се насърчи преходът към цифрова икономика, е необходимо определени национални правила за гражданската отговорност да бъдат адаптирани по целенасочен начин към тези специфични характеристики на някои системи с ИИ. Тези адаптации следва да допринесат за увеличаване на общественото доверие и доверието на потребителите и по този начин да насърчат внедряването на ИИ. Адаптациите следва също така да запазят доверието в съдебната система, като гарантират, че пострадалите от вреди, причинени с участието на ИИ, получават същото ефективно обезщетение като пострадалите от вреди, причинени от други технологии.

    (6)Заинтересованите лица — увредени лица, потенциално отговорни лица, застрахователи — са изправени пред правна несигурност по отношение на това как националните съдилища, в контекста на специфичните предизвикателства, свързани с ИИ, биха приложили съществуващите правила за отговорност в отделни случаи, за да постигнат справедливи резултати. При липса на действие от страна на Съюза поне някои държави членки вероятно ще адаптират своите правила за гражданска отговорност, за да отстранят пропуските по отношение на обезщетенията и правната несигурност, свързани със специфичните характеристики на някои системи с ИИ. Това би създало правно фрагментиране и пречки на вътрешния пазар за предприятията, които разработват или предоставят иновативни продукти или услуги, използващи ИИ. Малките и средните предприятия ще бъдат особено засегнати.

    (7)Целта на настоящата директива е да допринесе за правилното функциониране на вътрешния пазар чрез хармонизиране на някои национални правила за извъндоговорна виновна отговорност, за да се гарантира, че лицата, които претендират за обезщетение за вреди, причинени им от система с ИИ, се ползват от равнище на защита, равностойно на това, от което се ползват лицата, претендиращи за обезщетение за вреди, причинени без участието на система с ИИ. Тази цел не може да бъде постигната в достатъчна степен от държавите членки, тъй като съответните пречки пред вътрешния пазар са свързани с риска от едностранни и фрагментирани регулаторни мерки на национално равнище. Като се има предвид цифровият характер на продуктите и услугите, попадащи в обхвата на настоящата директива, последната е от особено значение в трансграничен контекст.

    (8)Следователно целта за гарантиране на правна сигурност и предотвратяване на пропуски по отношение на обезщетенията в случаите, когато става въпрос за системи с ИИ, може да бъде постигната по-добре на равнището на Съюза. Следователно Съюзът може да приеме мерки в съответствие с принципа на субсидиарност, определен в член 5 от Договора за Европейския съюз (ДЕС). В съответствие с принципа на пропорционалност, уреден в същия член, настоящата директива не надхвърля необходимото за постигане на тази цел.

    (9)Поради това е необходимо да се хармонизират по целенасочен начин някои специфични аспекти на правилата за виновна отговорност на равнището на Съюза. Това хармонизиране следва да повиши правната сигурност и да създаде еднакви условия на конкуренция за системите с ИИ, като по този начин се подобри функционирането на вътрешния пазар по отношение на производството и разпространението на продукти и услуги, използващи ИИ.

    (10)За да се гарантира пропорционалност, е целесъобразно да се хармонизират по целенасочен начин само онези правила за виновна отговорност, които уреждат тежестта на доказване за лицата, които искат обезщетение за вреди, причинени от системи с ИИ. С настоящата директива не следва да се хармонизират общи аспекти на гражданската отговорност, които са регламентирани по различни начини от националните правила за гражданска отговорност, като например определението за вина или причинно-следствена връзка, различните видове вреди, които пораждат искове за обезщетение, разпределението на отговорността между множество правонарушители, допринасящото за вредата поведение, изчисляването на вредите или давностните срокове.

    (11)Законите на държавите членки относно отговорността на производителите за вреди, причинени от дефект на техните продукти, вече са хармонизирани на равнището на Съюза с Директива 85/374/ЕИО на Съвета 35 . Тези закони обаче не засягат правилата на държавите членки в областта на договорната или извъндоговорната отговорност, като например по отношение на гаранцията, вината или обективната отговорност на основания, различни от дефекта на стоката. Въпреки че преразглеждането на Директива 85/374/ЕИО на Съвета има за цел същевременно да се изясни и да се гарантира, че увреденото лице може да предяви иск за обезщетение за вреди, причинени от дефектни продукти, използващи ИИ, следва да се поясни, че разпоредбите на настоящата директива не засягат правата, които увреденото лице може да има съгласно националните правила за прилагане на Директива 85/374/ЕИО. Освен това в областта на транспорта правото на Съюза, уреждащо отговорността на превозвачите, следва да остане незасегнато от настоящата директива.

    (12)Със [Законодателния акт за цифровите услуги 36 ] напълно се хармонизират правилата, приложими за доставчиците на посреднически услуги на вътрешния пазар, като са обхванати обществените рискове, произтичащи от услугите, предлагани от тези доставчици, включително по отношение на използваните от тях системи с ИИ. Настоящата директива не засяга разпоредбите на [Законодателния акт за цифровите услуги], които предоставят всеобхватна и напълно хармонизирана рамка за задълженията за полагане на дължима грижа при вземането на решения въз основа на алгоритми от страна на доставчиците на хостинг услуги, включително освобождаването от отговорност за разпространението на незаконно съдържание, качено от получателите на техните услуги, когато са изпълнени условията на посочения регламент.

    (13)Освен по отношение на презумпциите, които се установяват с нея, с настоящата директива не се хармонизират националните правила относно това коя страна носи тежестта на доказване или каква степен на сигурност се изисква по отношение на стандарта на доказване. 

    (14)Настоящата директива следва да се придържа към подход за минимално хармонизиране. Такъв подход позволява на ищците в случаи на вреди, причинени от системи с ИИ, да се позовават на по-благоприятни правила от националното законодателство. По този начин националните закони биха могли например да запазят разместването на тежестта на доказване съгласно националните режими на виновна отговорност или националните режими на безвиновна отговорност (наричана „обективна отговорност“), които вече са най-разнообразни в националните законодателства, като това евентуално се прилага за вреди, причинени от системи с ИИ.

    (15)Следва също така да се гарантира съгласуваност със [Законодателния акт за изкуствения интелект]. Поради това е целесъобразно в настоящата директива да се използват едни и същи определения по отношение на системите с ИИ, доставчиците и ползвателите. Освен това настоящата директива следва да обхваща само искове за вреди, причинени от резултат или непостигане на резултат от система с ИИ по вина на лице, например доставчика или ползвателя съгласно [Законодателния акт за изкуствения интелект]. Не е необходимо да се обхващат искове за отговорност, когато вредите са причинени от човешка преценка, последвана от човешко действие или бездействие, когато системата с ИИ е предоставила само информация или съвети, които са били взети предвид от съответното лице. В последния случай е възможно вредата да се проследи до човешко действие или бездействие, тъй като резултатът от системата с ИИ не се намесва между човешкото действие или бездействие и вредата, като по този начин установяването на причинно-следствена връзка не е по-трудно, отколкото в ситуации без участието на система с ИИ.

    (16)Достъпът до информация за конкретни високорискови системи с ИИ, за които има подозрения, че са причинили вреди, е важен фактор, за да се установи дали да се иска обезщетение и за да се обосновават исковете за обезщетение. Освен това за високорисковите системи с ИИ в [Законодателния акт за изкуствения интелект] се предвиждат специфични изисквания за документацията, информацията и поддържането на регистри, но не се предоставя на увреденото лице право на достъп до тази информация. Поради това за целите на установяването на отговорността е целесъобразно да се определят правила относно разкриването на съответните доказателства от лицата, които разполагат с тях. Това следва също така да осигури допълнителен стимул за спазване на съответните изисквания, определени в [Законодателния акт за изкуствения интелект], за документиране или записване на съответната информация.

    (17)Големият брой хора, които обикновено участват в проектирането, разработването, внедряването и експлоатацията на високорискови системи с ИИ, затруднява увредените лица при установяването на лицето, потенциално отговорно за причинените вреди, и при доказването на условията за предявяване на иск за обезщетение за вреди. За да се даде възможност на увредените лица да установят дали даден иск за обезщетение е основателен, е целесъобразно да се предостави на потенциалните ищци право да искат от съда да разпореди разкриването на съответните доказателства, преди да подадат иск за обезщетение за вреди. Такова разкриване следва да бъде разпоредено само когато потенциалният ищец представи достатъчно факти и информация в подкрепа на правдоподобността на иска за обезщетение за вреди и е отправил предварително искане до доставчика, лицето, което е обект на задълженията на доставчика, или ползвателя да разкрие тези доказателства, с които разполага, относно конкретни високорискови системи с ИИ, за които има подозрения, че са причинили вреди, което е било отхвърлено. Разпореждането за разкриване на информация следва да доведе до намаляване на ненужните съдебни спорове и избягване на разходи за евентуалните страни по спора, причинени от искове, които са неоснователни или има вероятност да бъдат неуспешни. Отказът на доставчика, лицето, което е обект на задълженията на доставчика, или ползвателя, преди да бъде отправено искане до съда за разкриване на доказателства, не следва да води до задействане на презумпцията за неспазване на съответните задължения за полагане на грижа от страна на лицето, което отказва такова разкриване.

    (18)Ограничаването на разкриването на доказателства по отношение на високорисковите системи с ИИ е в съответствие със [Законодателния акт за изкуствения интелект], в който се предвиждат някои специфични задължения за информация, документация и съхраняване на записи за операторите, участващи в проектирането, разработването и внедряването на високорискови системи с ИИ. Това съответствие също така гарантира необходимата пропорционалност, като се избягва от операторите на системи с ИИ, които представляват по-малък или никакъв риск, да се очаква да документират информация до степен, подобна на изискваната за високорисковите системи с ИИ съгласно [Законодателния акт за изкуствения интелект].

    (19)Националните съдилища следва да могат, в хода на граждански производства, да разпореждат разкриването или запазването на съответните доказателства, свързани с вредите, причинени от високорискови системи с ИИ, от лица, които вече са задължени да документират или записват информация съгласно [Законодателния акт за изкуствения интелект], независимо дали са доставчици, лица със същите задължения като доставчиците или ползватели на система с ИИ в качеството им на ответници или трети лица по иска. Може да има ситуации, при които доказателствата, които са от значение за делото, се съхраняват от субекти, които не са страни по иска за обезщетение за вреди, но са задължени да документират или записват такива доказателства съгласно [Законодателния акт за изкуствения интелект]. Поради това е необходимо да се предвидят условията, при които на тези трети лица по иска може да бъде разпоредено да разкрият съответните доказателства.

    (20)За да се запази балансът между интересите на страните, участващи в иска за обезщетение за вреди, и на засегнатите трети лица, съдилищата следва да разпореждат разкриването на доказателства само когато това е необходимо и пропорционално за подкрепа на иска или потенциалния иск за обезщетение. В това отношение разкриването следва да се отнася само до доказателства, които са необходими за вземане на решение по съответния иск за обезщетение за вреди, например само частите от съответните записи или набори от данни, необходими за доказване на неспазване на изискване, установено в [Законодателния акт за изкуствения интелект]. За да се гарантира пропорционалността на подобни мерки за разкриване или запазване, националните съдилища следва да разполагат с ефективни средства за защита на законните интереси на всички участващи страни, например защитата на търговските тайни по смисъла на Директива (ЕС) 2016/943 на Европейския парламент и на Съвета 37 и на поверителната информация, като например информация, свързана с обществената или националната сигурност. По отношение на търговските тайни или предполагаемите търговски тайни, които съдът е определил като поверителни по смисъла на Директива (ЕС) 2016/943, националните съдилища следва да бъдат оправомощени да предприемат конкретни мерки, за да гарантират поверителността на търговските тайни по време на производството и след него, като същевременно постигат справедлив и пропорционален баланс между интереса на притежателя на търговската тайна да я запази в тайна и интереса на увреденото лице. Това следва да включва мерки за предоставяне на достъп до документи, съдържащи търговски тайни, и до съдебни заседания или документи и протоколи от тях само на ограничен брой хора. При вземане на решение за подобни мерки националните съдилища следва да отчитат необходимостта от гарантиране на правото на ефективни правни средства за защита и на справедлив съдебен процес, легитимните интереси на страните и когато е целесъобразно — на трети лица, както и всички потенциални вреди за която и да е от страните или, когато е целесъобразно, за трети лица, произтичащи в резултат на уважаването или отхвърлянето на тези мерки. Освен това, за да се гарантира пропорционално прилагане на мярка за разкриване спрямо трети лица при искове за обезщетение за вреди, националните съдилища следва да разпореждат разкриване от трети лица само ако доказателствата не могат да бъдат получени от ответника.

    (21)Въпреки че националните съдилища разполагат със средства за принудително изпълнение на своите заповеди за разкриване чрез различни мерки, всички такива мерки за принудително изпълнение биха могли да забавят исковете за обезщетение за вреди и по този начин потенциално да създадат допълнителни разходи за страните по спора. За увредените лица тези забавяния и допълнителни разходи могат да означават по-трудно получаване на ефективна съдебна защита. Следователно, когато ответник по иск за обезщетение за вреди не разкрие доказателства, с които разполага, в съответствие със съдебно разпореждане за това, следва да се предвиди презумпция за неспазване на задълженията за полагане на грижа, което тези доказателства са имали за цел да докажат. Тази оборима презумпция ще намали продължителността на съдебните спорове и ще спомогне за по-ефективни съдебни производства. Ответникът следва да може да обори тази презумпция, като представи доказателства за противното.

    (22)За да се преодолеят трудностите за доказване, че конкретни входящи данни, за които потенциално отговорното лице е отговорно, са довели до конкретен резултат от система с ИИ, който е причинил въпросната вреда, е уместно да се предвиди презумпция за причинно-следствена връзка при определени условия. Въпреки че при иск, основан на вина, ищецът обикновено трябва да докаже вредата, човешкото действие или бездействие, представляващо вината на ответника, и причинно-следствената връзка между тях, с настоящата директива не се хармонизират условията, при които националните съдилища установяват вина. Тези условия продължават да се уреждат от приложимото национално право, а когато са хармонизирани — от приложимото право на Съюза. По подобен начин с настоящата директива не се хармонизират условията, свързани с вредите, например какви вреди могат да бъдат обезщетени, които също са уредени от приложимото национално право и право на Съюза. За да се прилага презумпцията за причинно-следствена връзка съгласно настоящата директива, вината на ответника следва да бъде установена като човешко действие или бездействие, което не отговаря на задължението за полагане на дължима грижа съгласно правото на Съюза или националното право, пряко предназначено да осигури защита срещу настъпилите вреди. Следователно тази презумпция може да се прилага например при иск за обезщетение за телесни повреди, когато съдът установи вината на ответника за неспазване на инструкциите за ползване, които имат за цел да предотвратят увреждането на физически лица. Неспазването на задълженията за полагане на грижа, които не са били пряко предназначени за защита срещу нанесените вреди, не води до прилагане на презумпцията. Така например неподаването от страна на доставчика на изискваната документация до компетентните органи не би довело до прилагане на презумпцията при искове за обезщетение за телесна повреда. Следва също така да е необходимо да се установи, че въз основа на обстоятелствата по случая може да се допусне с основание, че вината е повлияла на резултата, получен от системата с ИИ, или от непостигането на резултат от такава система. На последно място, от ищеца все пак следва да се изисква да докаже, че резултатът или липсата на резултат са довели до вредата.

    (23)Такава вина може да бъде установена по отношение на неспазването на правилата на Съюза, с които изрично се регулират високорисковите системи с ИИ, като например изискванията, въведени за някои високорискови системи с ИИ със [Законодателния акт за изкуствения интелект], изискванията, които могат да бъдат въведени от бъдещо секторно законодателство за други високорискови системи с ИИ съгласно [член 2, параграф 2 от Законодателния акт за изкуствения интелект], или задълженията за полагане на грижа, които са свързани с определени дейности и които са приложими независимо дали ИИ се използва за тези дейности. Същевременно с настоящата директива нито се създават, нито се хармонизират изискванията или отговорността на субектите, чиято дейност се регулира от тези правни актове, и следователно не се създават нови искове за отговорност. Установяването на нарушение на такова изискване, което е равнозначно на вина, ще се извършва в съответствие с разпоредбите на тези приложими правила на правото на Съюза, тъй като с настоящата директива нито се въвеждат нови изисквания, нито се засягат съществуващи изисквания. Например освобождаването от отговорност на доставчиците на посреднически услуги и задълженията за дължима грижа, на които те подлежат съгласно [Законодателния акт за цифровите услуги], не са засегнати от настоящата директива. По подобен начин спазването на изискванията, наложени на онлайн платформите, за да се избегне неразрешено публично разгласяване на защитени с авторско право произведения, следва да се установява съгласно Директива (ЕС) 2019/790 относно авторското право и сродните му права в цифровия единен пазар и друго съответно законодателство на Съюза в областта на авторското право. 

    (24)В областите, които не са хармонизирани от правото на Съюза, продължава да се прилага националното право и вината се установява съгласно приложимото национално право. Във всички национални режими на отговорност съществуват задължения за полагане на грижа, като за стандарт на поведение се използват предполагаемите действия на дадено разумно лице, като тези режими също така гарантират безопасната експлоатация на системите с ИИ, за да се предотврати увреждане на признати правни интереси. Такива задължения за полагане на грижа биха могли например да включват изискване за ползвателите на системи с ИИ да избират за определени задачи конкретна система с ИИ с конкретни характеристики или да не се излагат определени сегменти от населението на конкретна система с ИИ. С националното право може също така да се въвеждат специфични задължения, предназначени за предотвратяване на рискове за определени дейности, които са приложими независимо дали ИИ се използва за тази дейност, като например правила за движението по пътищата или задължения, специално предвидени за системи с ИИ, като допълнителни национални изисквания за ползвателите на високорискови системи с ИИ съгласно член 29, параграф 2 от [Законодателния акт за изкуствения интелект]). С настоящата директива нито се въвеждат такива изисквания, нито се засягат условията за установяване на вина в случай на нарушаване на тези изисквания.

    (25)Дори когато е установена вина, изразяваща се в неизпълнение на задължение за полагане на дължима грижа, пряко предназначено да осигури защита срещу настъпилите вреди, не всяка вина следва да води до прилагането на оборимата презумпция, която я свързва с резултата от ИИ. Такава презумпция следва да се прилага само когато може с основание да се допусне, че с оглед на обстоятелствата, при които е настъпила вредата, тази вина е повлияла на резултата, получен от системата с ИИ, или на непостигането на резултат от такава система, което е довело до вредата. Може например да се счита с основание, че вината е повлияла на резултата или на липсата на резултат, когато тази вина се състои в нарушаване на задължението за полагане на дължима грижа по отношение на ограничаването на периметъра на действие на системата с ИИ и вредата е настъпила извън периметъра на действие. За разлика от това, когато става въпрос за нарушение на изискване за подаване на определени документи или за регистрация в даден орган, въпреки че това може да бъде предвидено за тази конкретна дейност или дори да бъде изрично приложимо за експлоатацията на система с ИИ, не може с основание да се счита, че това е повлияло на резултата, получен от системата с ИИ, или на непостигането на резултат от такава система.

    (26)Настоящата директива обхваща вината, представляваща неспазване на някои от изброените изисквания, определени в глави 2 и 3 от [Законодателния акт за изкуствения интелект], за доставчиците и ползвателите на високорискови системи с ИИ, чието неспазване може да доведе, при определени условия, до презумпция за причинно-следствена връзка. В Законодателния акт за изкуствения интелект се предвижда пълно хармонизиране на изискванията за системите с ИИ, освен ако в него изрично не е предвидено друго. С него се хармонизират специфичните изисквания за високорисковите системи с ИИ. Следователно за целите на исковете за обезщетение за вреди, при които се прилага презумпция за причинно-следствена връзка съгласно настоящата директива, потенциалната вина на доставчиците или на лицата, които са обект на задълженията на доставчика съгласно [Законодателния акт за изкуствения интелект], се установява само при неспазване на тези изисквания. Като се има предвид, че на практика за ищеца може да бъде трудно да докаже подобно неспазване, когато ответникът е доставчик на системата с ИИ, и в пълно съответствие с логиката на [Законодателния акт за изкуствения интелект], в настоящата директива следва също така да се предвиди, че стъпките, предприети от доставчика в рамките на системата за управление на риска, и резултатите от системата за управление на риска, т.е. решението за приемане или неприемане на определени мерки за управление на риска, следва да се вземат предвид при определянето дали доставчикът е спазил съответните изисквания съгласно Законодателния акт за изкуствения интелект, посочени в настоящата директива. Системата за управление на риска, въведена от доставчика съгласно [Законодателния акт за изкуствения интелект], е непрекъснат повтарящ се процес, протичащ през целия жизнен цикъл на високорисковата система с ИИ, чрез който доставчикът гарантира спазването на задължителните изисквания, предназначени за смекчаване на рисковете, и следователно може да бъде полезен елемент за целите на оценката на това спазване. Настоящата директива обхваща и случаите на вина на ползвателите, когато тази вина се състои в неспазване на някои специфични изисквания, определени в [Законодателния акт за изкуствения интелект]. Освен това вината на ползвателите на високорискови системи с ИИ може да бъде установена след неспазване на други задължения за полагане на грижа, определени в правото на Съюза или в националното право, с оглед на член 29, параграф 2 от [Законодателния акт за изкуствения интелект].

    (27)Макар че специфичните характеристики на някои системи с ИИ, като например автономност и непрозрачност, биха могли да затруднят прекомерно ищеца при поемането на тежестта на доказване, може да има ситуации, при които такива трудности не съществуват, тъй като ищецът може да разполага с достатъчно доказателства и експертен опит, за да докаже причинно-следствената връзка. Такъв би могъл да бъде например случаят по отношение на високорискови системи с ИИ, при които ищецът може разумно да получи достъп до достатъчно доказателства и експертен опит чрез изисквания за документация и водене на регистри съгласно [Законодателния акт за изкуствения интелект]. В такива случаи съдът не следва да прилага презумпцията.

    (28)Презумпцията за причинно-следствена връзка би могла да се прилага и за системи с ИИ, които не са високорискови системи с ИИ, тъй като може да има прекомерни трудности при доказването за ищеца. Тези трудности биха могли да се оценяват например с оглед на характеристиките на някои системи с ИИ, като например автономност и непрозрачност, които правят много трудно на практика да се обясни вътрешното функциониране на системата с ИИ и по този начин влияят отрицателно върху способността на ищеца да докаже причинно-следствената връзка между вината на ответника и резултата от ИИ. Националният съд следва да прилага презумпцията, когато за ищеца е изключително трудно да докаже причинно-следствената връзка, тъй като от него се изисква да обясни как системата с ИИ се е повлияла от човешкото действие или бездействие, което представлява вина, за да генерира или да не успее да генерира резултата, който е причинил вредата. От ищеца обаче не следва да се изисква нито да обяснява характеристиките на съответната система с ИИ, нито как тези характеристики затрудняват установяването на причинно-следствената връзка.

    (29)Прилагането на презумпцията за причинно-следствена връзка има за цел да гарантира на увреденото лице равнище на защита, сходно с това в случаите, в които няма участие на ИИ и поради това причинно-следствената връзка може да се докаже по-лесно. Въпреки това облекчаването на тежестта на доказване на причинно-следствената връзка невинаги е подходящо съгласно настоящата директива, когато ответникът не е професионален ползвател, а по-скоро лице, което използва системата с ИИ за своите частни дейности. При такива обстоятелства, за да се постигне баланс между интересите на увреденото лице и непрофесионалния ползвател, следва да се вземе предвид дали подобни непрофесионални ползватели могат чрез своето поведение да увеличат риска дадена система с ИИ да причини вреди. Ако доставчикът на система с ИИ е изпълнил всички свои задължения и вследствие на това тази система е била счетена за достатъчно безопасна, за да бъде пусната на пазара за определена употреба от непрофесионални ползватели, и след това се използва за тази задача, презумпцията за причинно-следствена връзка не следва да се прилага за самото стартиране на експлоатацията на такава система от такива непрофесионални ползватели. Непрофесионален ползвател, който закупува система с ИИ и просто я пуска в експлоатация съответствие с предназначението ѝ, без да се намесва съществено в условията на експлоатация, не следва да бъде обхванат от презумпцията за причинно-следствена връзка, предвидена в настоящата директива. Ако обаче национален съд определи, че непрофесионален ползвател се е намесил съществено в условията на експлоатация на система с ИИ или от него се е изисквало и е бил в състояние да определи условията на експлоатация на системата с ИИ, а не го е направил, тогава презумпцията за причинно-следствена връзка следва да се прилага, когато са изпълнени всички останали условия. Такъв може да бъде случаят например, когато непрофесионалният ползвател не спазва инструкциите за ползване или други приложими задължения за полагане на грижа при избора на област на дейност или при определянето на настройките за работа на системата с ИИ. Това не засяга факта, че доставчикът следва да определи предназначението на дадена система с ИИ, включително специфичния контекст и условия на употреба, и да премахне или сведе до минимум рисковете от тази система, както е целесъобразно към момента на проектирането и разработването, като се вземат предвид знанията и експертният опит на целевия ползвател.

    (30)Тъй като с настоящата директива се въвежда оборима презумпция, ответникът следва да има възможност да я обори, по-специално като докаже, че вината му не може да е причинила вредата.

    (31)Необходимо е да се предвиди преглед на настоящата директива [пет години] след края на срока за транспониране. По-специално при прегледа следва да се проучи дали е необходимо да се създадат правила за безвиновна отговорност за искове срещу оператора, доколкото те все още не са обхванати от други правила на Съюза за отговорността, по-специално Директива 85/374/ЕИО, в съчетание със задължителна застраховка за експлоатацията на определени системи с ИИ, както предлага Европейският парламент 38 . В съответствие с принципа на пропорционалност е целесъобразно тази необходимост да се оцени с оглед на съответните технологични и регулаторни промени през идните години, като се вземе предвид въздействието върху внедряването и навлизането на системи с ИИ, особено за МСП. При прегледа следва да се разгледат, наред с другото, рисковете, свързани с увреждане на важни правни ценности като живота, здравето и имуществото на трети лица без тяхното знание чрез експлоатацията на продукти или услуги, използващи ИИ. При прегледа следва също така да се анализира ефективността на предвидените в настоящата директива мерки за справяне с такива рискове, както и разработването на подходящи решения от страна на застрахователите. За да се гарантира наличието на информацията, необходима за извършването на такъв преглед, е необходимо да се съберат данни и други необходими доказателства, обхващащи съответните въпроси.

    (32)Като се има предвид необходимостта от адаптиране на националните процесуални правила и правила за гражданска отговорност, за да се насърчи внедряването на продукти и услуги, използващи ИИ, при благоприятни условия на вътрешния пазар, обществено приемане и доверие на потребителите в технологиите с ИИ и в правосъдната система, е целесъобразно да се определи срок от не по-късно от [две години след влизането в сила] на настоящата директива, в който държавите членки да приемат необходимите мерки за транспониране.

    (33)Съгласно Съвместната политическа декларация на държавите членки и на Комисията относно обяснителните документи от 28 септември 2011 г. 39 държавите членки са поели ангажимент в обосновани случаи да прилагат към съобщението за своите мерки за транспониране един или повече документи, обясняващи връзката между елементите на дадена директива и съответстващите им части от националните инструменти за транспониране. По отношение на настоящата директива законодателят счита, че предоставянето на такива документи е обосновано,

    ПРИЕХА НАСТОЯЩАТА ДИРЕКТИВА:

    Член 1

    Предмет и обхват

    1.С настоящата директива се установяват общи правила за:

    а)разкриването на доказателства относно високорискови системи с изкуствен интелект (ИИ), за да се даде възможност на ищците да обосновават граждански искове за обезщетение за вреди въз основа на извъндоговорна виновна отговорност;

    б)тежестта на доказване в случай на граждански искове за извъндоговорна виновна отговорност, предявени пред национални съдилища за вреди, причинени от система с ИИ.

    2.Настоящата директива се прилага за граждански искове за обезщетение за вреди въз основа на извъндоговорна виновна отговорност в случаите, в които вредите, причинени от система с ИИ, настъпват след [края на срока за транспониране].

    Настоящата директива не се прилага по отношение на наказателната отговорност.

    3.Настоящата директива не засяга:

    а)правилата на правото на Съюза, уреждащи условията за отговорност в областта на транспорта;

    б)правата, които увреденото лице може да има съгласно националните правила за прилагане на Директива 85/374/ЕИО;

    в)освобождаването от отговорност и задълженията за дължима грижа, предвидени в [Законодателния акт за цифровите услуги], и

    г)националните правила, определящи коя страна носи тежестта на доказване, каква степен на сигурност се изисква по отношение на стандарта на доказване или как се определя вината, освен по отношение на това, което е предвидено в членове 3 и 4.

    4.Държавите членки могат да приемат или запазят национални правила, които са по-благоприятни за ищците при обосноваване на гражданскоправни искове за извъндоговорна отговорност за вреди, причинени от система с ИИ, при условие че тези правила са съвместими с правото на Съюза.

    Член 2

    Определения

    За целите на настоящата директива се прилагат следните определения:

    (1)„система с ИИ“ означава система с ИИ съгласно определението в [член 3, параграф 1 от Законодателния акт за изкуствения интелект];

    (2)„високорискова система с ИИ“ означава система с ИИ съгласно [член 6 от Законодателния акт за изкуствения интелект];

    (3)„доставчик“ означава доставчик съгласно определението в [член 3, параграф 2 от Законодателния акт за изкуствения интелект];

    (4)„ползвател“ означава ползвател съгласно определението в [член 3, параграф 4 от Законодателния акт за изкуствения интелект];

    (5)„иск за обезщетение за вреди“ означава граждански иск въз основа на извъндоговорна виновна отговорност за обезщетение за вреди, причинени от резултат на система с ИИ или от непостигане на резултат от такава система, когато такъв резултат е трябвало да бъде генериран;

    (6)„ищец“ означава лице, предявяващо иск за обезщетение за вреди, което:

    а)е било увредено от резултат на система с ИИ или от непостигане на резултат от такава система, когато такъв резултат е трябвало да бъде генериран;

    б) е наследило или е встъпило в правата на увредено лице по силата на закон или договор; или

    в)действа от името на едно или повече увредени лица в съответствие с правото на Съюза или националното право.

    (7)    „потенциален ищец“ означава физическо или юридическо лице, което обмисля, но все още не е предявило иск за обезщетение за вреди;

    (8)    „ответник“ означава лицето, срещу което е предявен иск за обезщетение за вреди;

    (9)    „задължение за полагане на дължима грижа“ означава изискван стандарт на поведение, определен от националното право или правото на Съюза, за да се избегне увреждане на правни интереси, признати на национално равнище или на равнището на Съюза, включително живота, физическата неприкосновеност, имуществото и защитата на основните права.

    Член 3

    Разкриване на доказателства и оборима презумпция за неспазване

     

    1.Държавите членки гарантират, че националните съдилища са оправомощени, по искане на потенциален ищец, който предварително е поискал от доставчик, лице, което е обект на задълженията на доставчика съгласно [член 24 или член 28, параграф 1 от Законодателния акт за изкуствения интелект], или ползвател да разкрият съответните доказателства, с които разполагат относно конкретна високорискова система с ИИ, за която има подозрения, че е причинила вреди, но е получил отказ, или по искане на ищец, да разпоредят разкриването на такива доказателства от тези лица.

    В подкрепа на това искане потенциалният ищец трябва да представи факти и доказателства, които са достатъчни, за да се обоснове правдоподобността на иска за обезщетение за вреди.

    2.В контекста на иск за обезщетение за вреди националният съд разпорежда разкриването на доказателствата от едно от лицата, изброени в параграф 1, само ако ищецът е предприел всички пропорционални действия за събиране на съответните доказателства от ответника.

    3.Държавите членки гарантират, че националните съдилища, по искане на ищец, са оправомощени да разпоредят конкретни мерки за запазване на доказателствата, посочени в параграф 1.

    4.Националните съдилища ограничават разкриването на доказателства до това, което е необходимо и пропорционално за подкрепа на потенциален или предявен иск за обезщетение за вреди, а запазването — до това, което е необходимо и пропорционално за подкрепа на такъв иск за обезщетение.

    Когато определят дали дадено разпореждане за разкриване или запазване на доказателства е пропорционално, националните съдилища вземат предвид законните интереси на всички страни, включително на засегнатите трети лица, по-специално във връзка със защитата на търговските тайни по смисъла на член 2, параграф 1 от Директива (ЕС) 2016/943 и на поверителната информация, като например информация, свързана с обществената или националната сигурност.

    Държавите членки гарантират, че когато е разпоредено разкриване на търговска тайна или предполагаема търговска тайна, която съдът е определил като поверителна по смисъла на член 9, параграф 1 от Директива (ЕС) 2016/943, националните съдилища са оправомощени, при надлежно обосновано искане от страна или по своя собствена инициатива, да предприемат конкретни мерки, необходими за запазване на поверителността, когато тези доказателства се използват или са посочени в съдебни производства.

    Държавите членки гарантират също така, че лицето, на което е разпоредено да разкрие или да запази доказателствата, посочени в параграфи 1 или 2, разполага с подходящи процесуални средства за защита в отговор на подобно разпореждане.

    5.Когато ответник не изпълни разпореждане на национален съд по иск за обезщетение за вреди да разкрие или да запази доказателства, с които разполага, съгласно параграфи 1 или 2, националният съд предполага, че ответникът не е изпълнил съответното задължение за полагане на дължима грижа, по-специално при обстоятелствата, посочени в член 4, параграф 2 или 3, което исканите доказателства са имали за цел да докажат за целите на съответния иск за обезщетение за вреди.

    Ответникът има право да обори тази презумпция.

    Член 4

    Оборима презумпция за причинно-следствена връзка в случай на вина

    1.При спазване на изискванията, определени в настоящия член, националните съдилища предполагат, за целите на прилагането на правилата за отговорност към иск за обезщетение за вреди, причинно-следствената връзка между вината на ответника и резултата, получен от системата с ИИ, или непостигането на резултат от такава система, когато е изпълнено всяко едно от следните условия:

    а)ищецът е доказал или съдът е предположил в съответствие с член 3, параграф 5 вината на ответника или на лице, за чието поведение ответникът носи отговорност, изразяваща се в неизпълнение на задължение за полагане на дължима грижа, предвидено в правото на Съюза или в националното право, пряко предназначено за защита срещу настъпилите вреди;

    б)въз основа на обстоятелствата по случая може да се допусне с основание, че вината е повлияла на резултата, получен от системата с ИИ, или на непостигането на резултат от такава система;

    в)ищецът е доказал, че резултатът, получен от системата с ИИ, или непостигането на резултат от такава система са довели до вредите.

    2.В случай на иск за обезщетение за вреди срещу доставчик на високорискова система с ИИ, за която се прилагат изискванията, определени в глави 2 и 3 от дял III от [Законодателния акт за изкуствения интелект], или срещу лице, което е обект на задълженията на доставчика съгласно [член 24 или член 28, параграф 1 от Законодателния акт за изкуствения интелект], условието по параграф 1, буква а) е изпълнено само когато ищецът е доказал, че доставчикът или, когато е приложимо, лицето, което е обект на задълженията на доставчика, не са спазили някое от следните изисквания, определени в тези глави, като се вземат предвид стъпките, предприети в системата за управление на риска, и резултатите от нея съгласно [член 9 и член 16, буква а) от Законодателния акт за изкуствения интелект]:

    а) системата с ИИ е система, при която се използват техники, предполагащи обучение на модели с данни, и която не е разработена въз основа на набори от обучителни, валидационни и изпитвателни данни, отговарящи на критериите за качество, посочени в [член 10, параграфи 2—4 от Законодателния акт за изкуствения интелект];

    б) системата с ИИ не е проектирана и разработена по начин, който отговаря на изискванията за прозрачност, определени в [член 13 от Законодателния акт за изкуствения интелект];

    в)системата с ИИ не е проектирана и разработена по начин, който позволява упражняване на ефективен надзор от страна на физически лица по време на периода, през който системата с ИИ се използва съгласно [член 14 от Законодателния акт за изкуствения интелект];

    г)системата с ИИ не е проектирана и разработена така, че да постигне с оглед на предназначението си подходящо ниво на точност, устойчивост и киберсигурност съгласно [член 15 и член 16, буква а) от Законодателния акт за изкуствения интелект]; или

    д)необходимите корективни действия не са били незабавно предприети за привеждане на системата с ИИ в съответствие със задълженията, определени в [дял III, глава 2 от Законодателния акт за изкуствения интелект], или за изтегляне или изземване на системата, в зависимост от случая, съгласно [член 16, буква ж) и член 21 от Законодателния акт за изкуствения интелект].

    3.В случай на иск за обезщетение за вреди срещу ползвател на високорискова система с ИИ, за която се прилагат изискванията, определени в глави 2 и 3 от дял III от [Законодателния акт за изкуствения интелект], условието по параграф 1, буква а) е изпълнено, когато ищецът докаже, че ползвателят:

    а)не е спазил задълженията си да използва или следи системата с ИИ в съответствие с придружаващите я инструкции за употреба или, когато е целесъобразно, да спре или прекъсне използването ѝ съгласно [член 29 от Законодателния акт за изкуствения интелект]; или

    б)е изложил системата с ИИ на входящи данни под негов контрол, които не са подходящи с оглед на предназначението на системата съгласно [член 29, параграф 3 от акта].

    4.В случай на иск за обезщетение за вреди във връзка с високорискова система с ИИ националният съд не прилага презумпцията, посочена в параграф 1, когато ответникът докаже, че може да се счита с основание, че ищецът разполага с достатъчно доказателства и експертен опит, за да докаже причинно-следствената връзка, посочена в параграф 1.

    5.В случай на иск за обезщетение за вреди във връзка със система с ИИ, която не е високорискова, презумпцията, установена в параграф 1, се прилага само когато националният съд счита за прекомерно трудно за ищеца да докаже причинно-следствената връзка, посочена в параграф 1.

    6.В случай на иск за обезщетение за вреди срещу ответник, който е използвал системата с ИИ в хода на лична непрофесионална дейност, презумпцията, посочена в параграф 1, се прилага само когато ответникът съществено се е намесил в условията на експлоатация на системата с ИИ или ако ответникът е бил длъжен и способен да определи условията на експлоатация на системата с ИИ и не го е направил.

    7.Ответникът има право да обори презумпцията, установена в параграф 1.

    Член 5

    Оценка и целеви преглед

    1.До [ДАТА пет години след края на срока за транспониране] Комисията прави преглед на прилагането на настоящата директива и представя доклад на Европейския парламент, на Съвета и на Европейския икономически и социален комитет, придружен, когато е целесъобразно, от законодателно предложение.

    2.В доклада се разглежда въздействието на членове 3 и 4 върху постигането на целите, преследвани с настоящата директива. По-специално следва да се оцени целесъобразността на правилата за безвиновна отговорност за искове срещу операторите на някои системи с ИИ, доколкото те все още не са обхванати от други правила на Съюза относно отговорността, и необходимостта от застрахователно покритие, като същевременно се вземе предвид въздействието върху навлизането и внедряването на системи с ИИ, особено за МСП.

    3.Комисията изготвя програма за мониторинг за съставяне на доклада в съответствие с параграфи 1 и 2, като определя как и на какви интервали ще бъдат събирани данните и другите необходими доказателства. В програмата се посочват действията, които трябва да бъдат предприети от Комисията и от държавите членки за събирането и анализа на данните и другите доказателства. За целите на тази програма държавите членки съобщават на Комисията съответните данни и доказателства до [31 декември през втората пълна година след края на срока за транспониране] и до края на всяка следваща година.

    Член 6

    Изменение на Директива (ЕС) 2020/1828

    В приложение I към Директива (ЕС) 2020/1828 40 се добавя следната точка 67:

    „67. Директива (ЕС) .../... на Европейския парламент и на Съвета от... за адаптиране на правилата за извъндоговорна гражданска отговорност към изкуствения интелект (Директива относно отговорността във връзка с ИИ) (ОВ L …, … г., стр. …).“.

    Член 7

    Транспониране

    1.Държавите членки въвеждат в сила законовите, подзаконовите и административните разпоредби, необходими, за да се съобразят с настоящата директива, най-късно до [две години след влизането в сила]. Те незабавно съобщават на Комисията текста на тези разпоредби.

    Когато държавите членки приемат тези разпоредби, в тях се съдържа позоваване на настоящата директива или то се извършва при официалното им публикуване. Условията и редът на позоваване се определят от държавите членки.

    2.Държавите членки съобщават на Комисията текста на основните разпоредби от националното право, които те приемат в областта, уредена с настоящата директива.

    Член 8

    Влизане в сила

    Настоящата директива влиза в сила на двадесетия ден след деня на публикуването ѝ в Официален вестник на Европейския съюз.

    Член 9

    Адресати

    Адресати на настоящата директива са държавите членки.

    Съставено в Брюксел на […] година.

    За Европейския парламент    За Съвета

    Председател     Председател 

    (1)    European enterprise survey on the use of technologies based on AI (Проучване на европейските предприятия относно използването на технологии, основани на ИИ), Ipsos 2020 г., окончателен доклад, стр. 58.
    (
    https://op.europa.eu/bg/publication-detail/-/publication/f089bbae-f0b0-11ea-991b-01aa75ed71a1 ).
    (2)     https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next-commission_en.pdf
    (3)    Бяла книга за изкуствения интелект — Европа в търсене на високи постижения и атмосфера на доверие, 19.2.2020 г. (COM(2020) 65 final).
    (4)    Доклад на Комисията до Европейския парламент, Съвета и Европейския икономически и социален комитет относно последиците от изкуствения интелект, интернета на нещата и роботиката за безопасността и отговорността, 19.2.2020 г. (COM(2020) 64 final).
    (5)    Резолюция на Европейския парламент от 20 октомври 2020 г. с препоръки към Комисията относно режим на гражданска отговорност за изкуствения интелект (2020/2014(INL)).
    (6)    Резолюция на Европейския парламент от 3 май 2022 г. относно изкуствения интелект в цифровата ера (2020/2266(INI)).
    (7)    Предложение за Регламент на Европейския парламент и на Съвета за определяне на хармонизирани правила относно изкуствения интелект (Законодателен акт за изкуствения интелект) (COM(2021) 206 final).
    (8)    Съгласно Законодателния акт за изкуствения интелект се забраняват изрично едва малък на брой случаи на използване на ИИ.
    (9)    Работен документ на службите на Комисията (SWD(2021) 84 final) — Оценка на въздействието, придружаваща Законодателния акт за изкуствения интелект, стр. 88.
    (10)    Предложение за Регламент на Европейския парламент и на Съвета относно общата безопасност на продуктите (COM(2021) 346 final).
    (11)    Предложение за Регламент на Европейския парламент и на Съвета относно машиностроителните изделия (COM(2021) 202 final).
    (12)    Делегиран регламент (ЕС) 2022/30 на Комисията за допълнение на Директива 2014/53/ЕС на Европейския парламент и на Съвета по отношение на прилагането на съществените изисквания, посочени в член 3, параграф 3, букви г), д) и е) от същата директива (OB L 7, 12.1.2022 г., стр. 6).
    (13)    Съобщение на Комисията „Изграждане на цифровото бъдеще на Европа“ (COM(2020) 67 final).
    (14)    Предложение за Регламент на Европейския парламент и на Съвета относно хоризонталните изисквания за киберсигурност за продукти с цифрови елементи (COM(2022) 454 final).
    (15)    Съобщение на Комисията „Европейска стратегия за данните“ (COM(2020) 66 final).
    (16)    Съобщение на Комисията до Европейския парламент, Европейския съвет, Съвета, Европейския икономически и социален комитет и Комитета на регионите „Европейският зелен пакт“ (COM(2019) 640 final).
    (17)    Deloitte, Study to support the Commission’s IA on liability for artificial intelligence (Проучване в подкрепа на оценката на въздействието на Комисията относно отговорността за изкуствен интелект), 2021 г. („икономическо проучване“).
    (18)    Национална стратегия за изкуствения интелект на Чешката република, 2019 г.: https://www.mpo.cz/assets/en/guidepost/for-the-media/press-releases/2019/5/NAIS_eng_web.pdf ; Проект „AI Watch“, National strategies on Artificial Intelligence – A European perspective (Национални стратегии за изкуствения интелект — европейска перспектива), издание от 2021 г. — доклад на Съвместния изследователски център и Организацията за икономическо сътрудничество и развитие (JRC-OECD): https://op.europa.eu/bg/publication-detail/-/publication/619fd0b5-d3ca-11eb-895a-01aa75ed71a1 , стр. 41.
    (19)    Strategia per l’innovazione tecnologica e la digitalizzazione del Paese (2025 г.): https://assets.innovazione.gov.it/1610546390-midbook2025.pdf
    (20)    Deloitte, Study to support the Commission’s IA on liability for artificial intelligence (Проучване в подкрепа на оценката на въздействието на Комисията относно отговорността за изкуствен интелект), 2021 г., стр. 96.
    (21)    Вж. Polityka Rozwoju Sztucznej. Inteligencji w Polsce na lata 2019 – 2027 (Политика за развитие на изкуствения интелект в Полша за периода 2019—2027 г.) ( www.gov.pl/attachment/0aa51cd5-b934-4bcb-8660-bfecb20ea2a9 ), стр. 102—103.
    (22)    AI Portugal 2030 (ИИ Португалия 2030 г.): https://www.incode2030.gov.pt/sites/default/files/julho_incode_brochura.pdf ; проект „AI Watch“, op. cit., стр. 113.
    (23)    Преди всичко обективна отговорност, разместване на тежестта на доказване или облекчаване на тежестта на доказване под формата на необорими или оборими презумпции.
    (24)    Може да се намери на < https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_bg >
    (25)    Liability for artificial intelligence and other emerging digital technologies (Отговорност за изкуствения интелект и други нововъзникващи цифрови технологии), ноември 2019 г., https://op.europa.eu/bg/publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1  
    (26)    Karner/Koch/Geistfeld, Comparative Law Study on Civil Liability for Artificial Intelligence (Сравнителноправно изследване на гражданската отговорност за изкуствения интелект), 2021 г., https://op.europa.eu/bg/publication-detail/-/publication/8a32ccc3-0f83-11ec-9151-01aa75ed71a1
    (27)    Kantar, Behavioural Study on the link between challenges of Artificial Intelligence for Member States’ civil liability rules and consumer attitudes towards AI-enabled products and services (Проучване на поведението относно връзката между предизвикателствата на изкуствения интелект за правилата на държавите членки за гражданска отговорност и потребителското поведение спрямо продуктите и услугите, използващи ИИ), окончателен доклад за 2021 г.
    (28)    Deloitte, Study to support the Commission’s Impact Assessment on liability for artificial intelligence (Проучване в подкрепа на оценката на въздействието на Комисията относно отговорността за изкуствен интелект), 2021 г.
    (29)    ОВ С [...], [...] г., стр. [...].
    (30)    ОВ С [...], [...] г., стр. [...].
    (31)    [Предложение за Регламент за определяне на хармонизирани правила относно изкуствения интелект (Законодателен акт за изкуствения интелект) — COM(2021) 206 final]
    (32)    [Предложение за регламент на Европейския парламент и на Съвета относно общата безопасност на продуктите (COM(2021) 346 final)]
    (33)    [Предложение за регламент на Европейския парламент и на Съвета относно машиностроителните изделия (COM(2021) 202 final)]
    (34)    Делегиран регламент (ЕС) 2022/30 на Комисията за допълнение на Директива 2014/53/ЕС на Европейския парламент и на Съвета по отношение на прилагането на съществените изисквания, посочени в член 3, параграф 3, букви г), д) и е) от същата директива (ОВ L 7, 12.1.2022 г., стр. 6).
    (35)    Директива 85/374/ЕИО на Съвета от 25 юли 1985 г. за сближаване на законовите, подзаконовите и административните разпоредби на държавите членки относно отговорността за вреди, причинени от дефект на стока (ОВ L 210, 7.8.1985 г., стр. 29).
    (36)    [Предложение за Регламент на Европейския парламент и на Съвета относно единния пазар на цифрови услуги (Законодателен акт за цифровите услуги) — COM(2020) 825 final].
    (37)    Директива (ЕС) 2016/943 на Европейския парламент и на Съвета от 8 юни 2016 г. относно защитата на неразкрити ноу-хау и търговска информация (търговски тайни) срещу тяхното незаконно придобиване, използване и разкриване (ОВ L 157, 15.6.2016 г., стр. 1).
    (38)    Резолюция на Европейския парламент от 20 октомври 2020 г. с препоръки към Комисията относно режим на гражданска отговорност за изкуствения интелект (2020/2014(INL)) — ОВ C 404, 6.10.2021 г., стр. 107.
    (39)    ОВ C 369, 17.12.2011 г., стр. 14.
    (40)    Директива (ЕС) 2020/1828 на Европейския парламент и на Съвета от 25 ноември 2020 г. относно представителни искове за защита на колективните интереси на потребителите и за отмяна на Директива 2009/22/ЕО (ОВ L 409, 4.12.2020 г., стр. 1).
    Top