Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52021AR2682

    Становище на Европейския комитет на регионите — Европейски подход към изкуствения интелект — Законодателен акт за изкуствения интелект (преразгледано становище)

    COR 2021/02682

    OB C 97, 28.2.2022, p. 60–85 (BG, ES, CS, DA, DE, ET, EL, EN, FR, GA, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    28.2.2022   

    BG

    Официален вестник на Европейския съюз

    C 97/60


    Становище на Европейския комитет на регионите — Европейски подход към изкуствения интелект — Законодателен акт за изкуствения интелект

    (преразгледано становище)

    (2022/C 97/12)

    Докладчик:

    Guido RINK (NL/ПЕС), член на Изпълнителния съвет на Емен

    Отправни документи:

    Съобщение на Комисията до Европейския парламент, Съвета, Европейския икономически и социален комитет и Комитета на регионите — Насърчаване на европейски подход към изкуствения интелект

    COM(2021) 205

    Предложение за регламент на Европейския парламент и на Съвета за определяне на хармонизирани правила относно изкуствения интелект (Законодателен акт за изкуствения интелект) и за изменение на някои законодателни актове на Съюза

    COM(2021) 206

    I.   ЗАКЛЮЧЕНИЯ И ПРЕПОРЪКИ

    Изменение 1

    Съображение 1

    Текст, предложен от Европейската комисия

    Изменение на КР

    Целта на настоящия регламент е да се подобри функционирането на вътрешния пазар чрез установяване на единна правна рамка, по-специално за разработването, предлагането на пазара и използването на изкуствен интелект в съответствие с ценностите на Съюза. Настоящият регламент се ръководи от няколко императивни съображения от обществен интерес, като например високо равнище на защита на здравето, безопасността и основните права. С него се гарантира свободното трансгранично движение на стоки и услуги на базата на ИИ, като по този начин не се допуска държавите членки да налагат ограничения върху разработването, предлагането на пазара и използването на системи с ИИ, освен ако това е изрично разрешено от настоящия регламент.

    Целта на настоящия регламент е да се подобри функционирането на вътрешния пазар и да се гарантират основните права на гражданите чрез установяване на единна правна рамка, по-специално за разработването, предлагането на пазара и използването на изкуствен интелект в съответствие с ценностите на Съюза. Настоящият регламент се ръководи от няколко императивни съображения от обществен интерес, като например високо равнище на защита на здравето, безопасността и основните права. С него се гарантира свободното трансгранично движение на стоки и услуги на базата на ИИ, като по този начин не се допуска държавите членки да налагат ограничения върху разработването, предлагането на пазара и използването на системи с ИИ, освен ако това е изрично разрешено от настоящия регламент.

    Изложение на мотивите

    Позоваването на основните права има за цел да подчертае връзката с Хартата на основните права на ЕС.

    Изменение 2

    Ново съображение след съображение 6

    Текст, предложен от Европейската комисия

    Изменение на КР

     

    Дефинирането на системите с ИИ е постоянен процес, който отчита контекста, в който функционира ИИ, върви в крак с общественото развитие в тази област и не губи от поглед връзката между „екосистемата за високи постижения“ и „екосистемата на доверие“;

    Изложение на мотивите

    Развитието в областта на ИИ и технологиите изисква адаптивен и развиващ се подход. С това съображение се изразява позицията, че дефиницията на ИИ би трябвало да се променя с времето и в съответствие със състоянието на развитието на системите с ИИ и приложенията.

    Изменение 3

    Съображение 20

    Текст, предложен от Европейската комисия

    Изменение на КР

    За да се гарантира, че тези системи се използват по отговорен и пропорционален начин, е важно също така да се определи, че във всяка от тези три изчерпателно изброени и подробно определени ситуации следва да се вземат предвид определени елементи, по-специално по отношение на естеството на ситуацията, във връзка с която е искането, и последиците от използването за правата и свободите на всички засегнати лица, както и гаранциите и условията, при които ще премине използването. Освен това използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за целите на правоприлагането следва да бъде обект на подходящи времеви и пространствени ограничения, като се вземат предвид по-специално доказателствата или индикациите относно заплахите, жертвите или извършителя. Референтната база данни на лицата следва да бъде подходяща за всеки случай на използване във всяка от трите посочени по-горе ситуации.

    За да се гарантира, че тези системи се използват по отговорен и пропорционален начин, е важно също така да се определи, че във всяка от тези три изчерпателно изброени и подробно определени ситуации следва да се вземат предвид определени елементи, по-специално по отношение на естеството на ситуацията, във връзка с която е искането, и последиците от използването за правата и свободите на всички засегнати лица, както и гаранциите и условията, при които ще премине използването. Преди тези системи да се използват в изключителни случаи, трябва да се провеждат консултации със съответните местни и регионални власти. Освен това използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за целите на правоприлагането следва да бъде обект на строги времеви и пространствени ограничения, като се вземат предвид по-специално доказателствата или индикациите относно заплахите, жертвите или извършителя. Референтната база данни на лицата следва да бъде подходяща за всеки случай на използване във всяка от трите посочени по-горе ситуации.

    Изложение на мотивите

    Системите за дистанционна биометрична идентификация в реално време не следва да се използват с лека ръка.

    Изменение 4

    Съображение 21

    Текст, предложен от Европейската комисия

    Изменение на КР

    Всяко използване на система за дистанционна биометрична идентификация в реално време на обществено достъпни места за целите на правоприлагането следва да бъде обект на изрично и конкретно разрешение от съдебен орган или от независим административен орган на държава членка. Такова разрешение следва по принцип да се получи преди използването, освен в надлежно обосновани спешни случаи, т.е. ситуации, при които необходимостта от използване на въпросните системи е такава, че е практически и обективно невъзможно разрешение да бъде получено преди началото на използването. При такива спешни ситуации използването следва да бъде ограничено до абсолютно необходимия минимум и да бъде обект на подходящи гаранции и условия, както е определено в националното право и дефинирано в контекста на всеки отделен случай на спешно използване от самия правоприлагащ орган . Освен това в такива случаи правоприлагащият орган следва да се опита да получи разрешение възможно най-скоро, като посочи причините, поради които не е могъл да го поиска по-рано.

    Всяко използване на система за дистанционна биометрична идентификация в реално време на обществено достъпни места за целите на правоприлагането следва да бъде обект на изрично и конкретно разрешение от съдебен орган или от независим административен орган на държава членка. Такова разрешение следва да се получи преди използването, освен в надлежно обосновани спешни случаи, т.е. ситуации, при които необходимостта от използване на въпросните системи е такава, че е практически и обективно невъзможно разрешение да бъде получено преди началото на използването. Във всеки случай използването следва да бъде ограничено до абсолютно необходимия минимум и да бъде обект на подходящи гаранции и условия, както е определено в националното право. Освен това правоприлагащият орган следва да информира незабавно съответния местен и регионален орган и да се опита да получи разрешение от компетентните органи .

    Изложение на мотивите

    Политическата и административната отговорност за управлението и наблюдението на обществените пространства се носи от местните и регионалните власти. Поради това те трябва да участват по подходящ начин във внедряването на такива системи на обществено достъпни места. В спешни случаи, когато основателно не може да се очаква предварителна консултация, съответният местен или регионален орган следва да бъде незабавно информиран за внедряването на системи за биометрична идентификация на обществено достъпни места.

    Изменение 5

    Съображение 39

    Текст, предложен от Европейската комисия

    Изменение на КР

    Системите с ИИ, използвани в управлението на миграцията, убежището и граничния контрол, засягат хора, които често са в особено уязвимо положение и които зависят от резултата от действията на компетентните публични органи. Поради това точността, недискриминационният характер и прозрачността на системите с ИИ, използвани в тези ситуации, са особено важни, за да се гарантира зачитането на основните права на засегнатите лица, по-специално правото им на свободно движение, недискриминация, защита на личния живот и личните данни, международна закрила и добра администрация. Поради това е целесъобразно като високорискови да се класифицират системите с ИИ, предназначени да бъдат използвани от компетентните публични органи, натоварени със задачи в областта на управлението на миграцията, убежището и граничния контрол, например полиграфи и подобни инструменти или такива за разкриване на емоционалното състояние на физическо лице; за оценка на определени рискове, произтичащи от физически лица, които влизат на територията на държава членка или кандидатстват за виза или убежище; за проверка на автентичността на съответните документи на физически лица; за подпомагане на компетентните публични органи при разглеждането на молби за убежище, визи и разрешения за пребиваване и свързаните с тях жалби по отношение на целта за установяване на допустимостта на физическите лица, кандидатстващи за статут. Системите с ИИ в областта на управлението на миграцията, убежището и граничния контрол, обхванати от настоящия регламент, следва да отговарят на съответните процедурни изисквания, определени в Директива 2013/32/ЕС на Европейския парламент и на Съвета, Регламент (ЕО) № 810/2009 на Европейския парламент и на Съвета и другото съответно законодателство.

    Системите с ИИ, използвани в управлението на миграцията, убежището и граничния контрол, засягат хора, които често са в особено уязвимо положение и които зависят от резултата от действията на компетентните публични органи. Поради това точността, недискриминационният характер и прозрачността на системите с ИИ, използвани в тези ситуации, са особено важни, за да се гарантира зачитането на основните права на засегнатите лица, по-специално правото им на свободно движение, недискриминация, защита на личния живот и личните данни, международна закрила и добра администрация. Поради това е необходимо като високорискови да се класифицират системите с ИИ, предназначени да бъдат използвани от компетентните публични органи, натоварени със задачи в областта на управлението на миграцията, убежището и граничния контрол, например полиграфи и подобни инструменти или такива за разкриване на емоционалното състояние на физическо лице; за оценка на определени рискове, произтичащи от физически лица, които влизат на територията на държава членка или кандидатстват за виза или убежище; за проверка на автентичността на съответните документи на физически лица; за подпомагане на компетентните публични органи при разглеждането на молби за убежище, визи и разрешения за пребиваване и свързаните с тях жалби по отношение на целта за установяване на допустимостта на физическите лица, кандидатстващи за статут. Системите с ИИ в областта на управлението на миграцията, убежището и граничния контрол, обхванати от настоящия регламент, следва да отговарят на съответните процедурни изисквания, определени в Директива 2013/32/ЕС на Европейския парламент и на Съвета, Регламент (ЕО) № 810/2009 на Европейския парламент и на Съвета и другото съответно законодателство.

    Изложение на мотивите

    Тази промяна отразява необходимостта съответните системи с ИИ да бъдат подложени на по-строгия режим, приложим за високорискови системи с ИИ.

    Изменение 6

    Съображение 43

    Текст, предложен от Европейската комисия

    Изменение на КР

    По отношение на високорисковите системи с ИИ следва да се прилагат изисквания по отношение на качеството на използваните набори от данни, техническата документация и воденето на регистри, прозрачността и предоставянето на информация на ползвателите, човешкия надзор, надеждността, точността и киберсигурността. Тези изисквания са необходими за ефективно ограничаване на рисковете за здравето, безопасността и основните права, които могат да възникнат с оглед на предназначението на системата, и когато не съществуват други разумни, по-малко ограничителни мерки за търговията, като по този начин се избягват необосновани ограничения на търговията.

    По отношение на високорисковите системи с ИИ следва да се прилагат изисквания по отношение на качеството на използваните набори от данни, техническата документация и воденето на регистри, прозрачността и предоставянето на информация на ползвателите, човешкия надзор, надеждността, точността и киберсигурността. Тези изисквания са необходими за ефективно ограничаване на рисковете за здравето, безопасността , сигурността на данните, правата на потребителите и основните права, които могат да възникнат с оглед на предназначението на системата, и когато не съществуват други разумни, по-малко ограничителни мерки за търговията, като по този начин се избягват необосновани ограничения на търговията. Физическите лица или групите лица, засегнати от високорискови системи с ИИ, пуснати на пазара на Съюза или въведени в експлоатация по друг начин, трябва да бъдат информирани по подходящ, леснодостъпен и разбираем начин, както и да имат достъп до ясна, леснодостъпна и обществено достъпна информация, в която се разяснява, че са обект на такива системи.

    Изложение на мотивите

    Изискванията за прозрачност и информация, приложими за доставчиците и ползвателите, трябва да обхванат и лицата или групите лица, потенциално засегнати от използването на високорискови системи с ИИ, изброени в приложение III към Регламента. Под „разбираем начин“ се има предвид език, който е разбираем и достъпен за ползвателя, включително устно-слухови и жестомимични езици.

    Изменение 7

    Ново съображение след съображение 44

    Текст, предложен от Европейската комисия

    Изменение на КР

     

    В своята система за управление на качеството доставчиците на системи с ИИ се въздържат от всякакви мерки за насърчаване на необоснована дискриминация, основана на пол, произход, религия или убеждения, увреждане, възраст, сексуална ориентация или дискриминация на каквото и да е друго основание.

    Изложение на мотивите

    Незаконната дискриминация произтича от човешка дейност. В своята система за качество доставчиците на системи с ИИ следва да се въздържат от всякакви мерки, които биха могли да насърчат дискриминацията.

    Изменение 8

    Съображение 47

    Текст, предложен от Европейската комисия

    Изменение на КР

    За да се преодолее липсата на прозрачност, която може да направи някои системи с ИИ неразбираеми или твърде сложни за физическите лица, за високорисковите системи с ИИ следва да се изисква определена степен на прозрачност. Ползвателите следва да могат да тълкуват изходните данни на системата и да я използват по подходящ начин. Поради това високорисковите системи с ИИ следва да бъдат придружени от съответната документация и инструкции за употреба и да включват кратка и ясна информация, включително във връзка с възможните рискове за основните права и рисковете от дискриминация, когато е целесъобразно.

    За да се преодолее липсата на прозрачност, която може да направи някои системи с ИИ неразбираеми или твърде сложни за физическите лица или публичните органи на всички равнища на управление , за високорисковите системи с ИИ следва да се изисква висока степен на прозрачност. Ползвателите следва да могат да тълкуват изходните данни на системата и да я използват по подходящ начин. Поради това високорисковите системи с ИИ следва да бъдат придружени от съответната документация и инструкции за употреба и да включват кратка и ясна информация, включително във връзка с възможните рискове за основните права и рисковете от дискриминация, когато е целесъобразно.

    Изложение на мотивите

    Отговорността на лицата, които проектират високорискови системи с ИИ, е отслабена от използването на думите „определена степен на прозрачност“.

    Изменение 9

    Съображение 48

    Текст, предложен от Европейската комисия

    Изменение на КР

    Високорисковите системи с ИИ следва да бъдат проектирани и разработени по такъв начин, че физическите лица да могат да следят тяхното функциониране. За тази цел доставчикът на системата следва да определи подходящи мерки за човешки надзор преди пускането ѝ на пазара или въвеждането ѝ в експлоатация. По-специално, когато е целесъобразно, тези мерки следва да гарантират, че системата е подложена на вградени оперативни ограничения, които не могат да бъдат заобиколени от самата система, и че тя отговаря на човека оператор, както и че физическите лица, на които е възложен човешкия надзор, разполагат с необходимата компетентност, обучение и правомощия за изпълнение на тази роля.

    Високорисковите системи с ИИ следва да бъдат проектирани и разработени по такъв начин, че физическите лица и публичните органи на всички равнища на управление да могат да следят тяхното функциониране. За тази цел доставчикът на системата следва да определи подходящи мерки за човешки надзор преди пускането ѝ на пазара или въвеждането ѝ в експлоатация. По-специално, когато е целесъобразно, тези мерки следва да гарантират, че системата е подложена на вградени оперативни ограничения, които не могат да бъдат заобиколени от самата система, и че тя отговаря на човека оператор, както и че физическите лица, на които е възложен човешкия надзор, разполагат с необходимата компетентност, обучение и правомощия за изпълнение на тази роля.

    Изложение на мотивите

    Предложеното изменение не се нуждае от обяснение.

    Изменение 10

    Съображение 67

    Текст, предложен от Европейската комисия

    Изменение на КР

    Високорисковите системи с ИИ следва да носят маркировката „СЕ“, указваща тяхното съответствие с настоящия регламент с цел свободно движение в рамките на вътрешния пазар. Държавите членки не следва да създават необосновани пречки пред пускането на пазара или въвеждането в експлоатация на високорискови системи с ИИ, които съответстват на изискванията, предвидени в настоящия регламент, и носят маркировката „СЕ“.

    Високорисковите системи с ИИ следва да носят маркировката „СЕ“, указваща тяхното съответствие с настоящия регламент с цел свободно движение в рамките на вътрешния пазар. Държавите членки не следва да създават пречки пред пускането на пазара или въвеждането в експлоатация на високорискови системи с ИИ, които съответстват на изискванията, предвидени в настоящия регламент, и носят маркировката „СЕ“. Държавите членки имат правомощието да регулират високорискови практики в сферата на ИИ и системи с ИИ само в името на наложителни и надлежно обосновани обществени интереси и такива, свързани с националната сигурност.

    Изложение на мотивите

    Въпреки че държавите членки не следва да възпрепятстват прилагането на регламента, те следва да запазят правото си да регулират високорискови системи с ИИ, ако са засегнати обществени интереси и такива, свързани с националната сигурност.

    Изменение 11

    Съображение 70

    Текст, предложен от Европейската комисия

    Изменение на КР

    Някои системи с ИИ, предназначени да взаимодействат с физически лица или да генерират съдържание, могат да породят специфични рискове от фалшификация или измама, независимо дали отговарят на критериите за високорискови системи или не. Поради това при определени обстоятелства използването на тези системи следва да подлежи на специфични задължения за прозрачност, без да се засягат изискванията и задълженията за високорискови системи с ИИ. По-специално физическите лица следва да бъдат уведомявани, че взаимодействат със система с ИИ , освен ако това не е очевидно от обстоятелствата и контекста на използване . Освен това физическите лица следва да бъдат уведомявани, когато са в контакт със система за разпознаване на емоции или със система за биометрична категоризация. Тази информация и уведомленията следва да се предоставят в достъпни формати за хората с увреждания. Освен това ползвателите на система с ИИ за генериране или обработка на изображения, аудио или видео съдържание, които до голяма степен наподобяват съществуващи лица, места или събития и навярно някой би приел за автентични, са задължени да разкрият, че съдържанието е било изкуствено създадено или обработено, като обозначат подобаващо продукта от работата на изкуствения интелект и разкрият неговия изкуствен произход.

    Някои системи с ИИ, предназначени да взаимодействат с физически лица или да генерират съдържание, могат да породят специфични рискове от фалшификация или измама, независимо дали отговарят на критериите за високорискови системи или не. Поради това използването на тези системи следва да подлежи на специфични задължения за прозрачност, без да се засягат изискванията и задълженията за високорискови системи с ИИ. По-специално физическите лица следва да бъдат уведомявани систематично , че взаимодействат със система с ИИ. Освен това физическите лица следва да бъдат уведомявани, когато са в контакт със система за разпознаване на емоции или със система за биометрична категоризация. Тази информация и уведомленията следва да се предоставят в достъпни формати за хората с увреждания. Освен това ползвателите на система с ИИ за генериране или обработка на изображения, аудио или видео съдържание, които до голяма степен наподобяват съществуващи лица, места или събития и навярно някой би приел за автентични, са задължени да разкрият, че съдържанието е било изкуствено създадено или обработено, като обозначат подобаващо продукта от работата на изкуствения интелект и разкрият неговия изкуствен произход.

    Изложение на мотивите

    Когато физически лица взаимодействат със системи с ИИ, не бива да се правят изключения от задължението за прозрачност и информация.

    Изменение 12

    Съображение 76

    Текст, предложен от Европейската комисия

    Изменение на КР

    За да се улесни гладкото, ефективно и хармонизирано прилагане на настоящия регламент, следва да се създаде Европейски съвет по изкуствен интелект. Той следва да отговаря за редица консултативни задачи, включително да издава становища, препоръки, съвети или насоки по въпроси, свързани с прилагането на настоящия регламент, включително относно техническите спецификации или съществуващите стандарти във връзка с изискванията, установени в настоящия регламент, и да консултира и подпомага Комисията по конкретни въпроси, свързани с изкуствения интелект.

    За да се улесни гладкото, ефективно и хармонизирано прилагане на настоящия регламент, следва да се създаде Европейски съвет по изкуствен интелект. Той следва да отговаря за редица консултативни задачи, включително да издава становища, препоръки, съвети или насоки по въпроси, свързани с прилагането на настоящия регламент, включително относно техническите спецификации или съществуващите стандарти във връзка с изискванията, установени в настоящия регламент, и да консултира и подпомага Комисията по конкретни въпроси, свързани с изкуствения интелект. Членовете на Европейския съвет по изкуствен интелект следва да представляват интересите на европейското общество. В състава на Европейския съвет по изкуствен интелект половете следва да са балансирано представени.

    Изложение на мотивите

    Европейският съвет по ИИ би трябвало да отразява адекватно широките интереси на европейското общество. Тези интереси включват правата на човека, климата и енергийно ефективното използване на системите с ИИ, безопасността, социалното приобщаване, здравеопазването и т.н. Балансираното представителство на половете е предпоставка за многообразието при изготвянето на становища, изготвянето на насоки и т.н.

    Изменение 13

    Съображение 77

    Текст, предложен от Европейската комисия

    Изменение на КР

    Държавите членки играят ключова роля в прилагането и изпълнението на настоящия регламент. Във връзка с това всяка държава членка следва да определи един или повече национални компетентни органи за целите на надзора върху прилагането и изпълнението на настоящия регламент. С цел да се повиши ефективността на организацията от страна на държавите членки и да се създаде официално звено за контакт с обществеността и други партньори на равнището на държавите членки и на равнището на Съюза, във всяка държава членка за национален надзорен орган следва да бъде определен по един национален орган.

    Държавите членки играят ключова роля в прилагането и изпълнението на настоящия регламент. Във връзка с това всяка държава членка следва да определи един или повече национални компетентни органи за целите на надзора върху прилагането и изпълнението на настоящия регламент. С цел да се повиши ефективността на организацията от страна на държавите членки и да се създаде официално звено за контакт с обществеността и други партньори на равнището на държавите членки и на равнището на Съюза, във всяка държава членка за национален надзорен орган следва да бъде определен по един национален орган. На местните и регионалните власти се възлагат задачи, свързани с надзора или правоприлагането, когато това се счита за целесъобразно от държавата членка.

    Изложение на мотивите

    За да се гарантира приложимостта на регламента и неговата рамка за надзор и правоприлагане, държавата членка следва да бъде оправомощена да възлага, когато е необходимо и когато е възможно, на местните и регионалните власти дейността да изпълняват задачи по надзор и правоприлагане.

    Изменение 14

    Съображение 79

    Текст, предложен от Европейската комисия

    Изменение на КР

    С цел да се гарантира подходящо и ефективно прилагане на изискванията и задълженията, установени с настоящия регламент, а именно законодателството на Съюза за хармонизация, системата за надзор на пазара и съответствието на продуктите, установена с Регламент (ЕС) 2019/1020, следва да се прилага в своята цялост. Когато това е необходимо за изпълнението на техните правомощия, националните публични органи или структури, които упражняват надзор върху прилагането на правото на Съюза за защита на основните права, включително органите по въпросите на равенството, следва също да имат достъп до всяка документация, изготвена съгласно настоящия регламент.

    С цел да се гарантира подходящо и ефективно прилагане на изискванията и задълженията, установени с настоящия регламент, а именно законодателството на Съюза за хармонизация, системата за надзор на пазара и съответствието на продуктите, установена с Регламент (ЕС) 2019/1020, следва да се прилага в своята цялост. Когато това е необходимо за изпълнението на техните правомощия, националните публични органи и , ако е приложимо, местните или регионални власти, или структури, които упражняват надзор върху прилагането на правото на Съюза за защита на основните права, включително органите по въпросите на равенството, следва също да имат достъп до всяка документация, изготвена съгласно настоящия регламент.

    Изложение на мотивите

    Настоящото изменение взема предвид различните управленски структури в държавите — членки на ЕС.

    Изменение 15

    Съображение 83

    Текст, предложен от Европейската комисия

    Изменение на КР

    За да се гарантира надеждно и конструктивно сътрудничество между компетентните органи на равнището на Съюза и на национално равнище, всички страни, участващи в прилагането на настоящия регламент, следва да зачитат поверителността на информацията и данните, получавани при изпълнението на техните задачи.

    За да се гарантира надеждно и конструктивно сътрудничество между компетентните органи на равнището на Съюза, национално , регионално и местно равнище, всички страни, участващи в прилагането на настоящия регламент, следва да зачитат поверителността на информацията и данните, получавани при изпълнението на техните задачи.

    Изложение на мотивите

    Настоящото изменение взема предвид различните управленски структури в държавите — членки на ЕС.

    Изменение 16

    Дял I, член 3, параграф 1 — Определения

    Текст, предложен от Европейската комисия

    Изменение на КР

    „система с изкуствен интелект“ (система с ИИ) означава софтуер, разработен с една или повече от техниките и подходите, посочени в приложение I, който може по отношение на даден набор от цели, определени от човек, да генерира резултати, като съдържание, прогнози, препоръки или решения, които оказват въздействие върху средите, с които взаимодействат;

    „система с изкуствен интелект“ (система с ИИ) означава софтуер, разработен с една или повече от техниките и подходите, посочени в неизчерпателния списък в приложение I, и в съчетание със социални практики, идентичност и култура, който може по отношение на даден набор от цели, определени от човек чрез наблюдение на неговата среда чрез събиране на данни, тълкуване на събраните структурирани или неструктурирани данни, управление на знанията или обработване на информацията, получени от тези данни , да генерира резултати, като съдържание, прогнози, препоръки или решения, които оказват въздействие върху средите, с които взаимодействат;

    Изложение на мотивите

    Една система на ИИ се състои от комбинация от технически елементи, свързващи данни, алгоритми и изчислителна мощ със социалните практики, обществото, идентичността и културата. Поради това определението на една такава динамична социално-техническа съвкупност следва да бъде ориентирано към бъдещето и да се актуализира редовно, за да отразява точно все по-нарастващото обществено въздействие на ИИ, като същевременно се идентифицират бързо променящите се предизвикателства и възможности, свързани с ИИ, включително връзката между управлението на знанията и ИИ. В този контекст алгоритъм, разработен от друг алгоритъм, също следва да бъде обхванат от регламента.

    Изменение 17

    Член 5, параграф 1

    Текст, предложен от Европейската комисия

    Изменение на КР

    Следните практики в сферата на изкуствения интелект се забраняват:

    Следните практики в сферата на изкуствения интелект се забраняват:

    а)

    пускането на пазара, въвеждането в експлоатация или използването на система с ИИ, която си служи със сублиминални техники отвъд рамките на съзнаваното от човека, с цел съществено да измени поведението на дадено лице по начин, който причинява или може да причини на същото или на друго лице физически или психологически вреди;

    a)

    пускането на пазара, въвеждането в експлоатация или използването на система с ИИ, която си служи със сублиминални техники отвъд рамките на съзнаваното от човека, с цел съществено да измени поведението на дадено лице по начин, който причинява или може да причини на същото или на друго лице физически или психологически вреди , нарушава или има вероятност да наруши основните права на друго лице или група лица, включително тяхното физическо или психологическо здраве и безопасност, оказва или има вероятност да окаже вредно въздействие върху потребителите, включително парична загуба или икономическа дискриминация, или подкопава или е вероятно да подкопае демокрацията и принципите на правовата държава ;

    б)

    пускането на пазара, въвеждането в експлоатация или използването на система с ИИ, която използва което и да е от уязвимите места на конкретна група лица, дължащи се на тяхната възраст, физическо или психическо увреждане, с цел съществено да измени поведението на дадено лице, принадлежащо към тази група, по начин, който причинява или може да причини на същото или на друго лице физически или психологически вреди;

    б)

    пускането на пазара, въвеждането в експлоатация или използването на система с ИИ, която използва което и да е от уязвимите места на конкретна група лица, дължащи се на тяхната възраст, физическо или психическо увреждане, с цел съществено да измени поведението на дадено лице, принадлежащо към тази група, по начин, който причинява или може да причини на същото или на друго лице физически или психологически вреди;

    в)

    пускането на пазара, въвеждането в експлоатация или използването на система с ИИ от страна на публични органи или от тяхно име с цел оценка или класифициране на надеждността на физически лица в течение на определен срок на база на тяхното социално поведение или известни или прогнозирани лични или личностни характеристики , като социалният ранкинг води до едното или и двете от следните:

    i)

    увреждащо или неблагоприятно третиране на определени физически лица или на цели групи от такива лица в социални контексти, които нямат връзка с контекстите, в които първоначално са били генерирани или събрани данните;

    ii)

    увреждащо или неблагоприятно третиране на определени физически лица или на цели групи от такива лица, което е неоправдано или непропорционално на тяхното социално поведение или на тежестта, която му се отдава;

    в)

    пускането на пазара, въвеждането в експлоатация или използването на система с ИИ от страна на публични органи или от тяхно име с цел оценка или класифициране на надеждността на физически лица или групи лица в течение на определен срок на база на тяхното социално поведение или известни или прогнозирани лични или личностни характеристики , което води до социален ранкинг с общо предназначение въз основа на ИИ ;

    г)

    използването на системи за дистанционна биометрична идентификация в реално време в обществено достъпни места за целите на правоприлагането, освен ако и доколкото такова използване е строго необходимо за една от следните цели:

    i)

    целево издирване на конкретни потенциални жертви на престъпления, включително изчезнали деца;

    ii)

    предотвратяване на конкретна, значителна и непосредствена заплаха за живота или физическата безопасност на физически лица или за терористично нападение;

    iii)

    откриване, локализиране, идентифициране или преследване на извършител или заподозрян в извършването на престъпление, посочено в член 2, параграф 2 от Рамково решение 2002/584/ПВР на Съвета ([62]) и наказуемо в съответната държава членка с лишаване от свобода или мярка за задържане с максимален срок не по-малко от 3 години, както е определено в законодателството на съответната държава членка.

    г)

    пускането на пазар, въвеждането в експлоатация или използването на системи с ИИ от страна на публичните органи или от тяхно име, прилагане на социален ранкинг въз основа на ИИ за конкретни цели без човешки надзор, т.е. в социален контекст, свързан с контекста, в който първоначално са били генерирани или събрани данните, с цел оценка или класифициране на надеждността на физически лица или групи от лица в течение на определен срок на база на тяхното социално поведение или известни или прогнозирани лични или личностни характеристики, като социалният ранкинг води до нанасящо ущърб или неблагоприятно третиране на някои физически лица или цели групи, което е неоснователно или непропорционално на тяхното социално поведение или степента на неговата сериозност;

     

    д)

    използването на системи за дистанционна биометрична идентификация в реално време в обществено достъпни места за целите на правоприлагането, освен ако и доколкото такова използване е строго необходимо за една от следните цели:

    i)

    целево издирване на конкретни потенциални жертви на престъпления, включително изчезнали деца;

    ii)

    предотвратяване на конкретна, значителна и непосредствена заплаха за живота или физическата безопасност на физически лица или за терористично нападение;

    iii)

    откриване, локализиране, идентифициране или преследване на извършител или заподозрян в извършването на престъпление, посочено в член 2, параграф 2 от Рамково решение 2002/584/ПВР на Съвета ([62]) и наказуемо в съответната държава членка с лишаване от свобода или мярка за задържане с максимален срок не по-малко от 3 години, както е определено в законодателството на съответната държава членка.

    Изложение на мотивите

    Сублиминалните техники като цяло могат да подкопаят свободата, правата на човека, а с това и функционирането на демократичните принципи на правовата държава. В същото време изкуственият интелект може да подкопае правата на потребителите. Целта на допълненията е да поясни този аспект.

    Що се отнася до социалното класифициране от публичните власти или от тяхно име, то следва да бъде забранено, ако се извършва с общо предназначение, като се имат предвид опасностите, произтичащи от такива практики, както е обяснено в съображение 17. Генерирането или събирането на данни за конкретни цели следва да бъде разрешено само с човешки надзор и при условие че не нарушава правото на достойнство и недискриминация, както и ценностите на равенство и справедливост.

    Изменение 18

    член 5, параграф 4

    Текст, предложен от Европейската комисия

    Изменение на КР

    Една държава членка може да реши да предвиди възможността за пълно или частично разрешаване на използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за целите на правоприлагането в рамките на ограниченията и при условията, изброени в параграф 1, буква г) и в параграфи 2 и 3. Тази държава членка определя в националното си законодателство необходимите подробни правила за подаване на искания за разрешенията, посочени в параграф 3, тяхното издаване, изпълнение, както и надзора по отношение на тях. В тези правила се уточнява също така по отношение на кои от целите, посочени в параграф 1, буква г), включително по отношение на кои престъпления, посочени в подточка iii) от същата разпоредба, на компетентните органи може да бъде разрешено да използват тези системи за целите на правоприлагането.

    Една държава членка може да реши да предвиди възможността за пълно или частично разрешаване на използването на системи за дистанционна биометрична идентификация в реално време на обществено достъпни места за целите на правоприлагането в рамките на ограниченията и при условията, изброени в параграф 1, буква г) и в параграфи 2 и 3. Тази държава членка определя в националното си законодателство необходимите подробни правила за подаване на искания за разрешенията, посочени в параграф 3, тяхното издаване, изпълнение, както и надзора по отношение на тях. В тези правила се уточнява също така по отношение на кои от целите, посочени в параграф 1, буква г), включително по отношение на кои престъпления, посочени в подточка iii) от същата разпоредба, на компетентните органи може да бъде разрешено да използват тези системи за целите на правоприлагането. Тези правила определят реда и условията за информиране на и консултиране със съответните местни и регионални власти. Това консултиране трябва да се провежда преди извънредното използване на тези системи на обществено достъпни места. В спешни случаи, когато основателно не може да се очаква предварителна консултация, съответният местен или регионален орган бива информиран незабавно за внедряването на съответната практика в областта на ИИ.

    Изложение на мотивите

    Политическата и административната отговорност за управлението и наблюдението на обществените пространства се носи от местните и регионалните власти. Поради това те следва да имат възможност да изразяват своите виждания преди внедряването на такива практики в областта на ИИ и да бъдат надлежно информирани за извънредното използване на системи с ИИ за целите на правоприлагането.

    В спешни случаи, когато основателно не може да се очаква предварителна консултация, съответният местен или регионален орган се уведомява незабавно.

    Изменение 19

    Член 13

    Текст, предложен от Европейската комисия

    Изменение на КР

    Член 13 Прозрачност и предоставяне на информация на ползвателите

    Член 13a Прозрачност и предоставяне на информация на ползвателите

    1.   Високорисковите системи с ИИ се проектират и разработват по такъв начин, че да се гарантира, че тяхната работа е достатъчно прозрачна, за да могат ползвателите да тълкуват резултатите, получени от системата, и да ги използват по подходящ начин. Осигурява се подходящ вид и степен на прозрачност с оглед на постигане на съответствие с приложимите задължения на ползвателя и доставчика, посочени в глава 3 от настоящия дял.

    1.   Високорисковите системи с ИИ се проектират и разработват по такъв начин, че да се гарантира, че тяхната работа е достатъчно прозрачна, за да могат ползвателите да тълкуват резултатите, получени от системата, и да ги използват по подходящ начин. Осигуряват се подходящ вид и степен на прозрачност и разбираемо обяснение с оглед на постигане на съответствие с приложимите задължения на ползвателя и доставчика, посочени в глава 3 от настоящия дял. Обяснението се предоставя най-малко на езика на държавата, в която се внедрява системата с ИИ.

    2.   Високорисковите системи с ИИ се придружават от инструкции за употреба в подходящ цифров или друг формат, които включват кратка, пълна, вярна и ясна информация, която е уместна, достъпна и разбираема за ползвателите.

    2.   Високорисковите системи с ИИ се придружават от обществено достъпни и разбираеми инструкции за употреба в подходящ цифров или друг формат, които включват кратка, пълна, вярна и ясна информация, която е уместна, достъпна и разбираема за ползвателите.

    3.   В посочената в параграф 2 информация се посочват:

    3.   В посочената в параграф 2 информация се посочват:

    а)

    данните, които идентифицират доставчика и координатите за връзка с него и, когато е приложимо, тези на неговия упълномощен представител;

    а)

    данните, които идентифицират доставчика и координатите за връзка с него и, когато е приложимо, тези на неговия упълномощен представител;

    б)

    характеристиките, възможностите и ограниченията в действието на високорисковата система с ИИ, включително:

    б)

    характеристиките, възможностите и ограниченията в действието на високорисковата система с ИИ, включително:

     

    i)

    нейното предназначение;

     

    i)

    нейното предназначение;

     

    ii)

    степента на точност, надеждност и киберсигурност, посочена в член 15, с оглед на която е изпитана и валидирана високорисковата система с ИИ, както и евентуални известни или предвидими обстоятелства, които могат да окажат въздействие върху очакваното ниво на точност, надеждност и киберсигурност;

     

    ii)

    степента на точност (изразена в съответните показатели за оценка на модели), надеждност и киберсигурност, посочена в член 15, с оглед на която е изпитана и валидирана високорисковата система с ИИ, както и евентуални известни или предвидими обстоятелства, които могат да окажат въздействие върху очакваното ниво на точност, надеждност и киберсигурност;

     

    iii)

    евентуални известни или предвидими обстоятелства, свързани с използването на високорисковата система с ИИ в съответствие с предназначението ѝ или в условия на разумно предвидима неправилна експлоатация, които могат да доведат до рискове за здравето и безопасността или за основните права;

     

    iii)

    евентуални известни или предвидими обстоятелства, свързани с използването на високорисковата система с ИИ в съответствие с предназначението ѝ или в условия на разумно предвидима неправилна експлоатация, които могат да доведат до рискове за здравето и безопасността или за основните права;

     

    iv)

    действието ѝ по отношение на лицата или групите лица, спрямо които системата е предназначена да се използва;

     

    iv)

    действието ѝ по отношение на лицата или групите лица, спрямо които системата е предназначена да се използва;

     

    v)

    когато е целесъобразно, спецификации на входящите данни или всякаква друга относима информация по отношение на наборите от обучителни, валидационни и изпитвателни данни, като се отчита предназначението на системата с ИИ;

     

    v)

    когато е целесъобразно, спецификации на входящите данни или всякаква друга относима информация по отношение на наборите от обучителни, валидационни и изпитвателни данни, като се отчита предназначението на системата с ИИ;

    vi)

    параметрите, използвани за настройка на модела, и мерките, предприети за предотвратяване на прекомерно нагаждане и недостатъчно нагаждане.

    в)

    промените във високорисковата система с ИИ и в нейното действие, които са били предварително определени от доставчика към момента на първоначалното оценяване на съответствието, ако има такива;

    в)

    промените във високорисковата система с ИИ и в нейното действие, които са били предварително определени от доставчика към момента на първоначалното оценяване на съответствието, ако има такива;

    г)

    мерките за човешки надзор, посочени в член 14, включително техническите мерки, въведени с цел улесняване на тълкуването от страна на ползвателите на крайния резултат, получен от системите с ИИ;

    г)

    мерките за човешки надзор, посочени в член 14, включително техническите мерки, въведени с цел улесняване на тълкуването от страна на ползвателите на крайния резултат, получен от системите с ИИ;

    д)

    очакваният срок на експлоатация на високорисковата система с ИИ и евентуално необходимите мерки за поддръжка и обслужване с цел да се гарантира правилното функциониране на системата с ИИ, включително по отношение на актуализациите на софтуера.

    д)

    очакваният срок на експлоатация на високорисковата система с ИИ и евентуално необходимите мерки за поддръжка и обслужване с цел да се гарантира правилното функциониране на системата с ИИ, включително по отношение на актуализациите на софтуера.

     

    13b Прозрачност и предоставяне на информация на засегнатите лица

    Лицата или групите лица, за които е предвидено да се използва високорискова система с ИИ, се информират по подходящ, леснодостъпен и разбираем начин, и им се предоставя достъп до ясна, леснодостъпна и обществено достъпна информация за това използване.

    Изложение на мотивите

    За да се укрепи екосистемата на доверие, инструкциите за използването на високорискови системи с ИИ би трябвало да бъдат публично достъпни за обществеността. Тези инструкции би трябвало да бъдат написани на език, разбираем за читателя на държавата, в която се внедрява системата с ИИ.

    В контекста на прозрачността и разбираемостта на алгоритмите трябва да е възможно да се обясни какви показатели са били използвани за настройката на модела и какви мерки са взети, за да се предотврати прекомерно нагаждане и недостатъчно нагаждане.

    Член 13б урежда задължението за прозрачност и предоставяне на информация на лицата, които взаимодействат със системите с ИИ или които биха могли да бъдат засегнати от системата с ИИ.

    Изменение 20

    Член 14, параграф 4

    Текст, предложен от Европейската комисия

    Изменение на КР

    Мерките, посочени в параграф 3, трябва да дават възможност на лицата, на които е възложено да упражняват човешки надзор, да извършват следните, както е уместно с оглед на обстоятелствата:

    Мерките, посочени в параграф 3, трябва да дават възможност на лицата, на които е възложено да упражняват човешки надзор, да извършват следните, както е уместно с оглед на обстоятелствата:

    а)

    изцяло да разбират възможностите и ограниченията на високорисковата система с ИИ и да могат надлежно да следят нейното функциониране, така че признаците за аномалии, дисфункции и неочаквано действие да могат да бъдат откривани и спрямо тях да бъдат предприемани действия възможно най-бързо;

    а)

    изцяло да разбират възможностите и ограниченията на високорисковата система с ИИ и да могат надлежно да следят нейното функциониране, така че признаците за аномалии, дисфункции и неочаквано действие да могат да бъдат откривани и спрямо тях да бъдат предприемани действия възможно най-бързо;

    б)

    да си дават сметка за възможната тенденция автоматично да се разчита или в прекалено голяма степен да се разчита на резултатите, получени от високорискова система с ИИ („предубеденост в полза на автоматизираните решения“), по-специално за високорискови системи с ИИ, използвани за предоставяне на информация или препоръки във връзка с решения, които се вземат от физически лица;

    б)

    да си дават сметка за възможната тенденция автоматично да се разчита или в прекалено голяма степен да се разчита на резултатите, получени от високорискова система с ИИ („предубеденост в полза на автоматизираните решения“) или всякакви други форми на предубеденост, по-специално за високорискови системи с ИИ, използвани за предоставяне на информация или препоръки във връзка с решения, които се вземат от физически лица;

    в)

    да бъдат в състояние да тълкуват правилно резултатите от високорисковата система с ИИ, като вземат предвид по-специално характеристиките на системата и наличните инструменти и методи за тълкуване;

    в)

    да бъдат в състояние да тълкуват правилно резултатите от високорисковата система с ИИ, като вземат предвид по-специално характеристиките на системата и наличните инструменти и методи за тълкуване;

    г)

    да бъдат в състояние да вземат решение — във всяка една конкретна ситуация — да не използват резултата от високорисковата система с ИИ или по друг начин да го игнорират, потиснат или отменят;

    г)

    да бъдат в състояние да вземат решение — във всяка една конкретна ситуация — да не използват резултата от високорисковата система с ИИ или по друг начин да го игнорират, потиснат или отменят;

    д)

    да бъдат в състояние да се намесят в работата на високорисковата система с ИИ или да прекъснат системата чрез стоп бутон или подобна процедура.

    д)

    да бъдат в състояние да се намесят в работата на високорисковата система с ИИ или да прекъснат системата чрез стоп бутон или подобна процедура.

    Изложение на мотивите

    Съществуват няколко форми на предубеденост, които могат да се окажат проблематични. Като примери могат да се посочат предубеденост на разработчика или ползвателя (социална предубеденост), предубеденост по отношение на това дали внедрената система с ИИ е подходящо решение на проблема (технологична предубеденост) и статистически форми на предубеденост.

    Изменение 21

    Член 14 — добавя се нов параграф след параграф 5

    Текст, предложен от Европейската комисия

    Изменение на КР

     

    Всяко решение, взето от системите с ИИ, както е посочено в приложение III, параграф 5, букви а) и б), подлежи на човешка намеса и се основава на щателен процес на вземане на решения. Трябва се гарантира човешки контакт във връзка с тези решения.

    Изложение на мотивите

    В член 14 се разглежда само човешкият надзор на високорискови системи с ИИ. Когато става въпрос за решения на публичните власти, е важно да се подчертае, че следва да се осигурят човешка намеса, контакт и законосъобразна процедура.

    Изменение 22

    Член 17, параграф 1, добавят се две нови букви след буква м)

    Текст, предложен от Европейската комисия

    Изменение на КР

    Доставчиците на високорискови системи с ИИ въвеждат система за управление на качеството, която гарантира съответствие с настоящия регламент. Системата се документира системно и последователно чрез политики, процедури и инструкции в писмен вид и включва най-малко следните аспекти:

    Доставчиците на високорискови системи с ИИ въвеждат система за управление на качеството, която гарантира съответствие с настоящия регламент. Системата се документира системно и последователно чрез политики, процедури и инструкции в писмен вид и включва най-малко следните аспекти:

    а)

    стратегия за регулаторно съответствие, включително съответствие с процедурите за оценяване на съответствието и процедурите за управление на модификациите на високорисковата система с ИИ;

    а)

    стратегия за регулаторно съответствие, включително съответствие с процедурите за оценяване на съответствието и процедурите за управление на модификациите на високорисковата система с ИИ;

    б)

    техники, процедури и системни действия, които да се използват при проектирането, проектния контрол и проектната верификация на високорисковата система с ИИ;

    б)

    техники, процедури и системни действия, които да се използват при проектирането, проектния контрол и проектната верификация на високорисковата система с ИИ;

    в)

    техники, процедури и системни действия, които да се използват за разработката, контрола на качеството и осигуряването на качеството на високорисковата система с ИИ;

    в)

    техники, процедури и системни действия, които да се използват за разработката, контрола на качеството и осигуряването на качеството на високорисковата система с ИИ;

    г)

    процедури за проверка, изпитване и валидиране, които да се извършват преди, по време на и след разработването на високорисковата система с ИИ, и честотата, с която те трябва да се извършват;

    г)

    процедури за проверка, изпитване и валидиране, които да се извършват преди, по време на и след разработването на високорисковата система с ИИ, и честотата, с която те трябва да се извършват;

    д)

    технически спецификации, включително стандарти, които да се прилагат и, когато съответните хармонизирани стандарти не са приложени изцяло, средствата, които трябва да се използват, за да се гарантира, че високорисковата система с ИИ съответства на изискванията, определени в глава 2 от настоящия дял;

    д)

    технически спецификации, включително стандарти, които да се прилагат и, когато съответните хармонизирани стандарти не са приложени изцяло, средствата, които трябва да се използват, за да се гарантира, че високорисковата система с ИИ съответства на изискванията, определени в глава 2 от настоящия дял;

    е)

    системи и процедури за управление на данни, включително събиране, анализ, етикетиране, съхранение, филтриране, извличане, агрегиране, запазване на данни, както и за всякакви други операции по отношение на данните, които се извършват преди и за целите на пускането на пазара или въвеждането в експлоатация на високорискови системи с ИИ;

    е)

    системи и процедури за управление на данни, включително събиране, анализ, етикетиране, съхранение, филтриране, извличане, агрегиране, запазване на данни, както и за всякакви други операции по отношение на данните, които се извършват преди и за целите на пускането на пазара или въвеждането в експлоатация на високорискови системи с ИИ;

    ж)

    системата за управление на риска, посочена в член 9;

    ж)

    системата за управление на риска, посочена в член 9;

    з)

    създаването, въвеждането и поддържането на система за мониторинг след пускане на пазара в съответствие с член 61;

    з)

    създаването, въвеждането и поддържането на система за мониторинг след пускане на пазара в съответствие с член 61;

    и)

    процедури, свързани с докладването на сериозни инциденти и на повреди в съответствие с член 62;

    и)

    процедури, свързани с докладването на сериозни инциденти и на повреди в съответствие с член 62;

    й)

    придвижването на комуникацията с националните компетентни органи, компетентните органи, включително секторните, осигуряващи или съдействащи за достъпа до данни, нотифицираните органи, другите оператори, потребителите или други заинтересовани страни;

    й)

    придвижването на комуникацията с националните компетентни органи, компетентните органи, включително секторните, осигуряващи или съдействащи за достъпа до данни, нотифицираните органи, другите оператори, потребителите или други заинтересовани страни;

    к)

    системи и процедури за поддържане на регистри на всичката имаща отношение документация и информация;

    к)

    системи и процедури за поддържане на регистри на всичката имаща отношение документация и информация;

    л)

    управление на ресурсите, включително мерки, свързани със сигурността на доставките;

    л)

    управление на ресурсите, включително мерки, свързани със сигурността на доставките;

    м)

    рамка за отчетност, определяща отговорностите на ръководния състав и останалите служители по отношение на всички аспекти, посочени в настоящия параграф.

    м)

    рамка за отчетност, определяща отговорностите на ръководния състав и останалите служители по отношение на всички аспекти, посочени в настоящия параграф;

     

    н)

    мерки за предотвратяване на неоправдана дискриминация, основана на пол, етнически произход, религия или убеждения, увреждане, възраст, сексуална ориентация или на каквото и да е основание;

    о)

    обяснение на начина, по който са взети предвид етичните въпроси при проектирането на високорисковата система с ИИ.

    Изложение на мотивите

    С допълнението се подчертава, че приобщаването и борбата срещу неоправданата дискриминация трябва да бъдат важни елементи на системата за качество.

    Системата следва да отговаря на етичните ценности, които ползвателят на системата с ИИ желае да установи или които доставчикът може основателно да очаква да бъдат установени за високорискова система с ИИ. Доставчикът трябва да може да обясни как е взел това предвид.

    Изменение 23

    Член 19, параграф 1

    Текст, предложен от Европейската комисия

    Изменение на КР

    Доставчиците на високорискови системи с ИИ гарантират, че техните системи преминават през съответната процедура за оценяване на съответствието съгласно член 43, преди да бъдат пуснати на пазара или въведени в експлоатация. Когато съответствието на системите с ИИ с изискванията, определени в глава 2 от настоящия дял, бъде доказано след оценяването на съответствието, доставчиците изготвят декларация за съответствие с изискванията на ЕС съгласно член 48 и поставят маркировка за съответствие „СЕ“ съгласно член 49.

    Доставчиците на високорискови системи с ИИ гарантират, че техните системи преминават през съответната процедура за оценяване на съответствието съгласно член 43, преди да бъдат пуснати на пазара или въведени в експлоатация. Когато съответствието на системите с ИИ с изискванията, определени в глава 2 от настоящия дял, бъде доказано след оценяването на съответствието, доставчиците изготвят декларация за съответствие с изискванията на ЕС съгласно член 48 и поставят маркировка за съответствие „СЕ“ съгласно член 49. Доставчиците на високорискови системи с ИИ публикуват декларация за съответствие с изискванията на ЕС и обобщение на оценката на съответствието на обществено достъпно място.

    Изложение на мотивите

    За да се укрепи екосистемата на доверие в системите с ИИ, дейностите на доставчиците на високорисковите системи с ИИ трябва да бъдат публично достояние. Поради това обществеността трябва да може да проверява дали оценяването на съответствието е правилно осъществено в съответствие с правилата на регламента.

    Изменение 24

    Член 29, добавя се нов параграф след параграф 6

    Текст, предложен от Европейската комисия

    Изменение на КР

     

    Ползвателите на високорискови системи с ИИ носят отговорност за извършването на етична оценка преди използването на системата. Те трябва да могат да обяснят възможното въздействие на внедряването на технологията върху хората и обществото. Те посочват точно предназначението на внедряването на системата с ИИ, основните ценности и начина, по който тези ценности са били определени, както и дали са били въведени в системата или не. Те оценяват реалното въздействие на системата върху хората и обществото през целия жизнен цикъл на системата с ИИ.

    Изложение на мотивите

    Етиката е широко понятие. Съществуват много начини за прилагане на етика в областта на технологиите, както по отношение на теоретичната обосновка, така и по отношение на конкретни методологии, инструменти и проектни стойности. Ценностите са въпроси, които определени (групи) хора считат за важни. Те могат да бъдат по-конкретни или по-концептуални. Важно е да се запази отворен спектърът от морални ценности, които могат да бъдат приложени, и да продължи оценяването на жизнения цикъл на системата с ИИ.

    Изменение 25

    Член 52, параграф 1

    Текст, предложен от Европейската комисия

    Изменение на КР

    Доставчиците гарантират, че системите с ИИ, предназначени да взаимодействат с физически лица, са проектирани и разработени по такъв начин, че физическите лица да бъдат информирани, че взаимодействат със система с ИИ, освен ако това не е очевидно от обстоятелствата и контекста на употреба. Това задължение не се прилага за системи с ИИ, оправомощени по закон за разкриване, предотвратяване, разследване и наказателно преследване на престъпления, освен ако тези системи са на разположение на обществеността за съобщаване на престъпление.

    Доставчиците гарантират, че системите с ИИ, предназначени да взаимодействат с физически лица, са проектирани и разработени по такъв начин, че физическите лица да бъдат информирани, че взаимодействат със система с ИИ. Това задължение не се прилага за системи с ИИ, оправомощени по закон за разкриване, предотвратяване, разследване и наказателно преследване на престъпления, освен ако тези системи са на разположение на обществеността за съобщаване на престъпление. Наборът от възможности и правният статут на физическите лица, които взаимодействат със системи с ИИ, не трябва да бъдат ограничавани от това взаимодействие.

    Изложение на мотивите

    Когато технологичните артефакти се използват като средство за взаимодействие с физически лица, може да възникне риск от ограничаване на избора, направен от физически лица, които взаимодействат с тези артефакти. Физическите лица трябва да бъдат винаги надлежно информирани всеки път, когато имат взаимодействие със системи с ИИ, и това не трябва да подлежи на тълкуване на дадена ситуация. Техните права трябва да бъдат гарантирани през цялото време при взаимодействията със системи с ИИ.

    Изменение 26

    Член 57, параграф 1

    Текст, предложен от Европейската комисия

    Изменение на КР

    Съветът по ИИ се състои от националните надзорни органи, които се представляват от ръководителя или равностойно високопоставено длъжностно лице на този орган, и от Европейския надзорен орган по защита на данните. Други национални органи могат да бъдат поканени на заседанията, когато обсъжданите въпроси са от значение за тях.

    Съветът по ИИ се състои от националните надзорни органи, които се представляват от ръководителя или равностойно високопоставено длъжностно лице на този орган, и от Европейския надзорен орган по защита на данните. Други национални , регионални и местни органи могат да бъдат поканени на заседанията, когато обсъжданите въпроси са от значение за тях.

    Изложение на мотивите

    Местните и регионалните власти трябва да могат да участват в наблюдението на системите с ИИ и да докладват за тяхното прилагане по места.

    Изменение 27

    Член 58

    Текст, предложен от Европейската комисия

    Изменение на КР

    Когато консултира и подпомага Комисията в контекста на член 56, параграф 2, Съветът по ИИ по-специално:

    Когато консултира и подпомага Комисията в контекста на член 56, параграф 2, Съветът по ИИ по-специално:

    а)

    събира и обменя експертен опит и най-добри практики сред държавите членки;

    а)

    събира и обменя експертен опит и най-добри практики сред държавите членки , местните и регионалните власти ;

    б)

    допринася за единни административни практики в държавите членки, включително за функционирането на регулаторните лаборатории, посочени в член 53;

    б)

    допринася за единни административни практики в държавите членки, включително за функционирането на регулаторните лаборатории, посочени в член 53;

    в)

    издава становища, препоръки или писмени становища по въпроси, свързани с прилагането на настоящия регламент, и по-специално

    в)

    издава становища, препоръки или писмени становища по въпроси, свързани с прилагането на настоящия регламент, и по-специално

     

    i)

    относно техническите спецификации или съществуващите стандарти по отношение на изискванията, посочени в дял III, глава 2;

    ii)

    относно използването на хармонизираните стандарти или общите спецификации, посочени в членове 40 и 41;

    iii)

    относно изготвянето на ръководни документи, включително насоките относно определянето на административните глоби, посочени в член 71.

     

    i)

    относно техническите спецификации или съществуващите стандарти по отношение на изискванията, посочени в дял III, глава 2;

    ii)

    относно използването на хармонизираните стандарти или общите спецификации, посочени в членове 40 и 41;

    iii)

    относно изготвянето на ръководни документи, включително насоките относно определянето на административните глоби, посочени в член 71.

    Изложение на мотивите

    Местните и регионалните власти са най-близо до местните жители и икономики. Те следва да бъдат упоменати изрично, когато става въпрос за споделяне на техните знания.

    Изменение 28

    Член 59, параграф 1

    Текст, предложен от Европейската комисия

    Изменение на КР

    Всяка държава членка създава или определя национални компетентни органи с цел да се гарантира прилагането и изпълнението на настоящия регламент. Националните компетентни органи имат организация, която гарантира обективността и безпристрастността на техните дейности и задачи.

    Всяка държава членка създава или определя национални компетентни органи с цел да се гарантира прилагането и изпълнението на настоящия регламент. Националните компетентни органи имат организация, която гарантира обективността и безпристрастността на техните дейности и задачи. Местните и регионалните власти се оправомощават да извършват задачи, свързани с надзора или правоприлагането, когато това се счита за целесъобразно от държавата членка.

    Изложение на мотивите

    За да се гарантира приложимостта на регламента и определената рамка за надзор и правоприлагане, държавата членка следва да може да възлага, когато е необходимо и когато е възможно, на местните и регионалните власти задачи по надзор и правоприлагане. Във връзка с това местните и регионалните власти трябва да получат подкрепа и обучение, за да бъдат напълно оправомощени да изпълняват задачи, свързани с надзора или правоприлагането.

    Изменение 29

    член 69, параграф 3

    Текст, предложен от Европейската комисия

    Изменение на КР

    Кодексите за поведение могат да бъдат изготвяни от отделни доставчици на системи с ИИ или от организации, които ги представляват, или съвместно от доставчици и техни представителни организации, включително с участието на ползватели и заинтересовани страни и техните представителни организации. Кодексите за поведение могат да обхващат една или повече системи с ИИ, като се отчита сходството в предназначението на съответните системи.

    Кодексите за поведение могат да бъдат изготвяни от национални, местни или регионални власти, отделни доставчици на системи с ИИ или от организации, които ги представляват, или съвместно от доставчици и техни представителни организации, включително с участието на ползватели и заинтересовани страни и техните представителни организации. Кодексите за поведение могат да обхващат една или повече системи с ИИ, като се отчита сходството в предназначението на съответните системи.

    Изложение на мотивите

    На националните, местните и регионалните власти следва да се предостави законово правомощие да изготвят кодекси за поведение за системите с ИИ, които те разработват или използват.

    Изменение 30

    ПРИЛОЖЕНИЕ I — Изкуствен интелект техники и подходи по член 3, точка 1

    Текст, предложен от Европейската комисия

    Изменение на КР

     

    Като се имат предвид актуалните научни познания, ИИ включва следните техники и методи:

    а)

    Подходи за машинно самообучение, включително самообучение с учител, самообучение без учител и обучение с утвърждение, като се използва голямо разнообразие от методи, включително дълбоко самообучение;

    а)

    Подходи за машинно самообучение, включително самообучение с учител, самообучение без учител и обучение с утвърждение, като се използва голямо разнообразие от методи, включително дълбоко самообучение;

    б)

    Логически и основани на знанието подходи, включително представяне на знанията, индуктивно (логическо) програмиране, бази от знания, машини за логически изводи и машини за дедукции, (символни) съждения и експертни системи;

    б)

    Логически и основани на знанието подходи, включително представяне на знанията, индуктивно (логическо) програмиране, бази от знания, машини за логически изводи и машини за дедукции, (символни) съждения и експертни системи;

    в)

    Статистически подходи, методи за бейесовско оценяване, търсене и оптимизация.

    в)

    Статистически подходи, методи за бейесовско оценяване, търсене и оптимизация.

    Изложение на мотивите

    Определението и списъкът на техниките на ИИ следва да бъдат ориентирани към бъдещето. Списъкът на конкретните техники и подходи, използвани за разработването на системи с ИИ, не следва да бъде изчерпателен и трябва да е ясно, че той се основава на актуалните научни познания.

    Изменение 31

    ПРИЛОЖЕНИЕ III, 1—5

    Текст, предложен от Европейската комисия

    Изменение на КР

    Високорискови системи с ИИ съгласно член 6, параграф 2 са системите с ИИ в някоя от следните области:

    Високорискови системи с ИИ съгласно член 6, параграф 2 са системите с ИИ в някоя от следните области:

    1.

    Биометрична идентификация и категоризация на физическите лица:

    1.

    Биометрична идентификация и категоризация на физическите лица:

    а)

    Системи с ИИ, предназначени да се използват за дистанционна биометрична идентификация в реално време и екс-пост дистанционна биометрична идентификация на физически лица;

    а)

    Системи с ИИ, предназначени да се използват за дистанционна биометрична идентификация в реално време и екс-пост дистанционна биометрична идентификация на физически лица;

    2.

    Управление и експлоатация на критична инфраструктура:

    2.

    Управление и експлоатация на критична инфраструктура:

    а)

    Системи с ИИ, предназначени да се използват като предпазни елементи при управлението и експлоатацията на движението по пътищата и водоснабдяването, газоснабдяването, отоплението и електричеството.

    а)

    Системи с ИИ, предназначени да се използват като предпазни елементи при управлението и експлоатацията на движението по пътищата и водоснабдяването, газоснабдяването, отоплението и електричеството и телекомуникационната, водната и интернет инфраструктура .

    3.

    Образование и професионално обучение:

    3.

    Образование и професионално обучение:

    а)

    Системи с ИИ, предназначени да се използват за определяне на достъпа или за насочване на физически лица към институции за образование и професионално обучение;

    а)

    Системи с ИИ, предназначени да се използват за определяне на достъпа или за насочване на физически лица към институции за образование и професионално обучение;

    б)

    Системи с ИИ, предназначени да се използват за оценяване на учащите се в институции за образование и професионално обучение и за оценяване на участниците в тестовете, които обикновено се изискват за прием в образователни институции.

    б)

    Системи с ИИ, предназначени да се използват за оценяване на учащите се в институции за образование и професионално обучение и за оценяване на участниците в тестовете, които обикновено се изискват за прием в образователни институции.

    4.

    Заетост, управление на работниците и достъп до самостоятелна заетост:

    4.

    Заетост, управление на работниците и достъп до самостоятелна заетост:

    а)

    Системи с ИИ, предназначени да се използват за набиране или подбор на физически лица, по-специално за обявяване на свободни работни места, за скрининг или филтриране на заявления, за оценяване на кандидатите по време на събеседвания или тестове;

    а)

    Системи с ИИ, предназначени да се използват за набиране или подбор на физически лица, по-специално за обявяване на свободни работни места, за скрининг или филтриране на заявления, за оценяване на кандидатите по време на събеседвания или тестове;

    б)

    ИИ, предназначен да се използва за вземане на решения за служебно повишение, както и за прекратяване на трудови правоотношения, за разпределяне на задачите и за наблюдение и оценяване на работата и поведението на лицата при такива правоотношения.

    б)

    ИИ, предназначен да се използва за вземане на решения за служебно повишение, както и за прекратяване на трудови правоотношения, за разпределяне на задачите и за наблюдение и оценяване на работата и поведението на лицата при такива правоотношения.

    5.

    Достъп до основни частни услуги и обществени услуги и обезщетения:

    5.

    Достъп до основни частни услуги и обществени услуги и обезщетения:

    а)

    Системи с ИИ, предназначени да се използват от публични органи или от името на публични органи за оценка на допустимостта на физически лица за получаване на социални обезщетения и услуги, както и за отпускане, намаляване, прекратяване или възстановяване на такива обезщетения и услуги;

    а)

    Системи с ИИ, предназначени да се използват от публични органи или от името на публични органи за оценка и вземане на решение относно допустимостта на физически лица за получаване на социални обезщетения и услуги, както и за отпускане, намаляване, прекратяване или възстановяване на такива обезщетения и услуги;

    б)

    Системи с ИИ, предназначени да се използват за оценка на кредитоспособността на физически лица или за определяне на техния кредитен рейтинг, с изключение на системите с ИИ, въведени в експлоатация от малки доставчици за тяхна собствена употреба;

    б)

    Системи с ИИ, предназначени да се използват за определяне на кредитоспособността на физически лица или на техния кредитен рейтинг, с изключение на системите с ИИ, въведени в експлоатация от малки доставчици за тяхна собствена употреба;

    в)

    Системи с ИИ, предназначени за изпращане или за определяне на приоритет при изпращането на службите за спешно реагиране, включително при пожарникари и медицинска помощ.

    в)

    Системи с ИИ, предназначени за изпращане или за определяне на приоритет при изпращането на службите за спешно реагиране, включително при пожарникари и медицинска помощ.

    Изложение на мотивите

    Телекомуникационната, водната и интернет инфраструктурата са неразделна част от критичната инфраструктура.

    При квалифицирането на високорисковите системи се определя дали тези системи биха могли да представляват реален риск за гражданите. Обикновената аналитична и теоретична оценка на това дали гражданите отговарят на условията, за да имат достъп до обществените услуги, предоставяни от публичните власти, не води до висок риск. Допълването на думата „оценка“ с „вземане на решение“ подчертава, че този риск е ефективно отразен в процеса на вземане на решения, по-специално за гражданите.

    II.   ПОЛИТИЧЕСКИ ПРЕПОРЪКИ

    ЕВРОПЕЙСКИЯТ КОМИТЕТ НА РЕГИОНИТЕ

    Екосистема за високи постижения

    1.

    подчертава, че амбицията на Комисията да превърне ЕС в световен лидер в областта на отговорното и ориентираното към човека развитие на ИИ може да бъде постигната само ако на местните и регионалните власти бъде отредена силна позиция в този процес. Местните и регионалните власти са в най-добра позиция да допринесат за създаването на благоприятна среда за увеличаване на инвестициите в ИИ през следващите години и за насърчаване на доверието в ИИ;

    2.

    подчертава, че освен участието на местните и регионалните власти е важно да се осигурят подкрепа и обучение, за да се повишат компетенциите им в тази област, особено предвид факта, че те могат да получат функции във връзка с надзора и правоприлагането;

    3.

    констатира, че е налице финансиране от ЕС за развитието на ИИ, но отбелязва фрагментирания подход към това развитие, дължащ се на разнообразието на програмите. Това увеличава риска от разпръсване и припокриване;

    4.

    поради това призовава Комисията да разработи и свърже солидни и разнородни общи пространства на данни, които предлагат решение за случаи на обществено ползване с използването на публични и частни данни. Това изисква също така привеждане в съответствие със законодателните инициативи в рамките на европейската стратегия за данните.

    Екосистема на доверие

    5.

    изразява съжаление, че в предложението за регламент не се упоменават местните и регионалните власти, въпреки факта, че правната рамка ще се прилага както за публичните, така и за участниците както от публичния, така и от частния сектор;

    6.

    отбелязва за тази цел, че системите с ИИ могат да играят важна роля при взаимодействието на местните и регионалните власти с техните граждани и за предоставянето на услуги. Освен това системите с ИИ могат, наред с другото, да повишат ефективността на публичния сектор и да помогнат на местните и регионалните власти да предприемат необходимите корекции на местно и регионално равнище във връзка с екологичния и цифровия преход. Поради това при текущото преразглеждане на регламента е важно да се използва активно придобитият от местните и регионалните власти опит;

    7.

    призовава за допълнително изясняване на определенията за „доставчик“ и „ползвател“, по-специално в случаите, когато дружества, научноизследователски институции, публични органи и граждани съвместно разработват и изпитват системи с ИИ в „живи лаборатории“. Следва да се обърне необходимото внимание и на гражданите или потребителите, засегнати от основани на ИИ решения на системи, използвани от професионални ползватели;

    8.

    подчертава необходимостта от предварителна консултация със съответните местни и регионални органи в случай на използване на системи с ИИ за биометрична идентификация в реално време на физически лица от разстояние на обществено достъпни места за целите на правоприлагането;

    9.

    приветства обществената консултация на Европейската комисия относно адаптирането на правилата за гражданска отговорност към специфичните предизвикателства на цифровата ера и изкуствения интелект (1) и очаква, че това ще доведе до актуализирана рамка, насочена към осигуряване на правна защита на потребителите за вреди, причинени от приложения с ИИ;

    10.

    си задава въпроса защо системите с ИИ, използвани в демократични процеси, като например избори, не са включени в списъка на високорисковите системи с ИИ;

    11.

    призовава високорисковите системи с ИИ да подлежат на същите изисквания за прозрачност и информация за физическите лица, като тези, които се прилагат понастоящем за ползвателите;

    12.

    подчертава големите рискове и последици за правата на човека, свързани с използването на социални класификации;

    13.

    във връзка с това изразява силно скептично отношение към двете ситуации, упоменати в регламента (2), за да се определи кога дадена социална класификация води до увреждащо или неблагоприятно третиране на отделни лица или групи от хора, тъй като е изключително трудно да се установи наличието на такива ситуации. Във връзка с това Комитетът призовава за ясно формулиране на строги предпазни мерки, за да се гарантира, че забраната на практиките за социално класифициране няма да бъде заобикаляна;

    14.

    отбелязва, че в съображенията на регламента се разглеждат по-подробно рисковете, на които са изложени физическите лица в резултат на взаимодействието им с високорискови системи с ИИ в контекста, наред с другото, на образованието, обучението, заетостта, управлението на човешките ресурси, достъпа до самостоятелна заетост или достъпа до и ползването на някои основни частни и обществени услуги;

    15.

    призовава Комисията да проучи по-подробно класифицирането на високорисковите системи с ИИ, предназначени да се използват от публичните органи (3);

    16.

    призовава за орган, който да може предварително да предоставя съществени консултации относно тълкуването на разпоредбите на регламента, също и във връзка с Общия регламент относно защитата на данните. Това ще повиши правната сигурност и ще намали разходите за проектиране и внедряване на системи с ИИ;

    17.

    във връзка с това подчертава значението на яснотата при формулирането на регламента, който е от основно значение за изграждането на екосистема на доверие и за премахване на правната несигурност по отношение на разработването и използването на системи с ИИ. По този начин ще се избегнат погрешните тълкувания на предложените изисквания и ще се сведат до минимум рисковете от последващо лошо управление на приложенията с ИИ, с което ще се увеличи максимално ефективността на регламента и надеждността на санкциите. Същевременно и в съответствие с програмата на Европейската комисия за по-добро регулиране от основно значение е ранното откриване и премахване на потенциалните припокривания и/или конфликти със съществуващите правила;

    18.

    отбелязва, че много местни и регионални власти използват едни и същи системи с ИИ за сходни задачи. В по-голямата част от случаите системите са проектирани от частни дружества;

    19.

    отбелязва, че предложението за регламент не е самостоятелно обособено, що се отнася до гарантирането на правата на гражданите, и че трябва да се разглежда в контекста на действащото законодателство. Поради тази причина държавите членки се насърчават да гарантират, че редовно предприемат необходимите административни мерки, за да могат да посрещат възможностите и рисковете, свързани с използването на ИИ в публичния сектор;

    20.

    посочва, че това означава, че при оценяването на съответствието европейските и националните правила се тълкуват от дружествата и нотифицираните органи и по този начин оказват въздействие върху практиката на местните и регионалните власти, които използват тези системи с ИИ. Това затруднява възможността да се определи до каква степен местната и регионалната политика може да бъде взета предвид в тези системи с ИИ. Поради това Комитетът обръща внимание на специфичните нужди на местните и регионалните власти и на факта, че универсалният подход може да подкопае ефективността на системите с ИИ в отговор на тези нужди. Освен това Комитетът предлага държавите членки да бъдат оправомощени да регулират високорискови системи с ИИ при наложителни и основателни причини от обществен интерес;

    21.

    във връзка с това призовава оценките на съответствието да бъдат прозрачни и достъпни за обществеността. Освен това местните и регионалните власти трябва също така да могат да участват в наблюдението на системите с ИИ, да докладват за тяхното прилагане по места и да допринасят официално за оценката на Европейската комисия на прилагането на регламента;

    22.

    подчертава, че за функционирането на „регулаторния пясъчник“ следва да се създадат подходящи правни, методологични и етични условия, за да се даде възможност за разработването на технологии и изготвянето и оценката на законодателството. Би трябвало също така да бъдат установени ясни критерии за допускане на дружества до „регулаторния пясъчник“. За да се гарантира, че потребителските организации могат да прилагат разпоредбите на Законодателния акт за изкуствения интелект, той трябва да бъде добавен в приложение I към Европейската директива относно представителни искове за защита на колективните интереси на потребителите ((ЕС) 2020/1828);

    Информационни кампании

    23.

    подчертава значението на обществените кампании, така че широката общественост да бъде информирана и запозната със съществуването на и ползата от системите с ИИ, както и с потенциалните рискове. Освен това подчертава спешната необходимост от изчерпателна информация за потребителите относно процесите на вземане на решения, управлявани от изкуствен интелект/машини. За тази цел призовава Европейската комисия да предостави финансиране за такива кампании;

    Административна тежест

    24.

    изразява загриженост относно потенциалната административна тежест, която може да породи предложеният регламент. Административната тежест може да възпрепятства малките и средните предприятия, местните и регионалните власти при насърчаването на иновациите и внедряването на системи с ИИ (4);

    Пропорционалност и субсидиарност

    25.

    счита, че проектът на регламент е в съответствие с изискванията на принципите на пропорционалност и субсидиарност. Добавената стойност на действията на ЕС в тази област и целесъобразността на избраните от Комисията правни основания са ясни и последователни. В оценката на въздействието е включен отделен раздел относно субсидиарността. Освен това нито един национален парламент не издаде мотивирано становище относно неспазване на принципа на субсидиарност до крайния срок за внасяне на предложения, определен на 2 септември 2021 г.

    Брюксел, 2 декември 2021 година.

    Председател на Европейския комитет на регионите

    Apostolos TZITZIKOSTAS


    ([62])  Рамково решение 2002/584/ПВР на Съвета от 13 юни 2002 г. относно европейската заповед за арест и процедурите за предаване между държавите членки (ОВ L 190, 18.7.2002 г., стр. 1).

    ([62])  Рамково решение 2002/584/ПВР на Съвета от 13 юни 2002 г. относно европейската заповед за арест и процедурите за предаване между държавите членки (ОВ L 190, 18.7.2002 г., стр. 1).

    (1)  https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_bg.

    (2)  Член 5, параграф 1, буква в).

    (3)  Приложение III, член 5, буква a).

    (4)  Според неотдавнашно проучване, с подкрепата на Европейската комисия (Study to Support an Impact Assessment of Regulatory Requirements for Artificial Intelligence in Europe) (Проучване в подкрепа на оценка на въздействието на регулаторните изисквания за изкуствения интелект в Европа), стр. 12, въз основа на разумни допускания, получаването на сертификат за система с ИИ би могло да струва средно 16 800—23 000 евро, което се равнява приблизително на 10—14 % от разходите за развойна дейност.


    Top