Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52021AE2482

    Становище на Европейския икономически и социален комитет относно „Предложение за регламент на Европейския парламент и на Съвета за определяне на хармонизирани правила относно изкуствения интелект (Законодателен акт за изкуствения интелект) и за изменение на някои законодателни актове на Съюза“ (COM(2021) 206 final — 2021/106 (COD)

    EESC 2021/02482

    OB C 517, 22.12.2021, p. 61–66 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    22.12.2021   

    BG

    Официален вестник на Европейския съюз

    C 517/61


    Становище на Европейския икономически и социален комитет относно „Предложение за регламент на Европейския парламент и на Съвета за определяне на хармонизирани правила относно изкуствения интелект (Законодателен акт за изкуствения интелект) и за изменение на някои законодателни актове на Съюза“

    (COM(2021) 206 final — 2021/106 (COD)

    (2021/C 517/09)

    Докладчик:

    Catelijne MULLER

    Консултация

    Европейски парламент, 7.6.2021 г.

    Съвет, 15.6.2021 г.

    Правно основание

    Член 114 от Договора за функционирането на Европейския съюз

    Компетентна секция

    „Единен пазар, производство и потребление“

    Приемане от секцията

    2.9.2021 г.

    Приемане на пленарна сесия

    22.9.2021 г.

    Пленарна сесия №

    563

    Резултат от гласуването

    („за“/„против“/„въздържал се“)

    225/03/06

    1.   Заключения и препоръки

    1.1.

    Европейският икономически и социален комитет (ЕИСК) приветства факта, че в предложението на Комисията за Законодателен акт за изкуствения интелект („ЗАИИ“) не само се обръща внимание на рисковете, свързани с ИИ, но и се повдига значително летвата по отношение на качеството, функционирането и надеждността на ИИ, който ЕС е готов да разреши. ЕИСК изразява особено задоволство, че в основата на ЗАИИ се поставят здравето, безопасността и основните права и глобалността на неговия обхват.

    1.2.

    Комитетът вижда области, в които е необходимо подобрение по отношение на обхвата, определянето и яснотата на забранените практики в сферата на ИИ, последиците от категоризационните избори, направени във връзка с „пирамидата от рискове“, ефекта за ограничаване на риска на изискванията за високорисковия ИИ, привеждането в изпълнение на ЗАИИ и връзката с действащото законодателство и с други неотдавнашни законодателни предложения.

    1.3.

    ЕИСК подчертава, че ИИ никога не е функционирал в свят без закони. Поради широкия му обхват и неговото предимство като регламент на EС ЗАИИ би могъл да създаде напрежение с действащото национално и европейско законодателство и свързаните законодателни предложения. ЕИСК препоръчва да се измени съображение 41 с цел надлежно отразяване и изясняване на отношенията между ЗАИИ и съществуващото и бъдещото законодателство.

    1.4.

    ЕИСК препоръчва да се изясни определението за ИИ, като се заличи приложение I и леко се измени член 3, и като се разшири обхватът на ЗАИИ, така че да се включат „заварените системи с ИИ“ и компонентите на ИИ в широкомащабните информационни системи в пространството на свобода, сигурност и правосъдие, изброени в Приложение IX.

    1.5.

    Комитетът препоръчва да се изяснят забраните относно „сублиминалните техники“ и „използването на уязвимите места“, така че да бъде включена забраната за вредно манипулиране, а също и да се добави „вреда за основните права, демокрацията и принципите на правовата държава“ като условие за тези забрани.

    1.6.

    Според ЕИСК в ЕС няма място за класифицирането на надеждността на гражданите на ЕС въз основа на тяхното социално поведение или личностни характеристики, независимо от субекта, който извършва класифицирането. Комитетът препоръчва обхватът на тази забрана да се разшири, за да се включи социалният ранкинг от частни организации или полупублични органи.

    1.7.

    ЕИСК призовава за забрана на използването на ИИ за автоматизирано биометрично разпознаване на публично и частно достъпни места, освен за целите на удостоверяването на самоличността при специфични обстоятелства, както и за автоматично разпознаване на човешки поведенчески сигнали на публично и частно достъпни места, с изключение на много специфични случаи, като например някои здравни цели, при които разпознаването на емоциите на пациентите може да бъде от голяма полза.

    1.8.

    Подходът към високорисковия ИИ с изготвянето на списъци носи риска редица системи с ИИ и употреби на ИИ, които все още са силно критикувани, да започнат да се считат за нормални и да бъдат интегрирани. ЕИСК предупреждава, че спазването на изискванията, определени за ИИ със среден и висок риск, не ограничава непременно рисковете от вреди за здравето, безопасността и основните права за всички високорискови системи с ИИ. Комитетът препоръчва в ЗАИИ това положение да се вземе предвид. Следва най-малко да се добавят изискванията от Насоките относно етичните аспекти за надежден ИИ за i) човешки фактор, ii) неприкосновеност на личния живот, iii) многообразие, недискриминация и справедливост, iv) обяснимост и v) обществено и екологично благополучие.

    1.9.

    В съответствие с отдавна застъпвания от ЕИСК подход, при който човекът запазва контрол, Комитетът настоятелно препоръчва в ЗАИИ да се предвиди определени решения да останат прерогатив на човека, особени в области, в които тези решения съдържат морален компонент, имат правни последици или обществено въздействие, например в съдебната система, правоприлагането, социалните услуги, здравеопазването, жилищното настаняване, финансовите услуги, трудовите отношения и образованието.

    1.10.

    ЕИСК препоръчва оценяването на съответствието от трета страна да стане задължително за всички високорискови системи с ИИ.

    1.11.

    Комитетът препоръчва да се включи механизъм за подаване на жалби и правна защита за организации и граждани, които са претърпели вреди от която и да било система или практика с ИИ или употреба на ИИ, която попада в обхвата на ЗАИИ.

    2.   Законодателно предложение относно изкуствения интелект — Законодателен акт за ИИ

    2.1.

    ЕИСК приветства факта, че в предложението на Комисията за Законодателен акт за изкуствения интелект не само се обръща внимание на рисковете, свързани с ИИ, но се повдига значително и летвата по отношение на качеството, функционирането и надеждността на ИИ, който ЕС е готов да разреши.

    3.   Общи бележки — ЗАИИ

    Цел и обхват

    3.1.

    ЕИСК приветства както целта, така и обхвата на ЗАИИ. Комитетът приветства по-специално факта, че Комисията поставя в основата на ЗАИИ здравето, безопасността и основните права. ЕИСК приветства също и външния ефект на ЗАИИ, гарантиращ, че ИИ, който се разработва извън ЕС, трябва да отговаря на същите правни стандарти, ако се внедри или има въздействие в рамките на ЕС.

    Определение на ИИ

    3.2.

    Определението на ИИ (член 3(1) във връзка с приложение I към ЗАИИ) повдигна дискусия сред учените в областта на ИИ, доколкото те не считат за ИИ редица от дадените в приложение I примери, а липсват редица важни технологии в областта на ИИ. ЕИСК не вижда добавена стойност в приложение I и препоръчва то да се премахне изцяло от ЗАИИ. Комитетът също така препоръчва определението в член 3(1) да се измени, както следва:

    „система с изкуствен интелект“ (система с ИИ) означава софтуер, който може по автоматизиран начин по отношение на даден набор от цели, определени от човека, да генерира резултати като съдържание, прогнози, препоръки или решения, които оказват въздействие върху средите, с които взаимодействат.“

    Здраве, безопасност и основни права — пирамидата от рискове

    3.3.

    Възходящата пирамида от рискове (от нисък/среден риск до висок риск и до неприемлив риск), използвана за класифициране на редица общи практики в сферата на ИИ и случаи на употреба на ИИ в специфични области, отчита факта, че не всеки ИИ представлява риск и не всички рискове са еднакви или изискват същите мерки за ограничаване.

    3.4.

    Избраният подход ни изправя пред два важни въпроса. Първо, дали мерките за ограничаване (за ИИ с висок и нисък/среден риск) наистина ограничават в достатъчна степен рисковете от вреди за здравето, безопасността и основните права? Второ, готови ли сме да позволим ИИ да замени в голяма степен вземането на решения от човека дори в процеси от критично значение като правоприлагането и съдебната система?

    3.5.

    Що се отнася до първия въпрос, ЕИСК предупреждава, че спазването на изискванията, определени за ИИ със среден и висок риск, не ограничава непременно във всички случаи рисковете от вреди за здравето, безопасността и основните права. Този въпрос ще бъде разгледан допълнително в раздел 4.

    3.6.

    Що се отнася до втория въпрос, това, което липсва в ЗАИИ е идеята, че перспективите, свързани с ИИ, следва да се състоят по-скоро в това да допълва вземането на решения от човека и човешкия интелект, а не да ги замени. ЗАИИ действа въз основа на приемането, че след като бъдат изпълнени изискванията за ИИ със среден и висок риск, ИИ може в голяма степен да замени вземането на решения от човека.

    3.7.

    Комитетът настоятелно препоръчва в ЗАИИ да се предвиди определени решения да останат прерогатив на човека, особени в области, в които тези решения съдържат морален компонент, имат правни последици или обществено въздействие, например в съдебната система, правоприлагането, социалните услуги, здравеопазването, жилищното настаняване, финансовите услуги, трудовите отношения и образованието.

    3.8.

    Системите с ИИ не функционират в свят без закони. Понастоящем редица правнообвързващи разпоредби на европейско, национално и международно равнище вече се прилагат или се отнасят до системите с ИИ. Правните източници включват (без да се ограничават до тях): първичното право на ЕС (Договорите на Европейския съюз и неговата Харта на основните права), вторичното право на ЕС (като Общия регламент относно защитата на данните, Директивата относно отговорността за вреди, причинени от дефект на стока, Регламента относно свободното движение на нелични данни, директивите за борба с дискриминацията, законодателството за защита на потребителите и директивите за безопасността и здравето на работното място), договорите на ООН за правата на човека и конвенциите на Съвета на Европа (като Европейската конвенция за правата на човека) и редица закони на държавите — членки на ЕС. Освен хоризонтално приложимите разпоредби съществуват различни специфични за отделните области разпоредби, които се прилагат за конкретни приложения на ИИ (като например Регламента за медицинските изделия в сектора на здравеопазването). За да се отрази надлежно този факт, ЕИСК препоръчва да се измени съображение 41.

    4.   Конкретни бележки и препоръки — ЗАИИ

    Забранени практики в сферата на ИИ

    4.1.

    ЕИСК изразява съгласие, че практиките в сферата на ИИ, изброени в член 5, не носят никаква социална полза и следва да бъдат забранени. Комитетът намира обаче някои формулировки за неясни, което би могло да направи някои от забраните трудни за тълкуване и лесни за заобикаляне.

    4.2.

    Доказано е, че сублиминалните техники могат не само да доведат до физически и психологически вреди (настоящите условия за задействането на тази забрана), но предвид средата, в която се използват — да доведат до други неблагоприятни лични, обществени или демократични последици, като например промяна на поведението при гласуване. Освен това, често на ИИ се основава не самата сублиминална техника, а по-скоро решението към кого да бъде насочена.

    4.3.

    За да се схване какво цели забраната в член 5, параграф 1, буква а) от ЗАИИ, т.е. да се забрани манипулирането на хората с цел подтикване към вредоносно поведение, ЕИСК препоръчва параграфът да се измени, както следва „(…) система с ИИ, внедрена, насочена или използвана с цел съществено да измени поведението на дадено лице по начин, който причинява или може да причини вреди на основните права на същото лице, на друго лице или на група лица, включително на тяхното физическо и психологическо здраве и безопасност, или на демокрацията и върховенството на закона“.

    4.4.

    ЕИСК препоръчва да се измени по същия начин забраната на практиката за използване на уязвимите места в член 5, параграф 1, буква б), за да се включат вредите за основните права, включително физическите и психологическите вреди.

    4.5.

    ЕИСК приветства забраната за „социален ранкинг“ в член 5, параграф 1, буква в). ЕИСК препоръчва забраната на социалния ранкинг да се прилага и към частни организации и полупублични органи, а не само към публични органи. В ЕС няма място за класифицирането на надеждността на гражданите на ЕС въз основа на тяхното социално поведение или личностни характеристики, независимо от субекта, който извършва класифицирането. Ако имаше такова, ЕС би позволил използването на социалния ранкинг в редица области, например на работното място. Условията по подточки i) и ii) следва да бъдат изяснени, така че да се направи ясно разграничение между това, което се счита за „социален ранкинг“, и това, което може да се счита за приемлива форма на оценка за определена цел, т.е. когато информацията, използвана за оценката, вече не следва да се счита за целесъобразна или разумно свързана с целта на оценката.

    4.6.

    Със ЗАИИ се цели да се забрани дистанционната биометрична идентификация в реално време (например с лицево разпознаване) за целите на правоприлагането и тя да се категоризира като „високорискова“, когато се използва за други цели. Това оставя възможност за „пост“ биометрично разпознаване и биометрично разпознаване от близко разстояние. То също така оставя възможност да бъде разрешено биометрично разпознаване, което не е насочено към установяване на самоличността на дадено лице, а по-скоро към оценяване на поведението на дадено лице въз основа на биометричните му идентификатори (микроизражения, походка, температура, сърдечен ритъм и т.н.). Ограничаването до „правоприлагане“ позволява биометрична идентификация, както и всички други форми на биометрично разпознаване, които не са насочени към установяване на самоличността на дадено лице, включително всички упоменати форми на „разпознаване на емоции“ за всякакви други цели, от всички останали участници, на всички обществени и частни места, включително на работното място, магазини, стадиони, театри и др. Това отваря широко вратите за един свят, в който ще бъдем постоянно подлагани на „оценка на емоциите“ за каквато и да е цел, която субектът, който ни оценява, счете за необходима.

    4.7.

    В ЗАИИ „разпознаването на емоции“ обикновено се класифицира като нискорисково, с изключение на няколко области на използване, където е класифицирано като високорисково. Този вид биометрично разпознаване е известен също и като „разпознаване на афект“, а понякога и като „разпознаване на поведение“. Всички тези видове практики, основани на ИИ, са изключително инвазивни, нямат солидна научна основа и създават значителни рискове за редица основни права, залегнали в Хартата на ЕС, като правото на човешко достойнство, правото на неприкосновеност на личността (което включва психическата неприкосновеност) и правото на личен живот.

    4.8.

    В съответствие с призива на ЕНОЗД и ЕКЗД от 21 юни 2021 г. за забрана на използването на ИИ за автоматично разпознаване на човешки черти на обществено достъпни места и на някои други употреби на ИИ, които могат да доведат до несправедлива дискриминация, ЕИСК призовава за:

    забрана за използване на ИИ за автоматизирано биометрично разпознаване на публично и частно достъпни места (като разпознаване на лица, походка, глас и други биометрични характеристики), освен за целите на удостоверяването на самоличността при специфични обстоятелства (например за предоставяне на достъп до чувствителни от гледна точка на сигурността обекти);

    забрана за използване на ИИ за автоматизирано разпознаване на човешки поведенчески сигнали на публично и частно достъпни места;

    забрана системи с ИИ да използват биометрични данни за категоризиране на физическите лица в групи въз основа на етническа принадлежност, пол, политическа или сексуална ориентация или на други основания, при които дискриминацията е забранена съгласно член 21 от Хартата;

    забрана за използването на ИИ за извеждане на заключения за емоциите, поведението, намерението или чертите на физическо лице, с изключение на много специфични случаи, като например за някои свързани със здравето цели, когато разпознаването на емоциите на пациента е важно.

    Високорисков ИИ

    4.9.

    При вземането на решение относно това дали дадена практика в сферата на ИИ или употреба на ИИ, създаваща риск за здравето, безопасността или основните права, следва въпреки това да бъде разрешена при строги условия, Комисията разглежда два елемента: i) дали практиката в сферата на ИИ или употребата на ИИ може да носи социални ползи и ii) дали рискът от нанасяне на вреда на здравето, безопасността или основните права, който все пак създава тази употреба, може да бъде ограничен чрез спазването на редица изисквания.

    4.10.

    ЕИСК приветства привеждането на тези изисквания в съответствие с елементи на Насоките относно етичните аспекти за надежден ИИ. Пет важни изисквания от Насоките относно етичните аспекти за надежден ИИ обаче не са разгледани конкретно при изискванията за високорисковия ИИ в ЗАИИ, а именно: i) човешкият фактор, ii) неприкосновеността на личния живот, iii) многообразието, недискриминацията и справедливостта, iv) обяснимостта и v) общественото и екологичното благополучие. ЕИСК счита, че това е пропусната възможност, защото много от рисковете, които ИИ създава, се отнасят до неприкосновеността на личния живот, предубеждението, изключването, необяснимостта на резултатите от решенията на ИИ, подценяването на човешкия фактор и околната среда, а всички те имат отражение върху основните ни права.

    4.11.

    Комитетът препоръчва тези изисквания да се добавят към изискванията в дял III, глава 2 от ЗАИИ, за да се подобри способността на ЗАИИ да защитава ефективно нашето здраве, безопасност и основни права от неблагоприятно въздействие на ИИ, използван от публичните власти или частни организации.

    4.12.

    ЕИСК приветства тясната взаимовръзка между ЗАИИ и законодателството на Съюза за хармонизация. Комитетът препоръчва обхватът на ЗАИИ и изискванията за високорисковия ИИ да се разширят извън рамките на „защитните елементи на ИИ“ или случаите, когато самата система с ИИ е продукт, обхванат от законодателството на Съюза за хармонизация, посочено в приложение II. Причината е, че ИИ може да създаде рискове не само когато се използва като защитен елемент за тези продукти, и че самата система с ИИ невинаги е продукт. Например, когато се използва като част от инструмент за диагностика или прогнозиране в медицинската област или като основан на ИИ термостат за регулиране на котел.

    4.13.

    ЕИСК предупреждава обаче, че избраният подход с изготвяне на списъци за високорисковия ИИ в приложение III може да доведе до това редица практики в сферата на ИИ, които все още са силно критикувани, и чиито ползи за обществото са спорни или несъществуващи, да бъдат узаконени, да започнат да се считат за нормални и да бъдат интегрирани в практиката.

    4.14.

    Освен това рисковете от вреди за здравето, безопасността и основните права не могат непременно винаги да бъдат ограничавани чрез спазването на петте изисквания за високорисковия ИИ, по-специално когато става въпрос за по-рядко посочваните основни права, които биха могли да бъдат засегнати от ИИ, като например правото на човешко достойнство, презумпцията за невиновност, правото на справедливи и равни условия на труд, свободата на сдружаване и на събрания, правото на стачка, наред с много други.

    4.15.

    ЕИСК настоятелно препоръчва в точка 2 от приложение III да се добавят управлението и експлоатацията на телекомуникационната и интернет инфраструктура. Комитетът препоръчва също да се разшири обхватът на тази точка извън рамките на защитните елементи на ИИ.

    4.16.

    Системите с ИИ за определянето на достъпа до образование и оценяването на учащите създават редица рискове от вреди за тяхното здраве, безопасност и основни права. Например инструментите за наблюдение онлайн, чиято предполагаема цел е сигнализиране за „подозрително поведение“ и „признаци за измами“ по време на изпити онлайн чрез използване на всички видове биометрични данни и проследяване на поведението, действително нарушават личната неприкосновеност и нямат научни доказателства.

    4.17.

    Използването на системи с ИИ за наблюдение, проследяване и оценяване на работниците поражда сериозни опасения за основните им права на справедливи и равни условия на труд, информиране и консултиране и основателно уволнение. Добавянето на тези системи с ИИ към списъка за високрисков ИИ вероятно ще доведе до противоречия с националното трудово законодателство и колективните трудови договори, уреждащи (не)основателното уволнение, здравословните и безопасни условия на труд и информирането на работниците. ЕИСК призовава да се гарантират пълноценното участие и информирането на работниците и социалните партньори в процеса на вземане на решения относно използването на ИИ на работното място, както и относно неговото разработване, придобиване и внедряване.

    4.18.

    Изискването за „човешки надзор“ е от особено значение при трудовите отношения, защото надзорът ще се осъществява от работник или от група работници. ЕИСК подчертава, че тези работници следва да бъдат обучени как да изпълняват тази задача. Освен това предвид факта, че се очаква на тези работници да бъде разрешено да пренебрегват резултатите от системата с ИИ или дори да решават да не ги използват, следва да бъдат въведени мерки за избягване на страха от отрицателни последици (като понижение или уволнение), ако бъде взето такова решение.

    4.19.

    Използването на системи с ИИ във връзка с достъпа и ползването на обществени услуги е по-широко от използването на системи с ИИ за достъп и ползване на основни частни услуги, като при последното за висок риск се счита само оценката от ИИ на кредитния рейтинг (кредитоспособността). ЕИСК препоръчва да се разшири обхватът на точка 5, буква б) от приложение III за всички системи с ИИ, предназначени за оценяване на допустимостта за основни частни услуги.

    4.20.

    ИИ, използван от правоприлагащите органи и при управлението на миграцията, убежището и граничния контрол за извършването на индивидуални оценки на риска (във връзка с престъпления или във връзка със сигурността), създава риск от накърняване на презумпцията за невиновност, правото на защита и правото на убежище, залегнали в Хартата на ЕС. Системите с ИИ обикновено търсят само съответствия, които се основават на характеристики, установени в други „случаи“. В тези случаи подозрението не се основава на действително подозрение за престъпление или простъпка от конкретно лице, а само на характеристики, които са се оказали общи за това лице и осъдени престъпници (като адрес, доходи, националност, дългове, работа, поведение, поведение на приятели или членове на семейството и т.н.).

    4.21.

    Използването на ИИ в правораздаването и демократичните процеси е особено чувствително и към него следва да се подхожда по-нюансирано и с повече контрол, отколкото в момента. Със самото въвеждане на системи, които да се използват за подпомагане на един съдебен орган при проучването и тълкуването на фактите и правото и при прилагане на закона към конкретен набор от факти, се пренебрегва фактът, че произнасянето на съдебно решение далеч надхвърля откриването на модели в историческите данни (което по същество е това, което правят настоящите системи с ИИ). В текста също така се приема, че тези видове ИИ само ще подпомагат съдебната система, като напълно автоматизираното вземане на съдебни решения се изключва изцяло от обхвата. ЕИСК изразява също така съжаление, че не се посочват системи с ИИ или използване на ИИ в сферата на демократичните процеси като изборите.

    4.22.

    Комитетът препоръчва да се добави разпоредба, която да предвижда ситуация, при която е очевидно или по време на предварителната оценка на съответствието е станало ясно, че шестте изисквания няма да ограничат в достатъчна степен риска от вреди за здравето, безопасността и правата на човека (например като се измени член 16, буква ж) от ЗАИИ).

    Управление и изпълняемост

    4.23.

    ЕИСК приветства структурата на управление, установена със ЗАИИ. Комитетът препоръчва Съветът по ИИ да провежда редовен задължителен обмен на мнения с широката общественост, включително социалните партньори и НПО.

    4.24.

    ЕИСК настоятелно препоръчва да се разшири обхватът на ЗАИИ, за да се включат „заварените системи с ИИ“, т.е. системите, които вече се използват или са внедрени преди влизането в сила на ЗАИИ, за да се избегне възможността за ускорено внедряване на забранен ИИ с висок и среден риск с цел избягване на изискванията за съответствие. Освен това ЕИСК настоятелно препоръчва ИИ, който е компонент на широкомащабни информационни системи в пространството на свобода, сигурност и правосъдие, изброени в приложение IX, да не бъде изключен от обхвата на ЗАИИ.

    4.25.

    Сложността на изискванията и дейностите по отчетност, плюс самооценката, носи риска от свеждане на този процес до контролни списъци, в които едно просто „да“ или „не“ би могло да бъде достатъчно за спазване на изискванията. ЕИСК препоръчва оценките от трета страна да станат задължителни за всички високорискови системи с ИИ.

    4.26.

    Комитетът препоръчва да се въведат подходящи мерки за (финансова) подкрепа и прости и достъпни инструменти за микро- и малки организации, както и за организациите на гражданското общество, за да могат те да разберат целта и смисъла на ЗАИИ и да могат да спазват неговите изисквания. Тези мерки следва да надхвърлят подкрепата на центровете за цифрови иновации и да се състоят в улесняването на достъпа до експертни познания на високо равнище относно ЗАИИ, неговите изисквания, задължения и по-специално тяхната обосновка.

    4.27.

    ЕИСК препоръчва да се включи механизъм за подаване на жалби и правна защита за организации и граждани, които са претърпели вреди от която и да било система или практика с ИИ или употреба на ИИ, която попада в обхвата на ЗАИИ.

    Брюксел, 22 септември 2021 година.

    Председател на Европейския икономически и социален комитет

    Christa SCHWENG


    Top