Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52016IE5369

    Становище на Европейския икономически и социален комитет — Изкуствен интелект — въздействието на изкуствения интелект върху (цифровия) единен пазар, производството, потреблението, заетостта и обществото (становище по собствена инициатива)

    OB C 288, 31.8.2017, p. 1–9 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    31.8.2017   

    BG

    Официален вестник на Европейския съюз

    C 288/1


    Становище на Европейския икономически и социален комитет — Изкуствен интелект — въздействието на изкуствения интелект върху (цифровия) единен пазар, производството, потреблението, заетостта и обществото

    (становище по собствена инициатива)

    (2017/C 288/01)

    Докладчик:

    Catelijne MULLER

    Решение на Пленарната асамблея

    22.9.2016 г.

    Правно основание

    Член 29, параграф 2 от Правилника за дейността

     

    становище по собствена инициатива

     

     

    Компетентна секция

    „Единен пазар, производство и потребление“

    Приемане от секцията

    4.5.2017 г.

    Приемане на пленарна сесия

    31.5.2017 г.

    Пленарна сесия №

    526

    Резултат от гласуването

    („за“/„против“/„въздържал се“)

    159/3/14

    1.   Заключения и препоръки

    1.1

    Понастоящем изкуственият интелект (ИИ) търпи редица важни развития и бързо намира приложения в обществото. Размерът на пазара за ИИ възлиза на около 664 млн. щатски долара и се очаква през 2025 г. да нарасне до 38,8 млрд. щатски долара. Тъй като ИИ може да има както положителни, така и отрицателни въздействия върху обществото, ЕИСК се ангажира да следи отблизо развитието на свързаните с него развития не само от техническа, но и от етична и социална гледна точка, както и във връзка с безопасността.

    1.2

    Като представител на европейското гражданско общество, през предстоящия период ЕИСК ще започне, централизира и насърчи обществен дебат за ИИ, към който да привлече всички имащи отношение заинтересовани страни: политици, представители на индустрията, социални партньори, потребители, НПО, училища, болници, експерти и представители на академичната общност от различни дисциплини (включително ИИ, безопасност, етика, икономика, науки за труда, правни науки, поведенчески науки, психология, философия).

    1.3

    Колкото и да е важна, темата за суперинтелекта понастоящем доминира обсъждането и измества вниманието от дискусията относно въздействието на настоящите приложения на ИИ. Затова задача и цел на този процес би трябвало да бъдат, наред с останалото, увеличаването и разпространението на познанията за ИИ, като по този начин се допринесе за информиран и балансиран дебат без неблагоприятни сценарии или крайна релативизация. Във връзка с това ЕИСК ще работи за насърчаване на развитието на ИИ в полза на човечеството. Важна задача и цел на този процес ще бъде обаче и идентифицирането, дефинирането и наблюдението на революционните развития в ИИ и свързани с него области, така че към тях да може да се подхожда своевременно и по подходящ начин. Това ще доведе до повишаване на участието на обществото, както и на неговото доверие и подкрепа за по-нататъшното устойчиво развитие и разгръщане на ИИ.

    1.4

    Въздействието на ИИ е трансгранично, затова следва да се установят и наднационални рамки за тази област на политика. ЕИСК препоръчва ЕС да поеме водеща роля в световен мащаб за установяването на ясни глобални рамки за политиката в областта на ИИ, в съответствие с европейските ценности и основните права. ЕИСК може и желае да даде своя принос.

    1.5

    Понастоящем ЕИСК посочва 11 области, в които ИИ поставя обществени предизвикателства: етика; безопасност; неприкосновеност на личния живот; прозрачност и отчетност; труд; образование и умения; (не)равнопоставеност и приобщаване; законодателство и регулиране; управление и демокрация; военни действия; свръхинтелект. ЕИСК отправя следните препоръки:

    1.6

    ЕИСК призовава за подход, при който човекът запазва контрол върху ИИ в условията на отговорно, безопасно и полезно разработване на ИИ, при което машините остават машини и хората ще запазят контрол върху тях във всеки един момент.

    1.7

    ЕИСК призовава за етичен кодекс за разработването, внедряването и използването на ИИ, така че по време на целия им експлоатационен процес системите на ИИ да бъдат съвместими с принципите на човешко достойнство, почтеност, свобода, неприкосновеност на личния живот, културно и полово многообразие, както и с основните права на човека.

    1.8

    ЕИСК призовава за развиването на стандартизационна система за проверка, валидиране и контрол на системите на ИИ, въз основа на широк набор от стандарти в областта на безопасността, прозрачността, разбираемостта, отчетността и етичните ценности.

    1.9

    ЕИСК призовава за създаването на европейска инфраструктура за ИИ, състояща се от учебна среда с отворен код, при зачитане на неприкосновеността на личния живот, среда за тестване в реални условия и висококачествени набори от данни за разработването и обучението на системи на ИИ. ЕИСК отбелязва (конкурентното) предимство, което ЕС може да извлече на световния пазар, посредством разработването и популяризирането на „отговорни европейски системи на ИИ“, допълнени от европейско сертифициране и маркировка на ИИ.

    1.10

    ЕС, националните правителства и социалните партньори следва съвместно да идентифицират кои сектори на пазара на труда, до каква степен и в какви срокове ще бъдат повлияни от ИИ и да потърсят решения за облекчаване на последствията за заетостта, естеството на работата, системите за социална сигурност и (не)равенството. Следва да се инвестира и в сектори на пазара на труда, върху които ИИ ще окаже слабо или никакво въздействие.

    1.11

    ЕИСК препоръчва тези заинтересовани страни да работят съвместно за допълващи се системи на ИИ и тяхното съвместно създаване на работното място, напр. екипи от хора и машини, при които ИИ допълва и подобрява резултатите на хората. Тези заинтересовани страни трябва също да инвестират във формално и неформално учене, образование и обучение за всички, за да може всеки да работи с ИИ, а също и за развиване на умения, които няма и не могат да бъдат възприети от ИИ.

    1.12

    Още отсега е необходимо да се предприеме конкретна оценка на европейското законодателство и уредба в шестте области, за които STOA (Scientific Foresight Unit), счита, че може да се наложи да бъдат преразгледани или адаптирани. ЕИСК може и желае да участва в този процес на оценка. ЕИСК е против въвеждането на форма на юридическа правосубектност за роботите или ИИ, тъй като по този начин се губи превантивното коригиращо действие на правото по отношение на отговорността, възниква морален риск както при разработването, така и при използването на ИИ, и се създават възможности за злоупотреби.

    1.13

    Развитието на приложенията на ИИ, които са в служба на обществото, допринасят за приобщаването и подобряват живота на хората, трябва да се насърчава и подкрепя активно, както в публичен, така и в частен план. В рамките на своите програми Европейската комисия следва да финансира научни изследвания в областта на общественото въздействие на ИИ и на финансираните от ЕС иновации в областта на ИИ.

    1.14

    ЕИСК подкрепя призива, отправен от Human Rights Watch и др., за забрана на автономните оръжейни системи. ЕИСК приветства обявеното обсъждане на този въпрос в рамките на ООН, но счита, че в него следва да бъдат включени и приложенията на ИИ при кибернетични военни действия.

    2.   Изкуствен интелект

    2.1

    Не съществува общоприета, ясно определена дефиниция на ИИ. ИИ е общо понятие, обхващащо голям брой (под)области като: когнитивна информатика (алгоритми, които разсъждават и разбират на по-високо (т.е. по-сходно с човека) равнище), машинно обучение (алгоритми, които се научават сами да изпълняват задачи), разширен интелект (сътрудничество между човек и машина), роботика с ИИ (ИИ внедрен в роботи). Основната цел на изследователската и развойната дейност в областта на ИИ обаче е автоматизирането на интелектуалната дейност, напр. разсъждаване, събиране на информация, планиране, учене, комуникиране, манипулиране, сигнализиране и дори създаване, мечтаене и възприемане.

    2.2

    Изкуственият интелект се разделя най-общо на тесен ИИ и общ ИИ. Тесният изкуствен интелект може да извършва конкретни задачи. Общият изкуствен интелект може да извършва всяка интелектуална дейност, която може да извърши един човек.

    2.3

    В областта на тесния ИИ в последно време беше отбелязан голям напредък, по-специално посредством увеличаването на изчислителната мощ на компютрите, наличието на големи масиви от данни и развитието на машинното обучение (МО). МО включва алгоримти, които са способни самостоятелно да се научават да изпълняват конкретни задачи, без да са програмирани за това. Този модел се основава на обработката на „тренировъчни данни“, въз основа на които алгоритъмът се научава да разпознава модели и да формулира правила. Задълбоченото учене (ЗУ), форма на МО, използва структури (невронни мрежи), които в общи линии се основават на човешкия мозък и които се учат с помощта на упражнения и обратна връзка. Благодарение на тези развития системите на ИИ (работещи посредством алгоритми) вече са самостоятелно обучаващи се, автономни и приспособими.

    2.4

    От известно време научноизследователската и развойната дейност в областта на ИИ се съсредоточава предимно върху разсъждаването, натрупването на знания, планирането, комуникацията и възприятията (визуални, звукови и сетивни). Това доведе до голям брой приложения на ИИ: виртуални асистенти, автономни автомобили, автоматично агрегиране на новини, гласово разпознаване, програми за превод, програми „от текст към говор“, автоматизирана финансова търговия, електронно разследване в правната сфера и др.

    2.5

    ЕИСК посочва, че броят на приложенията и инвестициите в ИИ в последно време нарасна експоненциално. Пазарът на ИИ понастоящем възлиза на около 664 млн. щатски долара и се очаква да нарасне до 38,8 млрд. щатски долара през 2025 г.

    3.   Възможности и заплахи, свързани с ИИ

    3.1

    Почти никой не оспорва, че ИИ може да донесе големи ползи на обществото: напр. приложенията за устойчиво земеделие, безопасен транспорт, сигурна финансова система, екологични производствени процеси, по-добро медицинско обслужване, по-безопасни условия на труд, по-индивидуализирано образование, по-добро правосъдие, повече сигурност за обществото. Той може евентуално да допринесе дори и за изкореняването на болестите и бедността. ИИ може също така да даде важен принос за растежа на промишлеността и повишаването на конкурентоспособността на ЕС.

    3.2

    Както при всяка една революционна технология, ИИ носи обаче и рискове и сложни предизвикателства пред политиката в области като сигурност и възможност за контрол, социално-икономически аспекти, етика и неприкосновеност на личния живот, надеждност и др.

    3.3

    Намираме се в решаващ момент за определяне на (рамковите) условия за настоящото и по-нататъшното развитие и внедряване на ИИ. Ползите от ИИ могат да бъдат постигнати само ако предизвикателствата, свързани с ИИ, получат адекватен отговор. За тази цел следва да се вземат политически решения.

    1)

    Етика

    3.4

    Развитието на ИИ поражда много етични въпроси. Какво е въздействието на автономния (самообучаващ се) ИИ върху нашия личен интегритет, автономност, достойнство, независимост, равнопоставеност, сигурност, свобода на избор? Как да се гарантира, че нашите основни норми, ценности и права на човека ще продължат да бъдат спазвани и защитавани?

    3.5

    Във връзка с това следва да се отбележи, че понастоящем развитието на ИИ се осъществява в рамките на хомогенна среда, състояща се предимно от млади мъже, принадлежащи към бялата раса, поради което в ИИ се внедряват (съзнателно или не) културни различия и различия, основани на пола, наред с другото поради факта, че системите на ИИ се учат с помощта на тренировъчни данни. Тези данни трябва да бъдат точни, а освен това и с добро качество, разнообразни, достатъчно задълбочени и обективни. Според общото схващане данните са обективни по подразбиране, но това е подвеждащо. Данните могат лесно да се манипулират, могат да бъдат пристрастни, да отразяват културни, полови и други предразсъдъци и предпочитания и да съдържат грешки.

    3.6

    В разработваните понастоящем системи на ИИ липсват етични ценности. Ние, хората, трябва да ги осигурим на системите на ИИ и средата, в която те се прилагат. Разработването, внедряването и използването на системи на ИИ (както обществени, така и търговски) трябва да се осъществява в рамките на нашите основни норми, ценности, свободи и права на човека. Затова ЕИСК призовава за разработването и въвеждането на единен глобален етичен кодекс за разработването, внедряването и използването на ИИ.

    2)

    Безопасност

    3.7

    Използването на ИИ във физическия свят води несъмнено до проблеми, свързани с безопасността. Може да се направи разграничение между вътрешна и външна безопасност.

    Вътрешна безопасност: Достатъчно издържлива ли е системата на ИИ, за да (продължи да) функционира добре? Добре ли е програмиран алгоритъмът? Има ли сривове в неговото функциониране, съществува ли защита срещу хакерски атаки? Ефективен ли е? Надежден ли е?

    Външна безопасност: Безопасно ли е използването на системата на ИИ в обществото? Оперира ли тя безопасно не само в нормални, но и в неизвестни, критични или непредвидими ситуации? Какво е отражението на капацитета за самообучение на системата върху безопасността, включително, когато тя продължава да се учи след като е започнала да функционира?

    3.8

    ЕИСК счита, че системите на ИИ трябва да могат да бъдат пускани в експлоатация само ако отговарят на конкретни изисквания за вътрешна и външна безопасност. Тези изисквания следва да бъдат определени съвместно от създателите на политики, експертите в областта на ИИ и безопасността, предприятията и организациите на гражданското общество.

    3)

    Прозрачност, разбираемост, възможност за упражняване на контрол, отчетност

    3.9

    Приемането и устойчивото развитие и прилагането на ИИ е свързано с възможността за разбиране, контролиране и отчетност на функционирането, действията и решенията на системите на ИИ, включително ретроспективно.

    3.10

    Действията и решенията на системите на ИИ (посредством интелигентни алгоритми) оказват все по-голямо влияние върху ежедневието на хората. Примерите включват използването на ИИ в работата на полицията, основаваща се на информация, при оценката на исканията за ипотечен кредит или при процедурата за одобряване на застрахователно покритие. Във връзка с това от решаващо значение са разбираемостта, възможността за упражняване на контрол и отчетността на процеса на вземане на решение от една система на ИИ.

    3.11

    Понастоящем за потребителите е твърде трудно да проникнат в същността на много системи на ИИ. Все по-често обаче това се отнася и за създателите на системите. В частност невронните мрежи често са „черни кутии“, в които се осъществяват процеси (на вземане на решения), които вече не могат да бъдат разбрани и за които не съществува обяснение.

    3.12

    ЕИСК призовава за прозрачни, разбираеми и контролируеми системи на ИИ, чието функциониране може да бъде обяснено, включително ретроспективно. Освен това е необходимо да се определи кои процеси на вземане на решения могат да бъдат прехвърлени на системите на ИИ и кои не, и кога е желателна или наложителна човешка намеса.

    4)

    Неприкосновеност на личния живот

    3.13

    Неприкосновеността на личния живот в рамките на системите на ИИ е повод за безпокойство. Много (потребителски) продукти вече разполагат с вграден ИИ: битови уреди, детски играчки, автомобили, уреди за проследяване на здравословното състояние, смартфони. Всички тези продукти предават данни (често лични) на платформите в облак на производителите. Поради бума на търговията с данни, което означава, че генерираните данни не остават при производителя, а се препродават на трети страни, възникват опасения във връзка с въпроса дали неприкосновеността на личния живот е гарантирана в достатъчна степен.

    3.14

    Освен това посредством анализа на много голям брой (често) лични данни ИИ е в състояние да повлияе върху процесите на избор на хората в много области (от търговски решения до политически избори и референдуми). Особено уязвима група са децата. ЕИСК е обезпокоен от приложенията на ИИ, които са изрично насочени към повлияване на поведението и желанията на децата.

    3.15

    Трябва да се предотврати възможността приложенията на ИИ въз основа на лични данни да ограничават действителната или възприеманата свобода на хората. Общият регламент на ЕС относно защитата на данните (ОРЗД) предвижда значителна защита на неприкосновеността на личния живот при предоставянето на лични данни по цифров път. С оглед на развитието на ИИ трябва да се следи внимателно дали правото на информирано съгласие и свободата на избор при предоставянето на данни, но също и при достъпа, коригирането и проверката на данните, са достатъчно гарантирани на практика.

    5)

    Норми, стандарти и инфраструктура

    3.16

    Би трябвало да бъдат разработени нови стандартизационни системи за проверка и валидиране на системите на ИИ, въз основа на широк спектър от стандарти, за да могат да се оценяват безопасността, прозрачността, разбираемостта, отчетността и етичната отговорност на системите на ИИ.

    3.17

    ЕИСК призовава за това ЕС да разработи своя собствена инфраструктура за ИИ, състояща се от учебна среда с отворен код, при зачитане на неприкосновеността на личния живот и висококачествени набори от данни за разработването и обучението на системи на ИИ. ЕС би могъл да извлече и (конкурентно) предимство на световния пазар, като популяризира европейски отговорни системи на ИИ. Във връзка с това Комитетът препоръчва да се проучат възможностите за европейско сертифициране и маркировка на ИИ.

    6)

    Въздействие върху труда, заетостта, условията на труд и системите за социална сигурност

    3.18

    Мненията по отношение на скоростта и степента, до която това ще се случи, се различават, но е очевидно, че ИИ ще окаже въздействие върху обхвата на заетостта и върху естеството и характера на много професии, а с това и върху системите за социална сигурност.

    3.19

    Бриньолфсон и Макафи от Масачузетския технологичен институт наричат настоящите развития на технологиите (сред които и на ИИ) „втората машинна епоха“. Съществуват обаче две важни разлики: (i) „старите“ машини замениха предимно физическата сила, докато новите машини заменят интелектуални и когнитивни компетентности, което засяга не само ниско квалифицираните (blue collar workers), но и средно и висококвалифицираните работници (white collar workers), и (ii) ИИ е генерична технология (general purpose technology), която оказва едновременно въздействие върху почти всички сектори.

    3.20

    ИИ може да бъде много полезен, когато се използва при опасна, тежка, изнурителна, мръсна, неприятна, повторяема или отегчителна работа. Но системите на ИИ могат все по-често да извършват и работа, която може да се превърне в рутинна, да обработват и анализират данни или да извършват функции, при които голяма роля играят планирането или прогнозирането — работа, която често се извършава от висококвалифицирани лица.

    3.21

    Повечето професии обаче се състоят от извършването на различни дейности. Вероятността всички работни дейности, извършвани от дадено лице, да се поемат от ИИ или роботи, изглежда малка. Въпреки това почти всеки ще бъде изправен пред частична автоматизация на неговите функции. Така освободеното време ще може да се използва за други задачи, при условие че правителствата и социалните партньори положат необходимите усилия в тази посока. Във връзка с това е необходимо да се има предвид евентуалното въздействие на тези промени върху работниците и ръководния персонал, и да се насърчи тяхното участие в този процес, така че те да могат да запазят контрол върху тях и да не станат тяхна жертва.

    3.22

    Освен това ще се разкрият нови работни места. Никой обаче не може да предскаже какви ще бъдат те, какъв ще бъде техният брой и колко бързо ще се случи това. Компании като Гугъл и Фейсбук успяват да генерират огромна стойност с относително малък брой служители. От друга страна новите работни места невинаги са качествени. Поражда се опасение, че с по-нататъшното развитие на ИИ скоро ще останат само нископлатени минизадачи за една нарастваща група от гъвкави работници.

    3.23

    ИИ ще има последици не само за количеството налична работа, но и за нейното естество. Системите на ИИ предлагат все повече възможности за следене и наблюдение на работниците, което поставя под въпрос автономността и неприкосновеността на личния им живот. Работата понастоящем вече често се определя и разпределя чрез алгоритми, без човешка намеса, което оказва влияние върху естеството на работата и условията на труд. При използването на системи на ИИ съществува и риск от влошаване на качеството на работата и загуба на важни умения.

    3.24

    Факт е обаче, че технологията не ни „превзема“. Правителствата и социалните партньори имат възможността да определят начина, по който ще продължи да се развива и прилага ИИ в рамките на трудовия процес и трябва да използват активно тази възможност. Във връзка с това е важно да се съсредоточим не само върху това на какво е способен ИИ, но и върху това на какво са способни хората (креативност, емпатия, сътрудничество), какво искаме те да продължат да правят, както и да търсим възможности за подобряване на съвместната работа между човека и машините (взаимното допълване).

    3.25

    Разширеният интелект (взаимното допълване), при което човекът и машината работят съвместно и се подсилват един друг, е най-интересното приложение на ИИ, тъй като става въпрос за човек и машина, за разлика от човек вместо машина. Съвместното създаване обаче е от голямо значение: работниците трябва да бъдат включвани в разработването на подобни взаимно допълващи се системи на ИИ, за да се гарантира, че тези системи са използваеми и че работниците запазват достатъчна автономност и контрол върху ИИ (human-in-command), удовлетворение и удоволствие от работата.

    7)

    Образование и умения

    3.26

    Поддържането и придобиването на цифрови умения е необходимо, за да се даде възможност на хората да се приспособяват към бързото развитие в областта на ИИ. Европейската комисия се ангажира твърдо с развитието на цифрови умения посредством Коалицията за умения и работни места в областта на цифровите технологии. Въпреки това не всеки е в състояние или е заинтересован да се занимава с кодиране и да става програмист. Ето защо политиката и финансовите ресурси ще трябва да се насочат към образованието и развитието на умения в области, които няма да бъдат застрашени от системите на ИИ (като задачи, при които човешкото взаимодействие е от първостепенно значение, хората и машините работят съвместно, или за които искаме да продължат да бъдат извършвани от хората).

    3.27

    Ако се цели взаимното допълване между човек и ИИ (разширен интелект), за всеки човек, от ранна възраст, ще бъде необходимо обучение за справяне и работа със системи на ИИ, за да се гарантира, че хората могат да запазят автономност и контрол върху ИИ в работата си (human-in-command). Във връзка с това от значение е и обучението по етика и неприкосновеност на личния живот, тъй като ИИ има голямо въздействие в тези области.

    8)

    Достъпност, социално (не)равенство, приобщаване, разпределение

    3.28

    По-голямата част от развитието на ИИ и всичките му елементи (платформи за разработване, данни, знания и експертен опит) е в ръцете на 5 големи технологични компании (Amazon, Apple, Facebook, Google, Microsoft). Въпреки че тези компании подкрепят отвореното развитие на ИИ и някои предлагат своите платформи за развитие на ИИ с отворен код, това не гарантира пълна достъпност на системите на ИИ. ЕС, формулиращите политиките в международен план и организациите на гражданското общество трябва да играят основна роля в тази област, за да се гарантира, че системите на ИИ са достъпни за всеки, а също и че тяхното развитие протича в отворена среда.

    3.29

    Технологичните промени, носещи полза на капитала, при които иновациите носят предимства преди всичко на своите собственици, влошават положението на труда спрямо капитала. Технологичните промени могат да доведат и до неравенство (на доходите) между хората (както на местно, така и на регионално равнище и в световен мащаб). ИИ може допълнително да засили тази тенденция.

    3.30

    Важно е тези тенденции се следят внимателно и да се търсят адекватни отговори. Вече бяха отправени призиви за данък върху ИИ, дивиденти от ИИ или съвместна собственост върху системите на ИИ от страна на работниците и работодателите. Все повече се говори за необходимостта от безусловен основен доход.

    3.31

    В свое предходно становище (1) ЕИСК посочи възможността за цифров дивидент, който да бъде поделян справедливо с цел постигане на положителен ефект върху растежа. ЕИСК придава голямо значение на проучването на тези решения, но счита, че трябва да се намери подходящият баланс между развитието на ИИ, който носи ползи на хората, и евентуалните отрицателни последствия от тези решения. Също така трябва да се избягва моралният риск, при който отговорността за системите на ИИ се прехвърля към субект, от който не може ефективно да се търси отговорност.

    9)

    Законодателство и регулиране

    3.32

    Последиците от ИИ за съществуващото законодателство и регламентиране са големи. През юни 2016 г. отделът за оценка на научно-техническите възможности на Европейския парламент (STOA) публикува преглед на европейските законодателни и нормативни актове, които ще бъдат засегнати посредством развитието в областта на роботиката, киберфизичните системи и ИИ. STOA посочва 6 области — транспорт, системи с двойна употреба, граждански свободи, сигурност, здравеопазване и енергетика — в които може да се наложи да бъдат преразгледани или адаптирани не по-малко от 39 регламента, директиви, декларации и съобщения на ЕС, както и Европейската харта за основните права. Тази оценка следва да се извърши незабавно и решително и ЕИСК може и иска да играе важна роля в този процес.

    3.33

    Много се обсъжда въпросът кой може да бъде подведен под отговорност, когато системите на ИИ причиняват вреди, особено когато става въпрос за самообучаваща се система на ИИ, която продължава да се учи и след пускането ѝ в експлоатация. Европейският парламент изготви препоръки за гражданското право в областта на роботиката с предложение за проучване на т.нар. „електронна правосубектност“ за роботи, така че те да могат да носят гражданска отговорност за причинявани от тях щети. ЕИСК се обявява против всяка форма на правен статут за роботи или (системи на) ИИ, тъй като това създава неприемлив морален риск. Уредбата на гражданската отговорност има превантивна, коригираща поведението функция, която може да изчезне веднага щом създателят вече не носи свързания с отговорността риск, тъй като той е прехвърлен на робота (или системата на ИИ). Освен това съществува риск от неправилна употреба и злоупотреба с такава правна форма. Сравнението с ограничената отговорност на дружествата е необосновано, тъй като в този случай крайната отговорност винаги се носи от физическо лице. Във връзка с това трябва да се проучи до каква степен настоящото национално и европейско законодателство, регламентиране и съдебна практика в областта на отговорността (за продукти и рискове) и личната вина дават удовлетворителен отговор на този въпрос, и ако не, какви правни решения могат да бъдат предложени.

    3.34

    Освен това за правилен подход на законодателството и регламентирането в областта на ИИ от съществено значение е да се разбира добре на какво е способен или не ИИ и на какво ще бъде способен в краткосрочен, средносрочен и дългосрочен план.

    3.35

    ИИ не познава граници. Затова е важно да се проучи необходимостта от глобално регулиране, тъй като регионалното регулиране ще бъде недостатъчно и ще има дори нежелани ефекти. Като се имат предвид изпитаната система от стандарти на ЕС за продуктите и стандарти за безопасност, тенденцията към протекционизъм, която се наблюдава на други континенти, високото ниво на знания в цяла Европа, системата на европейските основни права и социални ценности, и социалният диалог, ЕИСК препоръчва ЕС да поеме водеща роля в установяването на глобални, единни рамки за политиката в областта на ИИ и да насърчава този процес в световен мащаб.

    10)

    Управление и демокрация

    3.36

    Приложенията на ИИ могат да допринесат за по-голямо участие на гражданите в управленските политики и по-прозрачен процес на взимане на решения на управленско ниво. ЕИСК призовава ЕС и националните правителства да използват ИИ за тази цел.

    3.37

    ЕИСК изразява загриженост във връзка с целенасоченото използване на системи на ИИ (под формата на интелигентни алгоритми) за агрегиране на новини, например в социалните медии, което като че ли ограничи информационния поток и доведе до допълнително разделение на обществото (например „балонните филтри“ и „фалшивите новини“ в Туитър и Фейсбук по време изборите в САЩ).

    3.38

    ЕИСК изразява загриженост и относно сигналите, че системи на ИИ са били използвани за повлияване на поведението на хората (при гласуване). Счита се, че с помощта на интелигентни алгоритми биха могли да се прогнозират и насочват предпочитанията и поведението на хората. Това е заплаха за честната и открита демокрация. В настоящата ера на поляризация и разформироване на международните институции прецизността и мощта на подобни технологии за пропаганда могат да доведат до по-нататъшна дестабилизация на обществото. Това е една от причините, поради които са необходими стандарти за прозрачност и контролируемост на (интелигентните) алгоритми.

    11)

    Водене на военни действия

    3.39

    Конвенцията на ООН за конвенционални оръжия реши да свика през 2017 г. експерти за обсъждане на последиците от автономните оръжия. ЕИСК приветства и подкрепя призива на Human Rights Watch и др. за забрана на автономните оръжейни системи. ЕИСК счита, че подобна забрана следва да бъде сериозно проучена и взета предвид. Това обаче не е достатъчно, за да се подходи адекватно към възможностите за използване на ИИ във военни и конфликтни ситуации. Приложенията на ИИ в кибервойните също трябва да бъдат предмет на тези консултации на ООН.

    3.40

    Освен това трябва да се предотвратява попадането на ИИ в ръцете на хора или режими, които имат за цел да го използват за терористични дейности.

    12)

    Свръхинтелект

    3.41

    И накрая, възниква въпросът какви са възможностите и рисковете, свързани с разработването на свръхинтелект. Според Стивън Хокинг разработването на общ ИИ вече ще означава края на човечеството. Хокинг предсказва, че от този момент ИИ ще продължи да се развива с темпо, което хората няма да могат да следват. Затова някои експерти предпочитат т.нар. „аварийно изключване“ (kill switch) или бутон за повторно задействане (reset button), които позволяват деактивирането или повторното задействане на неконтрулируема или свръхинтелигентна система на ИИ.

    3.42

    ЕИСК призовава за подход, при който човекът запазва контрол върху ИИ в условията на отговорно и безопасно разработване и прилагане на ИИ, при което машините остават машини и хората във всеки един момент да могат да запазят контрола върху тях. Дискусията относно свръхинтелекта е важна, но понастоящем измества вниманието от дебата относно въздействието на настоящите приложения на ИИ.

    4.   ИИ в служба на човечеството

    4.1

    Междувременно големи търговски оператори (като OpenAI) предприеха различни инициативи за отворено, безопасно и социално отговорно разработване на ИИ. Въпреки това политиците не могат да оставят това на предприятията и трябва да поемат роля в този процес. Необходими са целеви мерки и подкрепа за научните изследвания в областта на обществените предизвикателства във връзка с ИИ и за разработването на сигурни и надеждни системи на ИИ.

    4.2

    Програмите на ЕС, сред които „Хоризонт 2020“, са напълно подходящи за справянето с това предизвикателство. ЕИСК констатира, че финансирането, по-специално на стълба „Обществени предизвикателства“ на „Хоризонт 2020“, „изостава“ спрямо другите два стълба — „Високи постижения в научната област“ и „Водещи позиции в промишлеността“ и намалява. ЕИСК отправя настоятелно искане на научните изследвания в областта на широките обществени предизвикателства, както и на обществените приложения на ИИ, да бъде отредено важно място в стълба „Обществени предизвикателства“.

    4.3

    Трябва да бъдат разгледани и възможните хоризонтални въздействия на ИИ. Успоредно с финансирането на развитието на революционни иновации, свързани с ИИ, следва да се финансира и проучване на социалното им въздействие и съответните мерки, които следва да се предприемат.

    4.4

    Освен това научноизследователската дейност и разработването на системи на ИИ в служба на човечеството изискват разнообразни, висококачествени обществено достъпни тренировъчни данни и данни за тестване, както и реална тестова среда. Досега инфраструктурата на ИИ и многобройни специфични данни се предоставят само от и за ограничен брой частни оператори и съществуват пречки за изпитване на ИИ в обществената сфера, което възпрепятства прилагането на ИИ в други области. Развитието на обществено достъпни, висококачествени данни и европейска инфраструктура на ИИ са от съществено значение за постигането на сигурни, надеждни и полезни системи на ИИ.

    5.   Мониторинг и предприемане на необходимите действия

    5.1

    Широкото обществено въздействие на ИИ все още не може да бъде напълно оценено. Безспорно е обаче, че то ще бъде значително. Областта на ИИ понастоящем се развива с бързи темпове, което налага критичен мониторинг от широка перспектива, за да се реагира адекватно и навреме на важни и революционни развития, както от техническо, така и от социално естество, в областта на ИИ и свързани с нея (т.нар. „фактори за промяна“).

    5.2

    Техническите фактори за промяна могат да включват съществен или значителен напредък в развитието на уменията на ИИ, които могат да бъдат предвестник на появата на общ ИИ. Сред социалните фактори за промяна могат да бъдат значителната загуба на работни места без перспектива за работни места, които да ги заменят, опасни ситуации, сривове в системата, неочаквани международни събития и др.

    5.3

    Създателите на политики, индустрията, социалните партньори, потребители, НПО, образователните и социалните институции и представителите на академичните среди и експертите в различни дисциплини (включително (приложен) ИИ, етика, безопасност, икономика, науки за труда, правни науки, поведенчески науки, психология, философия) трябва съвместно да следят отблизо развитията във връзка с ИИ, да регистрират тези фактори за промяна и да ги актуализират, така че в правилния момент да могат да бъдат предприети правилните мерки под формата на политики, законодателство и регулиране, саморегулиране и социален диалог.

    5.4

    В качеството си на представител на европейското гражданско общество през предстоящия период ЕИСК ще организира, централизира и дава импулс на дебата между множество заинтересовани страни във връзка с ИИ.

    Брюксел, 31 май 2017 година

    Председател на Европейския икономически и социален комитет

    Georges DASSIS


    (1)  ОВ C 13, 15.1.2016 г., стр. 161.


    Top