EUR-Lex Dostop do prava EU

Nazaj na domačo stran EUR-Lex

Dokument je izvleček s spletišča EUR-Lex.

Dokument 52016IE5369

Opinjoni tal-Kumitat Ekonomiku u Soċjali Ewropew dwar “L-intelliġenza artifiċjali — Il-konsegwenzi tal-intelliġenza artifiċjali fuq is-suq uniku (diġitali), il-produzzjoni, il-konsum, l-impjiegi u s-soċjetà” (opinjoni fuq inizjattiva proprja)

ĠU C 288, 31.8.2017, str. 1–9 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

31.8.2017   

MT

Il-Ġurnal Uffiċjali tal-Unjoni Ewropea

C 288/1


Opinjoni tal-Kumitat Ekonomiku u Soċjali Ewropew dwar “L-intelliġenza artifiċjali — Il-konsegwenzi tal-intelliġenza artifiċjali fuq is-suq uniku (diġitali), il-produzzjoni, il-konsum, l-impjiegi u s-soċjetà”

(opinjoni fuq inizjattiva proprja)

(2017/C 288/01)

Relatur:

Catelijne MULLER

Deċiżjoni tal-Assemblea tal-Plenarja

22.9.2016

Bażi legali

Artikolu 29(2) tar-Regoli ta’ Proċedura

 

Opinjoni fuq inizjattiva proprja

 

 

Sezzjoni kompetenti

Sezzjoni Speċjalizzata għas-Suq Uniku, il-Produzzjoni u l-Konsum

Adottata fis-sezzjoni

4.5.2017

Adottata fil-plenarja

31.5.2017

Sessjoni plenarja Nru

526

Riżultat tal-votazzjoni

(favur/kontra/astensjonijiet)

159/3/14

1.   Konklużjonijiet u rakkomandazzjonijiet

1.1

L-intelliġenza artifiċjali (IA) attwalment qed tesperjenza numru ta’ żviluppi importanti u qed tiġi applikata b’mod rapidu fis-soċjetà. Id-daqs tas-suq tal-IA huwa madwar USD 664 miljun u huwa mistenni li jiżdied għal USD 38,8 biljun fl-2025. Minħabba li l-IA jista’ jkollha kemm impatt negattiv kif ukoll pożittiv fis-soċjetà, il-KESE impenja ruħu li jsegwi mill-qrib l-iżviluppi relatati mal-IA, mhux biss mil-lat tekniku, iżda wkoll, b’mod espliċitu, mil-lat etiku, ta’ sigurtà u soċjetali.

1.2

Bħala rappreżentant tas-soċjetà ċivili Ewropea, il-KESE ser isawwar, jiċċentralizza u jippromovi d-dibattitu pubbliku dwar l-IA, billi jiġu involuti l-partijiet interessati rilevanti kollha: dawk li jfasslu l-politika, l-industrija, l-imsieħba soċjali, il-konsumaturi, l-NGOs, l-istituzzjonijiet tal-edukazzjoni u l-kura, l-esperti u l-akkademiċi minn diversi dixxiplini (inklużi l-IA, is-sigurtà, l-etika, l-ekonomija, ix-xjenza tax-xogħol, il-liġi, ix-xjenza tal-imġiba, il-psikoloġija u l-filosofija).

1.3

Għalkemm importanti, f’dan il-mument qed tiddomina d-diskussjoni dwar is-superintelliġenza u qiegħda taħbi d-dibattitu dwar l-impatt tal-użijiet attwali tal-IA. Għalhekk il-kompitu u l-għan ta’ dan il-proċess ser ikunu, fost l-oħrajn, biex itejbu u jwessgħu l-għarfien dwar l-IA u b’hekk isir kontribut għal dibatittu infurmat u bbilanċjat ħieles mix-xenarji tal-agħar każijiet u r-relattiviżmu estrem. B’dan il-mod, il-KESE ser ikun impenjat jippromovi l-iżvilupp tal-IA għall-benefiċċju tal-umanità. Madankollu, kompitu u għan importanti ta’ dan il-proċess huma wkoll li jiġu rikonoxxuti, identifikati u mmonitorjati żviluppi problematiċi fl-iżvilupp tal-IA u madwarha, sabiex jiġu indirizzati b’mod adegwat u fil-ħin. Dan għandu jwassal għal aktar involviment, fiduċja u appoġġ mis-soċjetà fir-rigward tal-iżvilupp u l-applikazzjoni sostenibbli ulterjuri tal-IA.

1.4

L-impatt tal-IA huwa transkonfinali u għalhekk għandhom jiġu stabbiliti oqfsa ta’ politika sovranazzjonali. Il-KESE jirrakkomanda li l-UE tadotta rwol globali u mexxej fl-istabbiliment ta’ oqfsa ta’ politika globali u ċari għall-IA, f’konformità mal-valuri Ewropej u d-drittijiet fundamentali. Il-KESE jista’, u għandu r-rieda, li jikkontribwixxi għal dan.

1.5

Il-KESE jidentifika attwalment 11-il qasam fejn l-IA toffri sfidi soċjetali: l-etika; is-sigurtà; l-aċċessibbiltà; il-privatezza; it-trasparenza u r-responsabbiltà; ix-xogħol; l-edukazzjoni u l-ħiliet; l-(in)ugwaljanza u l-inklussività; il-liġi u r-regolamenti, il-governanza u d-demokrazija; il-gwerer u d-diplomazija; u s-superintelliġenza. Għalhekk, il-KESE jirrakkomanda dan li ġej.

1.6

Il-KESE jitlob approċċ ta’ human-in-command għall-IA, inkluża l-prekondizzjoni li l-iżvilupp tal-IA jkun responsabbli, sigur u utli, fejn il-magni jibqgħu magni u l-persuni jżommu l-kontroll fuq dawn il-magni l-ħin kollu.

1.7

Il-KESE jitlob li jkun hemm kodiċi ta’ etika għall-iżvilupp, l-implimentazzjoni u l-użu tal-IA sabiex matul il-proċess operattiv kollu tagħhom, is-sistemi tal-IA jibqgħu kompatibbli mal-prinċipji tad-dinjità tal-bniedem, l-integrità, il-libertà, il-privatezza u d-diversità kulturali u tal-ġeneru, kif ukoll mad-drittijiet fundamentali tal-bniedem.

1.8

Il-KESE jappella biex tiġi żviluppata sistema ta’ standardizzazzjoni għall-verifika, il-validazzjoni u l-monitoraġġ tas-sistemi tal-IA abbażi ta’ firxa wiesgħa ta’ standards fil-qasam tas-sigurtà, it-trasparenza, il-komprensjoni, ir-responsabbiltà u l-valuri etiċi.

1.9

Il-KESE jitlob li jkun hemm infrastruttura Ewropea tal-IA li tikkonsisti f’ambjenti ta’ sorsi miftuħa li jirrispettaw il-privatezza, ambjenti ta’ testjar f’sitwazzjonijiet reali u settijiet ta’ data ta’ kwalità għolja għall-iżvilupp u t-taħriġ ta’ sistemi tal-IA. Il-KESE jenfasizza l-vantaġġ (kompetittiv) li l-UE tista’ tikseb fis-suq globali billi tiżviluppa u tippromovi “sistemi Ewropej tal-IA responsabbli”, flimkien ma’ ċertifikazzjoni u tikketti Ewropej tal-IA.

1.10

L-UE, il-gvernijiet nazzjonali u l-imsieħba soċjali għandhom jidentifikaw b’mod konġunt liema setturi tas-suq tax-xogħol ser jintlaqtu mill-IA, sa fejn u f’liema żmien, u għandhom ifittxu soluzzjonijiet sabiex jindirizzaw b’mod adegwat l-impatt fuq l-impjiegi, in-natura tax-xogħol, is-sistemi soċjali u l-(in)ugwaljanza. Imbagħad għandu jsir investiment fis-setturi tas-suq tax-xogħol fejn l-IA għandha impatt żgħir jew m’għandha l-ebda impatt.

1.11

Il-KESE jirrakkomanda li dawn il-partijiet interessati jaħdmu flimkien fuq is-sistemi komplementari tal-IA u l-ħolqien konġunt tagħhom fil-post tax-xogħol, bħal timijiet bejn il-bnedmin u l-magni, fejn l-IA tikkomplementa u ttejjeb il-prestazzjoni tal-bniedem. Il-partijiet interessati għandhom jinvestu wkoll f’tagħlim formali u informali, edukazzjoni u taħriġ għal kulħadd sabiex in-nies ikunu jistgħu jaħdmu bl-IA iżda wkoll biex jiġu żviluppati ħiliet li l-IA ma tistax jew m’għandhiex tikseb.

1.12

Diġà hemm bżonn ta’ evalwazzjoni konkreta tal-liġijiet u r-regolamenti tal-UE fis-6 oqsma identifikati mill-iSTOA (Unità għall-valutazzjoni tal-għażliet xjentifiċi u teknoloġiċi) li fihom jista’ jkun hemm bżonn li jiġu riveduti jew adattati. Il-KESE jista’ u jixtieq jaqdi rwol attiv f’dan il-proċess ta’ evalwazzjoni. Il-KESE huwa kontra li tiġi introdotta forma ta’ personalità ġuridika għar-robots jew l-IA. L-effett ta’ rimedju preventiv tal-liġi tar-responsabbiltà huwa għalhekk mitluf. Mill-iżvilupp u l-użu tal-IA joħroġ riskju ta’ periklu morali u dan joħloq opportunitajiet għal abbuż.

1.13

L-iżvilupp ta’ applikazzjonijiet tal-IA li huma ta’ benefiċċju għas-soċjetà, jippromovu l-inklużjoni u jtejbu l-ħajja tan-nies għandu jiġi promoss u mħeġġeġ b’mod attiv, kemm b’mod pubbliku kif ukoll b’mod privat. Il-Kummissjoni Ewropea għandha, fi ħdan il-programmi tagħha, tiffinanzja r-riċerka dwar l-impatt soċjetali tal-IA kif ukoll tal-innovazzjonijiet tal-IA ffinanzjati mill-UE.

1.14

Il-KESE jappoġġja s-sejħa mill-Human Rights Watch u oħrajn għal projbizzjoni fuq is-sistemi ta’ armi awtonomi. Il-KESE jilqa’ bi pjaċir il-konsultazzjoni dwar din il-kwistjoni mħabbra min-NU, iżda jqis li din għandha tkopri wkoll l-użu tal-IA fil-gwerra ċibernetika.

2.   L-intelliġenza artifiċjali

2.1

M’hemm l-ebda definizzjoni unika, aċċettata u definita b’mod ċar ta’ IA. L-IA hija terminu li jinkludi kollox għal numru kbir ta’ (sotto)oqsma bħal: l-informatika konjittiva (algoritmi li jirraġunaw u jifhmu f’livell (aktar uman) ogħla), it-tagħlim mill-magni (algoritmi li jistgħu huma stess jitgħallmu l-kompiti), l-intelliġenza miżjuda (kooperazzjoni bejn il-bniedem u l-magna) u r-robotika tal-IA (l-IA mdaħħla fir-robots). L-għan ċentrali tar-riċerka u l-iżvilupp tal-IA huwa, madankollu, l-awtomatizzazzjoni tal-imġiba intelliġenti bħar-raġunament, il-ġbir ta’ informazzjoni, l-ippjanar, it-tagħlim, il-komunikazzjoni, il-manipulazzjoni, is-sinjalar u saħansitra l-ħolqien, il-ħolm u l-perċezzjoni.

2.2

L-IA hija bejn wieħed u ieħor maqsuma f’IA stretta u f’IA ġenerali. L-IA stretta hija kapaċi twettaq kompiti speċifiċi. L-IA ġenerali hija kapaċi twettaq kwalunkwe kompitu intellettwali li jista’ jitwettaq mill-bniedem.

2.3

Reċentement, fil-qasam tal-IA stretta sar progress sinifikanti, b’mod partikolari bil-progress fil-qawwa tal-ipproċessar tal-kompjuter, id-disponibbiltà ta’ volumi kbar ta’ data u l-iżvilupp tat-tagħlim bil-magni. It-tagħlim bil-magni jirreferi għal algoritmi li kapaċi jgħallmu lilhom infushom kompiti speċifiċi mingħajr ma jkollhom bżonn jiġu pprogrammati. Dan il-metodu huwa bbażat fuq l-ipproċessar ta’ “data ta’ taħriġ” abbażi ta’ liema l-algoritmu jitgħallem jirrikonoxxi mudelli u jfassal regoli. It-tagħlim profond, tip ta’ tagħlim bil-magni, juża strutturi (netwerks newroloġiċi) li huma liberament ibbażati fuq il-moħħ tal-bniedem u li jitgħallmu permezz tat-taħriġ u l-feedback. Ir-riżultat ta’ dawn l-iżviluppi huwa li s-sistemi tal-IA (permezz tal-algoritmi) jistgħu jkunu kapaċi jgħallmu lilhom infushom, awtonomi u adattabbli.

2.4

Ir-riċerka u l-iżvilupp fl-IA ilhom għal xi żmien jiffokaw prinċipalment fuq ir-raġunament, l-akkwist tal-għarfien, l-ippjanar, il-komunikazzjoni u l-perċezzjoni (viżwali, awditiva u sensorjali). Dan wassal għal numru kbir ta’ applikazzjonijiet tal-IA: assistenti virtwali, karozzi awtonomi, ġbir awtomatiku tal-aħbarijiet, rikonoxximent tad-diskors, softwer tat-traduzzjoni, softwer mill-kitba għad-diskors, kummerċ finanzjarju awtomatiku, skoperta elettronika legali, eċċ.

2.5

Il-KESE jinnota li reċentement kien hemm żieda esponenzjali fl-ammont ta’ applikazzjonijiet u investiment fl-IA. Id-daqs tas-suq tal-IA bħalissa huwa madwar USD 664 miljun u huwa mistenni li jiżdied għal USD 38,8 biljun sal-2025.

3.   Opportunitajiet u theddidiet tal-IA

3.1

Huwa virtwalment indisputabbli li l-IA jista’ jkollha benefiċċji kbar għas-soċjetà: għandhom jitqiesu l-applikazzjonijiet fl-agrikoltura sostenibbli, trasport aktar sigur, sistema finanzjarja aktar sigura, proċessi ta’ produzzjoni aktar favur l-ambjent, mediċina aħjar, xogħol aktar sigur, edukazzjoni aktar personalizzata, ġurisprudenza aħjar u soċjetà aktar sigura. Din tista’ potenzjalment tikkontribwixxi wkoll sabiex jinqerdu l-mard u l-faqar. L-IA tista’ wkoll tagħti kontribut ewlieni sabiex tissaħħaħ l-industrija u titjieb il-kompetittività tal-UE.

3.2

Bħal f’kull teknoloġija oħra li twassal għal tfixkil, l-IA wkoll iġġib magħha riskji u sfidi kumplessi ta’ politika f’oqsma bħalma huma s-sikurezza u l-monitoraġġ, l-aspetti soċjoekonomiċi, l-etika u l-privatezza, l-affidabbiltà, eċċ.

3.3

Aħna qegħdin f’punt kruċjali biex niddeterminaw il-kundizzjonijiet (qafas) għall-iżvilupp u l-użu attwali u ulterjuri tal-IA. Dawn il-benefiċċji tal-IA jistgħu jkunu sostenibbli biss jekk l-isfidi li jduru magħha jiġu indirizzati b’mod adegwat. Għal dan il-għan għandhom isiru għażliet politiċi.

a)

Etika

3.4

L-iżvilupp tal-IA jqajjem ħafna mistoqsijiet etiċi. Liema impatt għandha l-IA awtonoma (li tgħallem lilha nnifisha) fuq l-integrità personali, l-awtonomija, id-dinjità, l-indipendenza, l-ugwaljanza, is-sigurtà u l-libertà tal-għażla tagħna? Kif nistgħu niżguraw li n-normi, il-valuri u d-drittijiet tal-bniedem fundamentali tagħna jiġu rispettati u mħarsa?

3.5

Barra minn hekk, l-iżvilupp tal-IA attwalment qiegħed iseħħ f’ambjent omoġenju li primarjament huwa magħmul minn żgħażagħ irġiel bojod, bir-riżultat li d-disparitajiet kulturali u tal-ġeneru (kemm jekk intenzjonalment jew le) qegħdin jiġu inkorporati fl-IA, fost affarijiet oħra sabiex is-sistemi tal-IA jkunu jistgħu jitgħallmu mid-data tat-taħriġ. Din id-data għandha tkun preċiża u ta’ kwalità tajba, diversa, eżawrjenti biżżejjed u imparzjali. Hemm tendenza ġenerali li wieħed jemmen li d-data hija, skont id-definizzjoni, oġġettiva, iżda dan huwa kunċett żbaljat. Id-data faċilment tiġi mmanipulata, tista’ tkun preġudikata, tista’ tirrifletti preġudizzji u preferenzi kulturali, tal-ġeneru u oħrajn u jista’ jkun fiha l-iżbalji.

3.6

Is-sistemi tal-IA li qegħdin jiġu żviluppati issa mhux ser jinkludu valuri etiċi. Aħna l-bnedmin irridu nippreveduhom fis-sistemi tal-IA u fl-ambjenti li jintużaw fihom. L-iżvilupp, l-applikazzjoni u l-użu tas-sistemi tal-IA (kemm pubbliċi kif ukoll kummerċjali), għandhom isiru fil-limiti tan-normi, il-valuri, il-libertajiet u d-drittijiet tal-bniedem fundamentali tagħna. Il-KESE għalhekk jitlob li tiġi żviluppata u stabbilita kodiċi ta’ etika globali u uniformi għall-iżvilupp, l-implimentazzjoni u l-użu tal-IA.

b)

Sigurtà

3.7

L-użu tal-IA fid-dinja fiżika bla dubju jagħti lok għal kwistjonijiet ta’ sigurtà. Tista’ ssir distinzjoni bejn is-sigurtà interna u dik esterna.

Is-sigurtà interna: is-sistema tal-IA hija robusta biżżejjed biex (tkompli) tiffunzjona tajjeb? L-algoritmu huwa pprogrammat tajjeb? Tikkraxxja? Hija reżistenti għall-iħħekkjar? Hija effettiva? Hija affidabbli?

Is-sigurtà esterna: is-sistema tal-IA hija sigura meta użata fis-soċjetà? Topera b’mod sigur, mhux biss f’sitwazzjonijiet normali, iżda wkoll f’sitwazzjonijiet mhux magħrufa, kritiċi jew imprevedibbli? X’inhu l-impatt tat-tagħlim awtonomu fuq is-sigurtà, inkluż jekk is-sistema tkompli titgħallem wara li tibda tintuża?

3.8

Il-KESE jemmen li s-sistemi tal-IA jistgħu jintużaw biss jekk jissodisfaw rekwiżiti speċifiċi għas-sigurtà interna u esterna. Dawn ir-rekwiżiti għandhom jiġu ddeterminati b’mod konġunt mill-ispeċjalisti tal-IA u tas-sigurtà, mill-intrapriżi u mill-organizzazzjonijiet tas-soċjetà ċivili.

c)

It-trasparenza, il-komprensjoni, is-superviżjoni u r-responsabbiltà

3.9

L-aċċettazzjoni kif ukoll l-iżvilupp u l-użu sostenibbli tal-IA huma marbutin mal-abbiltà li wieħed jifhem, jiċċekkja u jiċċertifika l-funzjoni, l-azzjonijiet u d-deċiżjonijiet tas-sistemi tal-IA, partikolarment wara.

3.10

L-azzjonijiet u d-deċiżjonijiet tas-sistemi tal-IA (permezz ta’ algoritmi intelliġenti) huma involuti dejjem aktar f’ħajjet in-nies. Eżempji jinkludu l-użu tal-IA f’attivitajiet tal-pulizija permezz tal-informazzjoni, fil-valutazzjoni tal-applikazzjonijiet għall-ipoteki jew fil-proċess biex tiġi awtorizzata assigurazzjoni. Il-komprensjoni, il-verifikabbiltà u r-responsabbiltà tal-proċess tat-teħid tad-deċiżjonijiet ta’ sistema tal-IA huma kruċjali f’dan ir-rigward.

3.11

Attwalment, ħafna sistemi tal-IA huma wisq diffiċli biex l-utenti jifhmuhom. Dan japplika dejjem aktar ukoll għal dawk li joħolqu s-sistemi. B’mod partikolari, in-netwerks newroloġiċi huma ta’ spiss “kaxxi suwed” fejn il-proċessi (tat-teħid ta’ deċiżjonijiet) li qegħdin iseħħu m’għadhomx jistgħu jiġu mifhuma, u li għalihom ma jeżistux mekkaniżmi ta’ spjegazzjoni.

3.12

Il-KESE jappella għal sistemi trasparenti, komprensibbli u verifikabbli tal-IA, li l-funzjonament tagħhom jista’ jiġi spjegat anke wara. Barra minn hekk, għandu jiġi stabbilit liema proċessi ta’ teħid ta’ deċiżjonijiet jistgħu jew ma jistgħux jiġu trasferiti għas-sistemi tal-IA u meta l-intervent mill-bniedem għandu jkun mixtieq jew meħtieġ.

d)

Privatezza

3.13

Il-privatezza tas-sistemi tal-IA hija kwistjoni ta’ tħassib. Ħafna prodotti (tal-konsumaturi) diġà għandhom l-IA fihom: l-apparati domestiċi, il-ġugarelli tat-tfal, il-karozzi, it-trackers tas-saħħa u l-ismartphones. Dawn il-prodotti kollha jgħaddu data (ta’ spiss personali) lill-pjattaformi bbażati fuq il-cloud tal-produtturi. Jekk il-privatezza tiġix imħarsa biżżejjed huwa punt ta’ tħassib, partikolarment issa li l-kummerċ fid-data qiegħed jikber, u dan ifisser li d-data ġġenerata ma tibqax f’idejn il-produttur, iżda tinbiegħ lil partijiet terzi.

3.14

Billi tanalizza kwantitajiet kbar ta’ data (ta’ spiss) personali, l-IA hija wkoll kapaċi tinfluwenza l-għażliet tal-persuni f’ħafna oqsma (minn deċiżjonijiet kummerċjali għal elezzjonijiet u referenda). It-tfal huma grupp partikolarment vulnerabbli. Il-KESE huwa mħasseb dwar l-użijiet tal-IA li għandhom l-għan espliċitu li jinfluwenzaw l-imġiba u x-xewqat tat-tfal.

3.15

Hemm bżonn li jiġi evitat li l-użu tal-IA fir-rigward tad-data personali jillimita l-libertà attwali jew perċeputa tal-persuni. Ir-Regolament Ġenerali dwar il-Protezzjoni tad-Data tal-UE jipprovdi għal protezzjoni sinifikanti tal-privatezza għal informazzjoni personali miġbura diġitalment. Fid-dawl tal-iżvilupp tal-IA għandu jkun immonitorjat sew jekk id-dritt tal-persuni għall-kunsens informat u l-libertà tal-għażla huwiex raġonevolment żgurat fil-prattika meta tinħareġ id-data, iżda wkoll meta tiġi aċċessata, aġġustata u vverifikata.

e)

In-normi, l-istandards u l-infrastruttura

3.16

Għandhom jiġu żviluppati sistemi ġodda ta’ standardizzazzjoni abbażi ta’ firxa wiesgħa ta’ standards sabiex jiġu vverifikati u vvalidati s-sistemi tal-IA bil-għan li jiġu evalwati u mmonitorjati s-sigurtà, it-trasparenza, il-komprensjoni, ir-responsabbiltà u r-responsabbiltà etika tas-sistemi tal-IA.

3.17

Il-KESE jappella li l-UE tiżviluppa infrastruttura tal-IA tagħha, li tikkonsisti f’ambjenti ta’ sorsi miftuħa li jirrispettaw il-privatezza u settijiet ta’ data ta’ kwalità għolja għall-iżvilupp u t-taħriġ ta’ sistemi tal-IA. L-UE tista’ tikseb vantaġġ (kompetittiv) fis-suq globali billi tippromovi sistemi tal-IA Ewropej responsabbli. F’dan ir-rigward, il-Kumitat jirrakkomanda li jiġi esplorat il-potenzjal taċ-ċertifikazzjoni u t-tikkettar tal-IA Ewropea.

f)

L-impatt fuq ix-xogħol, l-impjiegi, il-kundizzjonijiet tax-xogħol u s-sistemi soċjali

3.18

Il-fehmiet huma diviżi dwar il-ħeffa u l-punt sa fejn dan għandu jseħħ, iżda huwa evidenti li l-IA ser ikollha impatt fuq il-livell ta’ impjieg u n-natura u t-tip ta’ bosta xogħlijiet, u għalhekk fuq is-sistemi soċjali.

3.19

Brynjolfsson u McAfee tal-MIT jirreferu għall-iżviluppi teknoloġiċi attwali (inkluża l-IA) bħala t-tieni era tal-magni. Madankollu hemm żewġ differenzi importanti: (i) il-magni “l-qodma” issostitwixxew b’mod predominanti l-muskoli, filwaqt li l-magni l-ġodda qegħdin jissostitwixxu l-poter tal-moħħ u l-ħiliet konjittivi, li jolqtu l-ħaddiema b’ħiliet baxxi (“blue collar”) iżda wkoll lill-ħaddiema b’ħiliet medji u għoljin (“white collar”) u (ii) l-IA hija teknoloġija bi skop ġenerali li virtwalment tolqot lis-setturi kollha b’mod simultanju.

3.20

L-IA jista’ jkollha benefiċċji sinifikanti meta tintuża għal xogħol perikoluż, diffiċli, eżawrjenti, maħmuġ, mhux pjaċevoli, repetittiv jew tedjanti. Anke x-xogħol ta’ rutina, l-ipproċessar tad-data u l-analiżi, jew xogħol fejn l-ippjanar jew it-tbassir jaqdu rwol ewlieni, xogħol li ta’ spiss jitwettaq minn persuni b’ħiliet għolja, jista’ dejjem aktar jitwettaq minn sistemi tal-IA.

3.21

Madankollu, il-maġġoranza tal-impjiegi jinkludu diversi attivitajiet. Il-probabbiltà li l-kompiti kollha ta’ persuna jistgħu jitwettqu mill-IA jew li r-robots jieħdu posthom tidher baxxa. Madankollu, ħafna persuni ser jiffaċċjaw l-awtomazzjoni ta’ partijiet mill-funzjonijiet tagħhom. Il-ħin li dan jillibera jista’ jintuża għal kompiti oħra, sakemm l-awtoritajiet pubbliċi u l-imsieħba soċjali jagħmlu l-isforzi f’dan il-kuntest. F’dan ir-rigward, huwa meħtieġ li jitqies l-impatt li dawn l-iżviluppi jista’ jkollhom fuq il-professjonisti u l-maniġers u li jiġi promoss l-involviment tagħhom, sabiex jibqgħu l-kapijiet tal-iżviluppi u mhux jisfaw vittma.

3.22

Barra minn hekk ser ikun hemm impjiegi ġodda. Minkejja dan, ħadd ma jista’ jbassar dawn x’ser ikunu, kemm ser ikun hemm, u kemm dan ser iseħħ malajr. Kumpaniji bħal Google u Facebook kapaċi jiġġeneraw valur enormi b’numru relattivament żgħir ta’ impjegati. Barra minn hekk, l-impjiegi ġodda mhux dejjem ikunu impjiegi ta’ kwalità. It-tħassib huwa li bl-iżvilupp ulterjuri tal-IA ser jibqa’ biss kompiti żgħar imħallsin baxx għal grupp dejjem jikber ta’ ħaddiema flessibbli.

3.23

L-IA ser tolqot mhux biss il-kwantità ta’ xogħol disponibbli, iżda wkoll in-natura tax-xogħol eżistenti. Is-sistemi tal-IA joffru dejjem aktar opportunitajiet biex isegwu u jimmonitorjaw il-ħaddiema, u dan iqajjem tħassib dwar l-awtonomija u l-privatezza. Ix-xogħol issa huwa spiss iddeterminat u distribwit minn algoritmi, mingħajr intervent mill-bniedem, li jinfluwenza n-natura tax-xogħol u l-kundizzjonijiet tax-xogħol. Hemm ir-riskju wkoll li tonqos il-kwalità tal-impjiegi u li jintilfu ħiliet ewlenin minħabba l-użu tas-sistemi tal-IA.

3.24

Jibqa’ l-fatt, madankollu, li t-teknoloġija mhux “tieħu l-kontroll”. Il-gvernijiet u l-imsieħba soċjali għandhom il-possibilità li jiddeterminaw kif l-IA tiġi żviluppata u applikata aktar fl-impjieg u għandhom jaħtfu din il-possibbiltà b’idejhom it-tnejn. F’dan ir-rigward, huwa importanti li l-enfasi tkun mhux biss fuq x’inhi kapaċi tagħmel l-IA, iżda wkoll fuq x’inhuma kapaċi jagħmlu l-persuni (kreattività, empatija, kooperazzjoni) u x’irridu li l-persuni jkomplu jagħmlu, u jitfixxu l-opportunitajiet biex il-persuni u l-magni jkunu jistgħu jaħdmu flimkien aħjar (komplementarjetà).

3.25

L-intelliġenza miżjuda (komplementarjetà), fejn il-persuni u l-magni jaħdmu flimkien u jappoġġjaw lil xulxin, hija l-aktar użu interessanti tal-IA peress li dan jinvolvi persuna ma’ magna, minflok persuna minflok magna. Madankollu, il-kokreazzjoni hija ta’ importanza kbira: il-ħaddiema għandhom ikunu involuti fl-iżvilupp ta’ dawn it-tipi ta’ sistemi komplementari tal-IA sabiex ikun żgurat li dawn is-sistemi jistgħu jintużaw u li l-ħaddiem għandu biżżejjed awtonomija u kontroll (human-in-command), sodisfazzjon u pjaċir fix-xogħol.

g)

Edukazzjoni u ħiliet

3.26

Iż-żamma jew il-kisba ta’ ħiliet diġitali huma meħtieġa biex in-nies jingħataw l-opportunità jadattaw għall-iżviluppi rapidi fil-qasam tal-IA. Il-Kummissjoni Ewropea hija impenjata bis-sħiħ fl-iżvilupp ta’ ħiliet diġitali permezz tal-Koalizzjoni tagħha għall-Ħiliet u l-Impjiegi Diġitali. Madankollu, mhux kulħadd huwa kapaċi jew interessat fl-ipprogrammar jew li jsir programmatur. Għalhekk, il-politika u r-riżorsi finanzjarji ser ikollhom jiġu kkonċentrati fl-edukazzjoni u l-iżvilupp tal-ħiliet f’oqsma li mhumiex ser jiġu mhedda mis-sistemi tal-IA (pereżempju kompiti fejn hija importanti l-interazzjoni tal-bniedem, fejn in-nies u l-magni jikkooperaw, jew kompiti li nixtiequ li jitkomplewjitwettqu min-nies).

3.27

Meta tintuża l-komplementarjetà bejn in-nies u l-IA (intelliġenza miżjuda), ser tkun meħtieġa edukazzjoni – għal kulħadd u minn età bikrija – li tittratta u taħdem mas-sistemi tal-IA, sabiex jiġi żgurat li n-nies jistgħu jżommu l-awtonomija u l-kontroll fil-ħidma tagħhom (human-in-command). L-edukazzjoni fir-rigward b’mod partikolari tal-etika u l-privatezza hija importanti, peress li l-IA għandha impatt sinifikanti f’dawn l-oqsma.

h)

L-aċċessibbiltà, l-(in)ugwaljanza soċjali, l-inklużività, id-distribuzzjoni

3.28

Il-maġġoranza vasta tal-iżvilupp tal-IA u l-elementi kollha tagħha (pjattaformi ta’ żvilupp, data, għarfien u għarfien espert) tinsab f’idejn il-ħames kumpaniji kbar tat-teknoloġija (Amazon, Facebook, Apple, Google u Microsoft). Għalkemm dawn il-kumpaniji huma favur l-iżvilupp miftuħ tal-IA u xi wħud minnhom iqiegħdu l-pjattaformi tagħhom ta’ żvilupp tal-IA bħala sors miftuħ, dan ma jiggarantixxix l-aċċess totali tas-sistemi tal-IA. L-UE, dawk li jfasslu l-politika fil-livell internazzjonali u l-organizzazzjonijiet tas-soċjetà ċivili għandhom rwol importanti x’jaqdu biex jiżguraw li s-sistemi tal-IA jkunu aċċessibbli għal kulħadd, iżda wkoll li jkunu żviluppati f’ambjent miftuħ.

3.29

It-tibdil teknoloġiku li jiffavorixxi l-kapital, fejn l-innovazzjoni primarjament tipprovdi benefiċċji għas-sidien ta’ din l-innovazzjoni, idgħajjef il-pożizzjoni tax-xogħol relattiva għal dik tal-kapital. It-tibdil teknoloġiku jista’ jwassal ukoll għal inugwaljanzi (fl-introjtu) bejn in-nies (kemm lokalment u kif ukoll reġjonalment u globalment). L-IA tista’ ssaħħaħ aktar dawn ix-xejriet.

3.30

Huwa importanti li dawn ix-xejriet jiġu mmonitorjati mill-qrib u indirizzati b’mod adegwat. Diġà kien hemm sejħiet għal taxxi fuq l-IA, dividend tal-IA jew sjieda kondiviża tas-sistemi tal-IA mill-ħaddiema u l-impjegaturi. Dejjem aktar qed jiżdied id-diskors dwar il-bżonn ta’ introjtu bażiku mhux kondizzjonali.

3.31

F’Opinjoni preċedenti (1), il-KESE diġà identifika l-possibbiltà li d-dividend diġitali jiġi kondiviż b’mod ugwali bil-għan li jinkisbu effetti pożittivi ta’ tkabbir. Il-KESE jagħti importanza lir-riċerka għal dawn is-soluzzjonijiet, madankollu għandu jinstab bilanċ xieraq bejn l-iżvilupp ta’ IA li hija ta’ benefiċċju għan-nies u l-effetti potenzjali restrittivi li jirriżultaw mis-soluzzjonijiet. Għandu jiġi evitat ukoll il-periklu morali, fejn ir-responsabbiltà għas-sistemi tal-IA tiġi trasferita lil entità li ma tistax effettivament tinżamm responsabbli.

i)

Liġijiet u regolamenti

3.32

L-implikazzjonijiet tal-IA għal-liġijiet u r-regolamenti eżistenti huma kbar. F’Ġunju 2016, l-unità tal-Parlament Ewropew tal-valutazzjoni tal-għażliet xjentifiċi u teknoloġiċi xjentifiċi (STOA) tat sommarju tal-liġijiet u r-regolamenti Ewropej li ser jintlaqtu mill-iżviluppi fil-qasam tar-robotika, is-sistemi ċiberfiżiċi u l-IA. L-iSTOA stabbilixxiet 6 oqsma – it-trasport, is-sistemi b’użu doppju, il-libertajiet ċivili, is-sigurtà, is-saħħa, l-enerġija – fejn sa 39 regolament, direttiva, dikjarazzjoni u komunikazzjoni tal-UE kif ukoll il-Karta Ewropea għad-Drittijiet Fundamentali jista’ jkollhom bżonn jiġu riveduti jew emendati. Din l-evalwazzjoni għandha tiġi indirizzata b’mod urġenti u deċiżiv u l-KESE jista’ u jrid jaqdi rwol attiv f’dan il-proċess.

3.33

Hemm ħafna diskussjoni dwar il-kwistjoni ta’ min jista’ jinżamm responsabbli meta sistema tal-IA tikkawża danni, speċjalment jekk is-sistema tal-IA titgħallem b’mod awtonomu u tkompli titgħallem wara li tibda tintuża. Il-Parlament Ewropew fassal rakkomandazzjonijiet għal liġi ċivili dwar ir-robotika, inkluża proposta sabiex tiġi investigata ’l hekk imsejħa personalità elettronika tar-robots, sabiex inkunu jistgħu jinstabu ċivilment responsabbli għal kwalunkwe dannu li jistgħu jikkawżaw. Il-KESE huwa kontra kull forma ta’ status legali għar-robots jew għall-IA (/għas-sistemi tal-IA), peress li dan jinkludi riskju inaċċettabbli ta’ periklu morali. Il-liġi tar-responsabbiltà hija bbażata fuq funzjoni preventiva u ta’ korrezzjoni ta’ mġiba, li tista’ tgħib hekk kif il-produttur ma jibqax iġorr ir-riskju ta’ responsabbiltà, peress li dan jiġi trasferit lejn ir-robot (jew is-sistema tal-IA). Barra minn hekk, hemm ir-riskju ta’ użu ħażin u abbuż ta’ forma legali bħal din. It-tqabbil mar-responabbiltà limitata ta’ kumpaniji hija żbaljata, għaliex hawnhekk dejjem tkun persuna fiżika li tkun fl-aħħar mill-aħħar responsabbli. F’dan ir-rigward, għandu jiġi eżaminat sa liema punt il-liġijiet, ir-regolamenti u l-ġurisprudenza tal-UE u dawk nazzjonali fil-qasam tar-responsabbiltà (ta’ prodott u ta’ riskju) u ħtija proprja jipprovdu tweġiba adegwata għal din il-mistoqsija u jekk le, x’tip ta’ soluzzjonijiet legali jisgħu jkunu offruti.

3.34

Approċċ korrett għal-liġijiet u r-regolamenti fil-kuntest tal-IA, barra minn hekk, jeħtieġ fehim tajjeb ta’ x’tista’ u x’ma tistax tagħmel l-IA u x’tista’ tkun kapaċi tagħmel fuq perjodu ta’ żmien qasir, medju u twil.

3.35

L-IA mhix limitata għall-fruntieri. Għalhekk huwa importanti li jitfittex il-bżonn għal regolamenti globali, peress li r-regolamenti reġjonali mhux ser ikunu biżżejjed u jista’ jkollhom effetti mhux mixtieqa. Minħabba s-sistema ppruvata tagħha ta’ standards ta’ prodotti u ta’ sigurtà, it-tendenza lejn il-protezzjoniżmu f’kontinenti oħra, il-livell għoli ta’ għarfien fi ħdan l-Ewropa kollha, is-sistema tad-drittijiet fundamentali u l-valuri soċjali Ewropej kif ukoll id-djalogu soċjali, il-KESE jirrakkomanda li l-UE tieħu rwol ewlieni fil-ħolqien ta’ oqfsa ta’ politika globali u uniformi għall-IA u tippromovi dan il-proċess fil-livell globali.

j)

Governanza u demokrazija

3.36

L-applikazzjonijiet tal-IA jistgħu jgħinu jtejbu l-involviment tan-nies fil-politiki tal-gvern u teħid ta’ deċiżjonijiet amministrattivi aktar trasparenti. Il-KESE jappella lill-UE u lill-gvernijiet nazzjonali biex jużaw l-IA għal dan l-iskop.

3.37

Il-KESE huwa mħasseb dwar l-użu mmirat tas-sistemi tal-IA (fil-forma ta’ algoritmi intelliġenti) għall-ġbir tal-aħbarijiet fuq, pereżempju, il-midja soċjali, li donnha wasslet biex tiġi ffiltrata l-informazzjoni u biex is-soċjetà tkompli tinqasam (eż. “filter bubbles” u aħbarijiet mhux ġenwini fuq Twitter u Facebook waqt l-elezzjoni fl-Istati Uniti).

3.38

Il-KESE huwa mħasseb ukoll dwar is-sinjali li s-sistemi tal-IA ser jintużaw biex jinfluwenzaw l-imġiba (relatata mal-votazzjoni) tal-persuni. Il-preferenzi u l-imġiba tal-persuni ser ikunu mbassra u influwenzati permezz ta’ algoritmi intelliġenti. Din hija theddida għad-demokrazija ġusta u miftuħa. Fl-era attwali tal-polarizzazzjoni u ż-żarmar ta’ istituzzjonijiet internazzjonali, il-preċiżjoni u l-qawwa ta’ teknoloġija ta’ propaganda bħal din malajr jistgħu joħolqu aktar tfixkil fis-soċjetà. Din hija waħda mir-raġunijiet għalfejn huma meħtieġa standards għat-trasparenza u r-responsabbiltà ta’ algoritmi (intelliġenti).

k)

Gwerra

3.39

Il-Konvenzjoni tan-Nazzjonijiet Uniti dwar Ċerti Armi Konvenzjonali ddeċidiet li fl-2017 tlaqqa’ esperti sabiex jiġu diskussi l-implikazzjonijiet tal-armi awtonomi. Il-KESE jilqa’ dan u jappoġġja s-sejħa mill-Human Rights Watch u oħrajn għal projbizzjoni fuq is-sistemi tal-armi awtonomi. Il-KESE huwa tal-fehma li projbizzjoni bħal din għandha tiġi analizzata u kkunsidrata bir-reqqa. Dan, madankollu, mhuwiex biżżejjed biex jiġu indirizzati b’mod adegwat il-possibbiltajiet tal-IA fi gwerer u sitwazzjonijiet ta’ kunflitt. L-użu tal-IA fi gwerra ċibernetika għandu wkoll ikun analizzat f’din il-konsultazzjoni tan-NU.

3.40

Barra minn hekk, għandu jiġi żgurat li l-IA ma taqax f’idejn persuni jew reġimi li għandhom l-għan li jużawha f’attivitajiet terroristiċi.

l)

Superintelligenza

3.41

Fl-aħħar nett tqum il-kwistjoni dwar il-possibbiltajiet u r-riskji assoċjati mal-iżvilupp tas-superintelliġenza. Skont Stephen Hawking, l-iżvilupp ta’ IA ġenerali tista’ tfisser it-tmiem tal-umanità. F’dak il-mument, l-IA ser tkompli tevolvi b’pass li l-persuni ma jkunux jistgħu jlaħħqu miegħu. B’riżultat ta’ dan, hemm esperti li jagħżlu l’hekk imsejħa ’kill-switch’ jew ir-’reset button’ , li nistgħu nużaw biex niddiżattivaw jew nerġgħu nixgħelu sistema tal-IA li titlef il-kontroll jew li tkun superintelliġenti.

3.42

Il-KESE jitlob approċċ ta’ human-in-command inkluża l-prekondizzjoni li l-iżvilupp u l-użu tal-IA jkunu responsabbli u siguri, fejn il-magni jibqgħu magni u l-persuni jkunu jistgħu jżommu l-kontroll fuq dawn il-magni l-ħin kollu. F’dan ir-rigward hija importanti d-diskussjoni dwar is-superintelliġenza, iżda qiegħda taħbi f’dan il-mument id-dibattitu dwar l-impatt tal-użijiet attwali tal-IA.

4.   L-IA għall-ġid tal-bniedem

4.1

Il-partijiet kummerċjali kbar issa nedew diversi inizjattivi għall-iżvilupp miftuħ, sigur u soċjalment responsabbli tal-IA (pereż. OpenAI). Madankollu, dawk li jfasslu l-politika ma jistgħux iħallu dan f’idejn l-intrapriżi u għandhom rwol x’jaqdu f’dan il-kuntest. Hemm bżonn ta’ miżuri mmirati u appoġġ għar-riċerka dwar l-isfidi soċjetali assoċjati mal-IA u għall-iżvilupp ta’ sistemi tal-IA siguri u b’saħħithom.

4.2

Il-programmi tal-UE, bħall-Orizzont 2020, huma ideali biex jindirizzaw din l-isfida. Il-KESE nnota li l-finanzjament, b’mod partikolari taħt il-pilastru “Sfidi Soċjetali” tal-Orizzont 2020 għadu lura meta mqabbel ma’ dak taż-żewġ pilastri l-oħra “Xjenza Eċċellenti” u “Tmexxija Industrijali” u qiegħed jonqos. Il-KESE jappella sabiex ir-riċerka dwar l-isfidi soċjetali ġenerali kif ukoll dwar l-użu soċjetali tal-IA tkun prominenti fi ħdan il-pilastru “Sfidi Soċjetali”.

4.3

Għandhom jiġu indirizzati wkoll l-effetti trasverali tal-IA. B’mod parallel mal-finanzjament għall-iżvilupp ta’ innovazzjonijiet tal-IA li huma ta’ tfixkil, għandu jkun hemm ukoll finanzjament għar-riċerka dwar l-impatt soċjetali ta’ dawn l-innovazzjonijiet u kif għandhom jiġu indirizzati.

4.4

Ir-riċerka u l-iżvilupp tal-IA li hija ta’ benefiċċju għall-umanità teħtieġ ukoll varjetà ta’ data ta’ taħriġ u ta’ testjar ta’ kwalità għolja u disponibbli b’mod miftuħ u ta’ ambjenti ta’ testjar f’sitwazzjonijiet reali. S’issa, l-infrastruttura tal-IA u ħafna data ta’ kwalità kienu biss disponibbli minn u għal għadd limitat ta’ operaturi privati u jeżistu ostakli sabiex l-IA tiġi ttestjata fl-ispazju pubbliku, u dan jipprevjeni milli l-IA tiġi użata f’oqsma oħra. L-iżvilupp ta’ data disponibbli b’mod pubbliku u ta’ kwalità għolja u infrastruttura Ewropea tal-IA huma kruċjali sabiex tinkiseb IA sigura, b’saħħitha u utli.

5.   Monitoraġġ u azzjoni

5.1

L-impatt soċjetali wiesa’ tal-IA għadu ma jistax jiġi vvalutat kompletament. Il-fatt li l-impatt ser ikun sinifikanti mhuwiex, madankollu, ikkontestat. L-iżviluppi fil-qasam tal-IA attwalment qegħdin iseħħu b’pass mgħaġġel, li jitlob monitoraġġ kritiku u globali, sabiex jiġu indirizzati b’mod adegwat u f’waqtu l-iżviluppi importanti u ta’ tfixkil, kemm tekniċi kif ukoll soċjetali, fl-IA u madwarha (“game-changers”).

5.2

Il-game-changers tekniċi jistgħu jinkludu qabżiet notevoli jew sinifkanti fl-iżvilupp tal-kapaċitajiet tal-IA, li jistgħu jkunu prekursuri sabiex tinkiseb IA ġenerali. Il-game-changers soċjali jistgħu jinkludu telf sinifikanti ta’ impjiegi mingħajr impjiegi biex jissostitwixxuhom, sitwazzjonijiet riskjużi, nuqqasijiet fis-sistema, żviluppi internazzjonali mhux mistennija, eċċ.

5.3

Dawk li jfasslu l-politika, l-industrija, l-imsieħba soċjali, il-konsumaturi, l-NGOs, l-istituzzjonijiet tal-edukazzjoni u l-kura, l-esperti u l-akkademiċi minn diversi dixxiplini (inklużi l-IA (applikata), is-sigurtà, l-etika, l-ekonomija, ix-xjenza tax-xogħol, il-liġi, ix-xjenza tal-imġiba, il-psikoloġija u l-filosofija) għandhom jaħdmu flimkien biex jissorveljaw mill-qrib l-iżviluppi relatati mal-IA u tiġi identifikata lista ta’ dan it-tibdil sinifikanti u tinżamm aġġornata, sabiex ikunu jistgħu jittieħdu l-miżuri adegwati fil-mument opportun, kemm jekk f’forma ta’ politika, liġi jew regolamenti, awtoregolazzjoni u djalogu soċjali.

5.4

Il-KESE, bħala rappreżentant tas-soċjetà ċivili organizzata Ewropea, ser isawwar, jiċċentralizza u jippromovi dan id-dibattitu b’diversi partijiet interessati dwar l-IA fil-perjodu li ġej.

Brussell, il-31 ta’ Mejju 2017.

Il-President tal-Kumitat Ekonomiku u Soċjali Ewropew

Georges DASSIS


(1)  ĠU C 13, 15.1.2016, p. 161.


Na vrh