This document is an excerpt from the EUR-Lex website
Document 52019AE1830
Opinion of the European Economic and Social Committee on ‘Communication from the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions — Building trust in human-centric artificial intelligence’ (COM(2019) 168 final)
Γνωμοδότηση της Ευρωπαϊκής Οικονομικής και Κοινωνικής Επιτροπής με θέμα «Ανακοίνωση της Επιτροπής προς το Ευρωπαϊκό Κοινοβούλιο, το Συμβούλιο, την Ευρωπαϊκή Οικονομική και Κοινωνική Επιτροπή και την Επιτροπή των Περιφερειών — Οικοδόμηση εμπιστοσύνης στην ανθρωποκεντρική τεχνητή νοημοσύνη» [COM(2019) 168 final]
Γνωμοδότηση της Ευρωπαϊκής Οικονομικής και Κοινωνικής Επιτροπής με θέμα «Ανακοίνωση της Επιτροπής προς το Ευρωπαϊκό Κοινοβούλιο, το Συμβούλιο, την Ευρωπαϊκή Οικονομική και Κοινωνική Επιτροπή και την Επιτροπή των Περιφερειών — Οικοδόμηση εμπιστοσύνης στην ανθρωποκεντρική τεχνητή νοημοσύνη» [COM(2019) 168 final]
EESC 2019/01830
ΕΕ C 47 της 11.2.2020, p. 64–68
(BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)
11.2.2020 |
EL |
Επίσημη Εφημερίδα της Ευρωπαϊκής Ένωσης |
C 47/64 |
Γνωμοδότηση της Ευρωπαϊκής Οικονομικής και Κοινωνικής Επιτροπής με θέμα «Ανακοίνωση της Επιτροπής προς το Ευρωπαϊκό Κοινοβούλιο, το Συμβούλιο, την Ευρωπαϊκή Οικονομική και Κοινωνική Επιτροπή και την Επιτροπή των Περιφερειών — Οικοδόμηση εμπιστοσύνης στην ανθρωποκεντρική τεχνητή νοημοσύνη»
[COM(2019) 168 final]
(2020/C 47/09)
Εισηγήτρια: η κ. Franca SALIS-MADINIER
Αίτηση γνωμοδότησης |
Ευρωπαϊκή Επιτροπή, 3.6.2019 |
Νομική βάση |
Άρθρο 304 της Συνθήκης για τη λειτουργία της Ευρωπαϊκής Ένωσης |
Αρμόδιο τμήμα |
Ενιαία αγορά, παραγωγή και κατανάλωση |
Υιοθετήθηκε από το τμήμα |
18.10.2019 |
Υιοθετήθηκε από την ολομέλεια |
30.10.2019 |
Σύνοδος ολομέλειας αριθ. |
547 |
Αποτέλεσμα της ψηφοφορίας (υπέρ/κατά/αποχές) |
198/1/4 |
1. Συμπεράσματα και συστάσεις
1.1. |
Η τεχνητή νοημοσύνη (ΤΝ) δεν αποτελεί αυτοσκοπό, αλλά εργαλείο που μπορεί να προκαλέσει θετικές ριζικές μεταβολές, αλλά και να ενέχει κινδύνους. Για τον λόγο αυτό είναι απαραίτητη η πλαισίωση της χρήσης της. |
1.2. |
Η Επιτροπή θα πρέπει να λάβει μέτρα σχετικά με την πρόβλεψη, την πρόληψη και την απαγόρευση της κακόβουλης χρήσης της τεχνητής νοημοσύνης και της εκμάθησης μηχανής, καθώς και να ρυθμίσει καλύτερα την εμπορία κακόβουλων προϊόντων. |
1.3. |
Ειδικότερα, η Ευρωπαϊκή Ένωση (ΕΕ) οφείλει να προωθήσει την ανάπτυξη συστημάτων τεχνητής νοημοσύνης προσανατολισμένων προς συγκεκριμένες εφαρμογές, με στόχο την επιτάχυνση της οικολογικής και της κλιματικής μετάβασης. |
1.4. |
Πρέπει να προσδιοριστεί ποιες είναι οι προκλήσεις που μπορούν να αντιμετωπιστούν με δεοντολογικούς κώδικες, αυτορρύθμιση και οικειοθελείς δεσμεύσεις, και ποιες θα πρέπει να αντιμετωπιστούν με κανονιστικά και νομοθετικά μέσα, σε συνδυασμό με παρακολούθηση και, σε περίπτωση παραβάσεων, με κυρώσεις. Σε κάθε περίπτωση, τα συστήματα τεχνητής νοημοσύνης πρέπει να συμμορφώνονται με την ισχύουσα νομοθεσία. |
1.5. |
Η τεχνητή νοημοσύνη απαιτεί μια προσέγγιση που θα περιλαμβάνει τις τεχνικές πτυχές, αλλά και τις κοινωνιακές και δεοντολογικές πτυχές. Η Ευρωπαϊκή Οικονομική και Κοινωνική Επιτροπή (ΕΟΚΕ) επικροτεί τη βούληση της Ευρωπαϊκής Ένωσης (ΕΕ) να οικοδομήσει μια ανθρωποκεντρική προσέγγιση της τεχνητής νοημοσύνης, η οποία να συνάδει με τις αξίες επί των οποίων εδράζεται η ΕΕ: σεβασμός της ανθρώπινης αξιοπρέπειας, ελευθερία, δημοκρατία, ισότητα και απαγόρευση των διακρίσεων, κράτος δικαίου, σεβασμός των ανθρωπίνων δικαιωμάτων. |
1.6. |
Η ΕΟΚΕ επιβεβαιώνει εκ νέου (1) την ανάγκη διαβούλευσης και ενημέρωσης των εργαζομένων και των εκπροσώπων τους κατά την εισαγωγή συστημάτων τεχνητής νοημοσύνης που ενδέχεται να οδηγήσουν σε αλλαγές στην οργάνωση της εργασίας, τον έλεγχο και την παρακολούθησή της, καθώς και στα συστήματα αξιολόγησης και πρόσληψης των εργαζομένων. Η Επιτροπή οφείλει να προωθήσει τον κοινωνικό διάλογο με στόχο τη συμμετοχή των εργαζομένων στις χρήσεις των συστημάτων τεχνητής νοημοσύνης. |
1.7. |
Η ΕΟΚΕ τονίζει (2) ότι η αξιόπιστη τεχνητή νοημοσύνη προϋποθέτει έλεγχο του ανθρώπου επί της μηχανής και ενημέρωση των πολιτών σχετικά με τις χρήσεις της τεχνητής νοημοσύνης. Τα συστήματα τεχνητής νοημοσύνης πρέπει να μπορούν να εξηγηθούν ή, όπου αυτό δεν είναι δυνατό, πρέπει να παρέχονται πληροφορίες στους πολίτες και τους καταναλωτές σχετικά με τους περιορισμούς και τους κινδύνους που ενέχουν. |
1.8. |
Η ΕΕ πρέπει να αντιμετωπίσει τους «αναδυόμενους κινδύνους» (3) ως προς την υγεία και την ασφάλεια στην εργασία. Πρέπει να θεσπιστούν κανόνες ώστε τα αυτόνομα συστήματα να μην ζημιώνουν τους ανθρώπους ούτε να τους προξενούν βλάβες. Οι εργαζόμενοι πρέπει να εκπαιδεύονται στην εργασία με τη μηχανή και στη διακοπή της λειτουργίας της σε περίπτωση έκτακτης ανάγκης. |
1.9. |
Η ΕΟΚΕ υποστηρίζει την ανάπτυξη ενός εύρωστου συστήματος πιστοποίησης που θα βασίζεται σε διαδικασίες ελέγχου, οι οποίες θα επιτρέπουν στις επιχειρήσεις να επιβεβαιώνουν την αξιοπιστία και την ασφάλεια των συστημάτων τεχνητής νοημοσύνης που διαθέτουν. Η διαφάνεια, η ιχνηλασιμότητα και η δυνατότητα εξήγησης των διαδικασιών αλγοριθμικής λήψης αποφάσεων παραμένει μια τεχνική πρόκληση, η οποία απαιτεί στήριξη με μέσα της ΕΕ, όπως το πρόγραμμα «Ορίζων Ευρώπη». |
1.10. |
Από τον σεβασμό της ιδιωτικότητας και της προστασίας των δεδομένων θα εξαρτηθεί ο βαθμός εμπιστοσύνης των πολιτών και των καταναλωτών απέναντι στην τεχνητή νοημοσύνη. Η ιδιοκτησία των δεδομένων, ο έλεγχός τους και η χρήση τους από τις επιχειρήσεις και τις οργανώσεις εξακολουθούν να αποτελούν ανεπίλυτα σε μεγάλο βαθμό ζητήματα (ειδικά με το διαδίκτυο των πραγμάτων). Η ΕΟΚΕ προτρέπει την Επιτροπή να αναθεωρεί τακτικά τον γενικό κανονισμό για την προστασία των δεδομένων (ΓΚΠΔ) (4) και τους συναφείς κανονισμούς, υπό το πρίσμα των τεχνολογικών εξελίξεων. |
1.11. |
Η ΕΟΚΕ πιστεύει ότι είναι ουσιαστικής σημασίας να εξεταστεί η δυνάμει συμβολή των συστημάτων τεχνητής νοημοσύνης στη μείωση των εκπομπών αερίων του θερμοκηπίου, ιδίως στους τομείς της βιομηχανίας, των μεταφορών, της ενέργειας, της οικοδομής και της γεωργίας. Υποστηρίζει την αλληλοσύνδεση της κλιματικής με την ψηφιακή μετάβαση. |
1.12. |
Η ΕΟΚΕ εκτιμά ότι ο έλεγχος των συστημάτων τεχνητής νοημοσύνης ενδέχεται να μην επαρκεί για τον καθορισμό των ευθυνών και την οικοδόμηση εμπιστοσύνης. Η ΕΟΚΕ συνιστά να δοθεί προτεραιότητα στη θέσπιση σαφών κανόνων που θα αποδίδουν την ευθύνη, σε περίπτωση μη συμμόρφωσης, στις νομικές προσωπικότητες: φυσικά ή νομικά πρόσωπα. Η ΕΟΚΕ καλεί επίσης την Επιτροπή να εξετάσει κατά προτεραιότητα το θεμελιώδες ζήτημα της δυνατότητας ασφάλισης των συστημάτων τεχνητής νοημοσύνης. |
1.13. |
Η ΕΟΚΕ προτείνει την ανάπτυξη «ευρωπαϊκού πιστοποιητικού αξιόπιστης επιχείρησης τεχνητής νοημοσύνης» για τις επιχειρήσεις που τηρούν τους κανόνες, το οποίο θα στηρίζεται, μεταξύ άλλων, στον κατάλογο αξιολόγησης που εκπόνησε η ομάδα εμπειρογνωμόνων υψηλού επιπέδου για την τεχνητή νοημοσύνη. |
1.14. |
Η ΕΕ οφείλει να επιδιώξει την εξάπλωση της ρύθμισης της τεχνητής νοημοσύνης πέραν των ευρωπαϊκών συνόρων, προωθώντας σχετικές εργασίες στους κόλπους της G7 και της G20 και στους διμερείς διαλόγους. Αυτό που πρέπει να οικοδομηθεί, είναι μια διεθνής συμφωνία για την αξιόπιστη τεχνητή νοημοσύνη, χάρη στην οποία θα μπορούν να αναπτυχθούν διεθνή πρότυπα και να εξακριβώνεται τακτικά κατά πόσον είναι εύστοχα. |
2. Κύρια σημεία της πρότασης της Ευρωπαϊκής Επιτροπής
2.1. |
Η υπό εξέταση ανακοίνωση βασίζεται στις εργασίες της ομάδας εμπειρογνωμόνων υψηλού επιπέδου για την τεχνητή νοημοσύνη που διόρισε η Επιτροπή τον Ιούνιο του 2018. Στην ανακοίνωση, η Επιτροπή ορίζει επτά βασικές απαιτήσεις για μια αξιόπιστη τεχνητή νοημοσύνη, που καταγράφονται στο σημείο 4. |
2.2. |
Η Επιτροπή δρομολόγησε ήδη μια πιλοτική φάση με τη συμμετοχή ευρέος φάσματος ενδιαφερομένων μερών. Η διαδικασία αυτή επικεντρώνεται ιδίως στον κατάλογο αξιολόγησης που κατήρτισε η προαναφερθείσα ομάδα εμπειρογνωμόνων για καθεμία από τις βασικές απαιτήσεις. Στις αρχές του 2020, η ομάδα εμπειρογνωμόνων θα επανεξετάσει και θα ενημερώσει τον κατάλογο αξιολόγησης και η Επιτροπή θα προτείνει, ενδεχομένως, νέα μέτρα. |
2.3. |
Η Επιτροπή επιθυμεί να προβάλει την προσέγγισή της για την τεχνητή νοημοσύνη στη διεθνή σκηνή και θα εξακολουθήσει να αναλαμβάνει ενεργό ρόλο, στους κόλπους της G7 και της G8 μεταξύ άλλων. |
3. Γενικές παρατηρήσεις
3.1. |
Η ανθρωποκεντρική τεχνητή νοημοσύνη απαιτεί μια προσέγγιση που θα περιλαμβάνει τις τεχνικές πτυχές, αλλά και τις κοινωνιακές και δεοντολογικές πτυχές. Η ΕΟΚΕ επικροτεί τη βούληση που εξέφρασαν τα θεσμικά όργανα της ΕΕ να οικοδομήσουν μια προσέγγιση της τεχνητής νοημοσύνης η οποία θα συνάδει με τις αξίες επί των οποίων εδράζεται η Ένωση: σεβασμός της ανθρώπινης αξιοπρέπειας, ελευθερία, δημοκρατία, ισότητα και απαγόρευση των διακρίσεων, κράτος δικαίου, σεβασμός των ανθρωπίνων δικαιωμάτων. Όπως επισημαίνει η Επιτροπή (5), η τεχνητή νοημοσύνη δεν αποτελεί αυτοσκοπό, αλλά εργαλείο που μπορεί να επιφέρει θετικές ριζικές μεταβολές. Όπως κάθε εργαλείο, δημιουργεί ταυτόχρονα ευκαιρίες και κινδύνους. Επομένως, η ΕΕ οφείλει να πλαισιώσει τη χρήση της και να καθορίσει σαφώς τις ευθύνες της. |
3.2. |
Η εμπιστοσύνη προς την ανθρωποκεντρική τεχνική νοημοσύνη θα προκύψει από την επιβεβαίωση των αξιών και των αρχών, από ένα σαφώς θεσπισμένο κανονιστικό πλαίσιο και από δεοντολογικές κατευθυντήριες γραμμές που θα περιλαμβάνουν βασικές απαιτήσεις. |
3.3. |
Μεταξύ των πολλών προκλήσεων που θέτει η τεχνητή νοημοσύνη, θα πρέπει να προσδιοριστεί, σε συνεννόηση με όλους τους ενδιαφερομένους, ποιες είναι αυτές που θα πρέπει να αντιμετωπιστούν με κανονιστικά και νομοθετικά μέσα —τα οποία θα συμπληρώνονται με ρυθμιστικούς μηχανισμούς παρακολούθησης και, σε περίπτωση μη συμμόρφωσης, με κυρώσεις— και ποιες είναι αυτές που μπορούν να αντιμετωπιστούν μέσω κωδίκων δεοντολογίας, αυτορρύθμισης και οικειοθελών δεσμεύσεων. Η ΕΟΚΕ εκφράζει την ικανοποίησή της για το γεγονός ότι η Επιτροπή υιοθέτησε μερικές από τις αρχές τις οποίες είχε αρχικά προσεγγίσει η ΕΟΚΕ, εκφράζει όμως τη λύπη της για το γεγονός ότι, στο στάδιο αυτό, δεν προτείνει συγκεκριμένα μέτρα για την αντιμετώπιση των θεμιτών ανησυχιών όσον αφορά τα δικαιώματα των καταναλωτών, την ασφάλεια των συστημάτων και την ευθύνη. |
3.4. |
Τα συστήματα τεχνητής νοημοσύνης πρέπει να συμμορφώνονται με το ισχύον ρυθμιστικό πλαίσιο, ιδίως όσον αφορά την προστασία των προσωπικών δεδομένων, την ευθύνη για τα προϊόντα, την προστασία των καταναλωτών, την απαγόρευση των διακρίσεων, τα επαγγελματικά προσόντα και, στους χώρους εργασίας, την ενημέρωση και διαβούλευση με τους εργαζομένους. Θα πρέπει να εξασφαλιστεί ότι η νομοθεσία στους συγκεκριμένους τομείς ανταποκρίνεται στις νέες προκλήσεις της ψηφιοποίησης και της τεχνητής νοημοσύνης. |
3.5. |
Όπως σημειώνει η Επιτροπή, «θα πρέπει να θεσπιστούν διαδικασίες για την αποσαφήνιση και την αξιολόγηση των δυνητικών κινδύνων που σχετίζονται με τη χρήση συστημάτων ΤΝ σε διάφορους τομείς εφαρμογής» (6). Η ΕΟΚΕ αποδίδει ύψιστη σημασία στις μελλοντικές διατυπώσεις αυτής της αξιολόγησης, καθώς και στη δημιουργία δεικτών που θα μπορούσαν να λαμβάνονται υπόψη για τη διεξαγωγή της. Το σχέδιο καταλόγου αξιολόγησης που καταρτίστηκε από την ομάδα υψηλού επιπέδου αποτελεί σημείο εκκίνησης για την εφαρμογή τέτοιου είδους διαδικασιών. |
3.6. |
Αυτό ισχύει και για το ζήτημα της δίκαιης κατανομής της αναμενόμενης προστιθέμενης αξίας των συστημάτων τεχνητής νοημοσύνης. Η ΕΟΚΕ θεωρεί ότι οι θετικές μεταβολές που αποφέρει η τεχνητή νοημοσύνη από την άποψη της οικονομικής ανάπτυξης, της βιωσιμότητας των διαδικασιών παραγωγής και κατανάλωσης (ιδίως της ενέργειας), και της βελτίωσης της χρήσης των πόρων θα πρέπει να αποβαίνουν εις όφελος όλων των χωρών και, εντός αυτών, όλων των πολιτών. |
4. Ειδικές παρατηρήσεις
4.1. Ανθρώπινη παρέμβαση και εποπτεία
4.1.1. |
Η Επιτροπή θέλει να βεβαιωθεί ότι η χρήση των συστημάτων τεχνητής νοημοσύνης δεν θα μπορεί σε καμία περίπτωση να υπονομεύει την αυτονομία του ανθρώπου ή να προκαλεί δυσμενείς επιπτώσεις. Η ΕΟΚΕ συμμερίζεται την προσέγγιση αυτή του ελέγχου του ανθρώπου επί της μηχανής, όπως το έχει ήδη δηλώσει σε προηγούμενες γνωμοδοτήσεις της. |
4.1.2. |
Αυτό προϋποθέτει επίσης οι πολίτες να είναι επαρκώς ενημερωμένοι για τις χρήσεις των συστημάτων αυτών, τα δε συστήματα να μπορούν να εξηγηθούν ή, όπου αυτό δεν είναι δυνατό (π.χ. στην περίπτωση της «βαθιάς μάθησης»), να παρέχονται πληροφορίες στους χρήστες σχετικά με τους περιορισμούς και τους κινδύνους του συστήματος. Σε κάθε περίπτωση, οι πολίτες πρέπει να μπορούν να διατηρούν την ελευθερία να λαμβάνουν διαφορετική απόφαση από το σύστημα τεχνητής νοημοσύνης. |
4.1.3. |
Στις επιχειρήσεις και τις δημόσιες υπηρεσίες, οι εργαζόμενοι και οι εκπρόσωποί τους πρέπει να ενημερώνονται δεόντως και να ζητείται η γνώμη τους κατά την εισαγωγή συστημάτων τεχνητής νοημοσύνης που ενδέχεται να αλλάξουν την οργάνωση της εργασίας και να τους αφορούν από άποψη ελέγχου, εποπτείας, αξιολόγησης και προσλήψεων. Η Επιτροπή οφείλει να προωθήσει κοινωνικό διάλογο με στόχο τη συμμετοχή των εργαζομένων στις χρήσεις των συστημάτων τεχνητής νοημοσύνης. |
4.1.4. |
Όσον αφορά το ανθρώπινο δυναμικό, θα πρέπει να δοθεί ιδιαίτερη προσοχή στους κινδύνους καταχρηστικής χρήσης των συστημάτων τεχνητής νοημοσύνης, όπως π.χ. απεριόριστη επιτήρηση, συλλογή προσωπικών δεδομένων, δεδομένων για την υγεία, ανταλλαγή των εν λόγω δεδομένων με τρίτους, καθώς και στους αναδυόμενους κινδύνους από την άποψη της υγείας και ασφάλειας στους χώρους εργασίας (7). Πρέπει να θεσπιστούν σαφείς κανόνες ώστε η συνεργασία ανθρώπου-μηχανής να μην προκαλεί βλάβες στους ανθρώπους. Το πρότυπο που δημιουργήθηκε από τον Διεθνή Οργανισμό Τυποποίησης (ISO) για τα συνεργατικά ρομπότ (8), το οποίο απευθύνεται σε κατασκευαστές, επιχειρήσεις ολοκλήρωσης συστημάτων και χρήστες, παρέχει κατευθυντήριες γραμμές για τον σχεδιασμό και την οργάνωση του χώρου εργασίας και τη μείωση των κινδύνων στους οποίους μπορεί να εκτίθενται τα άτομα. Οι εργαζόμενοι πρέπει να εκπαιδεύονται στη χρήση της τεχνητής νοημοσύνης και της ρομποτικής, στη συνεργασία μαζί τους και, ιδίως, στην ικανότητα να διακόπτουν τη λειτουργία τους σε περίπτωση έκτακτης ανάγκης (αρχή της διακοπής έκτακτης ανάγκης). |
4.2. Τεχνική αρτιότητα και ασφάλεια
4.2.1. |
Η ΕΟΚΕ υποστηρίζει τη θέσπιση ευρωπαϊκών προτύπων ασφαλείας και την ανάπτυξη ενός εύρωστου συστήματος πιστοποίησης, που θα βασίζεται σε διαδικασίες ελέγχου, οι οποίες θα επιτρέπουν στις επιχειρήσεις να επιβεβαιώνουν την αξιοπιστία των συστημάτων τους τεχνητής νοημοσύνης. Η ΕΟΚΕ επιθυμεί επίσης να τονίσει τη σημασία της δυνατότητας ασφάλισης των συστημάτων τεχνητής νοημοσύνης. |
4.2.2. |
Η Επιτροπή δεν εξετάζει εκτενώς την πτυχή της πρόβλεψης, της πρόληψης και της απαγόρευσης της κακόβουλης χρήσης της τεχνητής νοημοσύνης και της εκμάθησης μηχανής, για την οποία προειδοποιούν πολλοί ερευνητές (9). Θα πρέπει να ληφθούν υπόψη οι συστάσεις τους, ιδίως όσες αφορούν τη διπλή χρήση των εν λόγω τεχνολογιών, η οποία μπορεί να σχετίζεται με την ψηφιακή ασφάλεια (εξάπλωση των επιθέσεων στον κυβερνοχώρο, εκμετάλλευση των τρωτών σημείων του ανθρώπου και της τεχνητής νοημοσύνης, «data poisoning»), με τη φυσική ασφάλεια (πειρατεία των αυτόνομων συστημάτων, συμπεριλαμβανομένων των αυτόνομων οχημάτων, των μη επανδρωμένων αεροσκαφών και των αυτόματων όπλων) ή με την πολιτική ασφάλεια (μαζική συλλογή προσωπικών δεδομένων, στοχοθετημένη προπαγάνδα, χειραγώγηση μέσω βίντεο κ.λπ.). Ερευνητές, μηχανικοί και δημόσιες αρχές πρέπει να συνεργάζονται στενά για την πρόληψη αυτών των κινδύνων, ενώ εμπειρογνώμονες και άλλοι ενδιαφερόμενοι, όπως οι χρήστες και οι καταναλωτές, πρέπει να κληθούν να συμμετάσχουν στις συζητήσεις σχετικά με τις προκλήσεις αυτές. |
4.3. Διακυβέρνηση της ιδιωτικής ζωής και των δεδομένων
4.3.1. |
Η Επιτροπή υποστηρίζει ότι η πρόσβαση στα δεδομένα πρέπει να «υπόκειται σε κατάλληλη διακυβέρνηση και έλεγχο» (10). Η ΕΟΚΕ πιστεύει ότι πρέπει να προχωρήσουμε πέρα από γενικόλογες δηλώσεις. Η εμπιστοσύνη του πολίτη στα συστήματα τεχνητής νοημοσύνης θα καθορίσει και την ανάπτυξή της. Τα ζητήματα της ιδιοκτησίας των δεδομένων, του ελέγχου τους και της χρήσης τους από τις επιχειρήσεις και τις οργανώσεις εξακολουθούν να είναι σε μεγάλο βαθμό ανεπίλυτα. Για παράδειγμα, ο όγκος των δεδομένων που μεταδίδουν τα αυτοκίνητα στους κατασκευαστές τους, αλλά και το είδος των δεδομένων που μεταδίδονται, σίγουρα αποτελούν πρόκληση (11). Παρά την έννοια της «προστασίας της ιδιωτικής ζωής εκ κατασκευής», με την οποία πρέπει να συμμορφώνονται τα συνδεδεμένα αντικείμενα σύμφωνα με τον ΓΚΠΔ, διαπιστώνεται ότι ο καταναλωτής κατέχει πολύ λίγες, ή και καθόλου, πληροφορίες σχετικά με το θέμα αυτό, και δεν διαθέτει κανένα μέσο ελέγχου επί των δεδομένων. Ως εκ τούτου, η ΕΟΚΕ καλεί την Επιτροπή να αναθεωρεί τον ΓΚΠΔ και τους συναφείς κανονισμούς υπό το πρίσμα των τεχνολογικών εξελίξεων (12). |
4.4. Διαφάνεια
4.4.1. |
Η ΕΟΚΕ θεωρεί ότι η δυνατότητα εξήγησης των διαδικασιών αλγοριθμικής λήψης αποφάσεων είναι ουσιαστικής σημασίας για την κατανόηση, όχι των καθαυτό μηχανισμών, αλλά της λογικής που διέπει τις διαδικασίες λήψης αποφάσεων, καθώς και του τρόπου με τον οποίο αυτές επηρεάζονται από τα συστήματα τεχνητής νοημοσύνης. Η ανάπτυξη τυποποιημένων διαδικασιών ελέγχου για τα συστήματα εκμάθησης μηχανής παραμένει μια τεχνική πρόκληση που θα πρέπει να υποστηριχθεί με μέσα της ΕΕ, όπως το πρόγραμμα «Ορίζων Ευρώπη». |
4.4.2. |
Η ΕΟΚΕ συμμερίζεται την προσέγγιση της Επιτροπής σύμφωνα με την οποία τα συστήματα τεχνητής νοημοσύνης θα πρέπει να μπορούν να ταυτοποιούνται ως τέτοια «έτσι ώστε να διασφαλίζεται ότι οι χρήστες αλληλεπιδρούν εν γνώσει τους με σύστημα ΤΝ» (13), μεταξύ άλλων στο πλαίσιο της σχέσης μεταξύ ασθενών και επαγγελματιών της υγείας και των επαγγελματικών υπηρεσιών που συνδέονται με την υγεία και την ευημερία των πολιτών. Η ΕΟΚΕ τονίζει επίσης ότι ο χρήστης ή ο καταναλωτής πρέπει να μπορεί να ενημερώνεται και για τις υπηρεσίες που εκτελούνται από ανθρώπους. Πολλά συστήματα τεχνητής νοημοσύνης απαιτούν στην πραγματικότητα μεγάλο όγκο ανθρώπινης εργασίας, που συχνά δεν είναι εμφανής στους τελικούς χρήστες (14). Το ζήτημα αυτό υποκρύπτει ένα διπλό διακύβευμα: την έλλειψη διαφάνειας για τους χρήστες και τους καταναλωτές των υπηρεσιών, αλλά και μια μορφή χρησιμοποίησης μιας κρυφής και μη αναγνωριζόμενης εργασίας. |
4.4.3. |
Επιπλέον, η ΕΟΚΕ θεωρεί ότι ο καταναλωτής πρέπει πάντοτε να ενημερώνεται για την ενσωμάτωση συστημάτων τεχνητής νοημοσύνης στα προϊόντα που αγοράζει και πρέπει πάντοτε να μπορεί να έχει πρόσβαση στα δεδομένα του και να τα ελέγχει. |
4.5. Διαφορετικότητα, απαγόρευση των διακρίσεων και δικαιοσύνη
4.5.1. |
Ορισμένες εφαρμογές τεχνητής νοημοσύνης που επιτρέπουν την κατάρτιση προφίλ των πολιτών, χρηστών και καταναλωτών (π.χ. για τις προσλήψεις, για τη μίσθωση ακινήτων, για κάποιες προσωπικές υπηρεσίες κ.λπ.) εμφανίζουν κινδύνους διακρίσεων. Η ΕΕ διαθέτει ένα σύνολο νομοθετικών πράξεων για την ίση μεταχείριση και την απαγόρευση των διακρίσεων (15). Τα συστήματα τεχνητής νοημοσύνης πρέπει να συμμορφώνονται με την εν λόγω νομοθεσία. Όμως, η νομοθεσία πρέπει και αυτή να προσαρμόζεται και, ενδεχομένως να ενισχύεται (μεταξύ άλλων σε επίπεδο ελέγχου της τήρησής της) ώστε να ανταποκρίνεται στις νέες πρακτικές. Η αλγοριθμική ανάλυση προφίλ θα μπορούσε να καταστεί ισχυρό εργαλείο διακρίσεων – και αυτό συνιστά υπαρκτό κίνδυνο. Η ΕΕ οφείλει να προλάβει τον κίνδυνο αυτόν. |
4.5.2. |
Η οδηγία για την καταπολέμηση του ρατσισμού (16) και η οδηγία για την ίση μεταχείριση των φύλων εκτός του κόσμου της εργασίας (17) προβλέπουν τη συγκρότηση ειδικών οργανισμών, αρμόδιων για την προώθηση της ισότητας μεταξύ των φύλων. Η ΕΟΚΕ ζητεί οι οργανισμοί αυτοί να διαδραματίζουν ενεργό ρόλο στην παρακολούθηση και τον έλεγχο των συστημάτων τεχνητής νοημοσύνης σε σχέση με τον κίνδυνο άμεσων ή έμμεσων διακρίσεων. |
4.6. Κοινωνιακή και περιβαλλοντική ευημερία
4.6.1. |
Η Επιτροπή δεν προτείνει συγκεκριμένες κατευθύνσεις σχετικά με τον τρόπο διασύνδεσης της κλιματικής με την ψηφιακή μετάβαση, ιδίως κατά τη χρήση των συστημάτων τεχνητής νοημοσύνης. Έχει ουσιαστική σημασία να εξεταστεί η δυνάμει συμβολή των συστημάτων τεχνητής νοημοσύνης στη μείωση των εκπομπών αερίων του θερμοκηπίου, ιδίως στους τομείς της βιομηχανίας, των μεταφορών, της ενέργειας, της οικοδομής και της γεωργίας. |
4.6.2. |
Η Επιτροπή δηλώνει ότι τα συστήματα τεχνητής νοημοσύνης μπορούν να χρησιμοποιηθούν για την ενίσχυση των κοινωνικών δεξιοτήτων, αλλά και ότι υπάρχει κίνδυνος να συμβάλουν στην υποβάθμισή τους. Η ΕΟΚΕ πιστεύει ότι η ΕΕ πρέπει να σταθμίσει περισσότερο ορισμένες κοινωνιακές προκλήσεις. Για παράδειγμα, υπάρχουν έρευνες που έχουν δείξει ότι ορισμένες εφαρμογές που περιλαμβάνουν συστήματα τεχνητής νοημοσύνης έχουν σχεδιαστεί έτσι ώστε να διατηρούν συνδεδεμένους όσο το δυνατόν περισσότερο χρόνο τους χρήστες υπηρεσιών σε απευθείας σύνδεση (κοινωνικά δίκτυα, παιχνίδια, βίντεο κ.λπ.). Ο στόχος είναι η συγκέντρωση όσο το δυνατόν περισσότερων στοιχείων σχετικά με τη συμπεριφορά τους, και οι χρησιμοποιούμενες στρατηγικές εκτείνονται από την αέναη ανανέωση αλγοριθμικών συστάσεων ως τις υπενθυμίσεις και ειδοποιήσεις, συμπεριλαμβάνοντας παιχνίδια κ.λπ. Οι επιπτώσεις στα παιδιά από τον υπερβολικό χρόνο σύνδεσης και τα συνεχή ερεθίσματα έχουν αποτελέσει αντικείμενο μελέτης (18), τα δε αποτελέσματα κατέδειξαν αύξηση του άγχους, της επιθετικότητας, στέρηση ύπνου και αντίκτυπο στην εκπαίδευση, τις κοινωνικές σχέσεις, την υγεία και την ευεξία. Για την οικοδόμηση αξιόπιστης τεχνητής νοημοσύνης, η ΕΕ πρέπει να λαμβάνει υπόψη τις συνέπειες αυτές και να τις προλαμβάνει. |
4.6.3. |
Τέλος, ένας από τους παράγοντες κοινωνιακής ευεξίας συνδέεται με την αίσθηση ασφάλειας στην εργασία. Τα αποτελέσματα όμως της ψηφιοποίησης ενδέχεται να δημιουργούν ανασφάλεια και άγχος (19). Ως εκ τούτου, είναι σκόπιμο να προβλεφθούν στρατηγικές για την πρόληψη των αλλαγών, πριν από τυχόν αναδιαρθρώσεις, και τη συνεχή επιμόρφωση όλων των εργαζομένων. Αυτό απαιτεί κοινωνικό διάλογο ποιότητας εντός των επιχειρήσεων μεταξύ εργοδοτών και εργαζομένων, ώστε να είναι δυνατή η χωρίς αποκλεισμούς ανάπτυξη των νέων τεχνολογιών, ιδίως δε της τεχνητής νοημοσύνης και της ρομποτικής. Για την ενίσχυση της εμπιστοσύνης μεταξύ διοίκησης και εργαζομένων, τα συστήματα τεχνητής νοημοσύνης που σχετίζονται με τη διαχείριση, τις αξιολογήσεις και τον έλεγχο των εργαζομένων πρέπει να μπορούν να εξηγηθούν, οι παράμετροί τους να είναι γνωστές και η λειτουργία τους διαφανής. |
4.7. Λογοδοσία
4.7.1. |
Οι αποφάσεις που λαμβάνονται από τα συστήματα εκμάθησης μηχανής δεν έχουν απλές εξηγήσεις και επιπλέον ανανεώνονται τακτικά. Η ΕΟΚΕ εκτιμά ότι ο έλεγχος των συστημάτων τεχνητής νοημοσύνης ενδέχεται να μην επαρκεί για τον καθορισμό των ευθυνών και την οικοδόμηση εμπιστοσύνης. Για αυτό, η ΕΟΚΕ συνιστά να θεσπιστούν σαφείς κανόνες που θα αποδίδουν την ευθύνη, σε περίπτωση μη συμμόρφωσης, στις νομικές προσωπικότητες: φυσικά ή νομικά πρόσωπα. Η ΕΟΚΕ συνιστά να δίνεται μεγαλύτερη βαρύτητα σε αξιόπιστες επιχειρήσεις ή επαγγελματίες παρά σε αλγορίθμους, προτείνει δε την ανάπτυξη «ευρωπαϊκού πιστοποιητικού αξιόπιστης επιχείρησης τεχνητής νοημοσύνης», για τις επιχειρήσεις που τηρούν όλους τους κανόνες, το οποίο θα στηρίζεται, μεταξύ άλλων, στον κατάλογο αξιολόγησης που εκπόνησε η προαναφερθείσα ομάδα εμπειρογνωμόνων υψηλού επιπέδου. |
4.7.2. |
Η οδηγία για την ευθύνη των προϊόντων (20) καθιερώνει την αρχή της ευθύνης άνευ πταίσματος που ισχύει για τους Ευρωπαίους παραγωγούς: εάν ένα προϊόν που παρουσιάζει ελάττωμα προκαλέσει ζημία στον καταναλωτή, μπορεί να προκύψει ευθύνη του παραγωγού ακόμη και χωρίς πταίσμα ή αμέλεια εκ μέρους του. Ο σχεδιασμός, η ανάπτυξη και η όλο και πιο διαδεδομένη χρήση συστημάτων τεχνητής νοημοσύνης απαιτούν την υιοθέτηση από την ΕΕ προσαρμοσμένων κανόνων ευθύνης για τις περιπτώσεις κατά τις οποίες προϊόντα ψηφιακού περιεχομένου και υπηρεσίες προς τους καταναλωτές μπορεί να αποδειχθούν επικίνδυνα και επιβλαβή. Οι καταναλωτές πρέπει να έχουν τη δυνατότητα πρόσβασης στη δικαιοσύνη σε περίπτωση πρόκλησης ζημίας από σύστημα τεχνητής νοημοσύνης. |
5. Ανάγκη ρύθμισης πέρα από την Ευρώπη
5.1. |
Σε έναν παγκοσμιοποιημένο κόσμο, η ρύθμιση της τεχνητής νοημοσύνης πρέπει να υπερβαίνει τα ευρωπαϊκά σύνορα. Η Ευρώπη θα πρέπει να προωθήσει μια ευρεία συμφωνία για την τεχνητή νοημοσύνη στους κόλπους της G7 και της G20, και να συνεχίσει τους διμερείς διαλόγους, ώστε να μπορεί ένα μεγάλο μέρος των χωρών να συμμετέχει στις διαδικασίες τυποποίησης της τεχνητής νοημοσύνης και να ελέγχει τακτικά κατά πόσον είναι εύστοχες. |
Βρυξέλλες, 30 Οκτωβρίου 2019.
Ο Πρόεδρος
της Ευρωπαϊκής Οικονομικής και Κοινωνικής Επιτροπής
Luca JAHIER
(1) ΕΕ C 440 της 6.12.2018, σ. 1.
(2) ΕΕ C 288 της 31.8.2017, σ. 1· ΕΕ C 440 της 6.12.2018, σ. 1.
(3) https://osha.europa.eu/el/emerging-risks.
(4) Κανονισμός (ΕΕ) 2016/679 του Ευρωπαϊκού Κοινοβουλίου και του Συμβουλίου, της 27ης Απριλίου 2016, για την προστασία των φυσικών προσώπων έναντι της επεξεργασίας των δεδομένων προσωπικού χαρακτήρα και για την ελεύθερη κυκλοφορία των δεδομένων αυτών και την κατάργηση της οδηγίας 95/46/ΕΚ (Γενικός Κανονισμός για την Προστασία Δεδομένων) (ΕΕ L 119 της 4.5.2016, σ. 1).
(5) COM(2019) 168 final.
(6) COM(2019) 168 final, σ. 6.
(7) Βλέπε ιδίως OSH and the future of work: benefits and risks of artificial intelligence tools in workplaces (Η υγεία και ασφάλεια στην εργασία και το μέλλον της εργασίας: πλεονεκτήματα και κίνδυνοι των εργαλείων τεχνητής νοημοσύνης στους χώρους εργασίας).
(8) ISO/TS 15066, 2016.
(9) Βλέπε την έκθεση The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation (Κακόβουλη χρήση της τεχνητής νοημοσύνης: πρόβλεψη, πρόληψη και μετριασμός), Φεβρουάριος 2018.
(10) COM(2019) 168 final, σ. 6-7.
(11) «Your car knows when you gain weight», The New York Times (International Edition), 22.5.2019.
(12) ΕΕ C 190 της 5.6.2019, σ. 17.
(13) COM(2019) 168 final, σ. 7.
(14) Βλέπε για παράδειγμα: «A white-collar sweatshop: Google Assistant contractors allege wage theft», The Guardian, 29.5.2019 και «Bot technology impressive, except when it’s not the bot», The New York Times (International Edition), 24.5.2019.
(15) ΕΕ L 180 της 19.7.2000, σ. 22· ΕΕ L 303 της 2.12.2000, σ. 16· ΕΕ L 373 της 21.12.2004, σ. 37· ΕΕ L 204 της 26.7.2006, σ. 23.
(16) Οδηγία 2000/43/ΕΚ του Συμβουλίου, της 29ης Ιουνίου 2000, περί εφαρμογής της αρχής της ίσης μεταχείρισης προσώπων ασχέτως φυλετικής ή εθνοτικής τους καταγωγής (ΕΕ L 180 της 19.7.2000, σ. 22).
(17) Οδηγία 2004/113/ΕΚ του Συμβουλίου, της 13ης Δεκεμβρίου 2004, για την εφαρμογή της αρχής της ίσης μεταχείρισης ανδρών και γυναικών στην πρόσβαση σε αγαθά και υπηρεσίες και την παροχή αυτών (ΕΕ L 373 της 21.12.2004, σ. 37).
(18) Βλέπε ιδίως Kidron B., Evans A., Afia J., Disrupted Childhood – The Cost of Persuasive Design, 5Rights Foundation, 2018.
(19) Έκθεση της ομάδας υψηλού επιπέδου για τον αντίκτυπο του ψηφιακού μετασχηματισμού στις αγορές εργασίας της ΕΕ, 2019.
(20) Οδηγία 85/374/ΕΟΚ του Συμβουλίου της 25ης Ιουλίου 1985 για την προσέγγιση των νομοθετικών, κανονιστικών και διοικητικών διατάξεων των κρατών μελών σε θέματα ευθύνης λόγω ελαττωματικών προϊόντων (ΕΕ L 210 της 7.8.1985, σ. 29).