28.10.2020   

EL

Επίσημη Εφημερίδα της Ευρωπαϊκής Ένωσης

C 364/87


Γνωμοδότηση της Ευρωπαϊκής Οικονομικής και Κοινωνικής Επιτροπής με θέμα «Λευκή Βίβλος για την τεχνητή νοημοσύνη — Η ευρωπαϊκή προσέγγιση της αριστείας και της εμπιστοσύνης»

[COM(2020) 65 final]

(2020/C 364/12)

Εισηγήτρια:

η κ. Catelijne MULLER

Αίτηση γνωμοδότησης

Επιτροπή, 9.3.2020

Νομική βάση

Άρθρο 304 της Συνθήκης για τη λειτουργία της Ευρωπαϊκής Ένωσης

Αρμόδιο τμήμα

Ενιαία αγορά, παραγωγή και κατανάλωση

Εγκρίθηκε από το τμήμα

25.6.2020

Εγκρίθηκε από την ολομέλεια

16.7.2020

Σύνοδος ολομέλειας αριθ.

553

Αποτέλεσμα της ψηφοφορίας

(υπέρ/κατά/αποχές)

207/0/6

1.   Συμπεράσματα και συστάσεις

1.1

Η ΕΟΚΕ επικροτεί τη στρατηγική της Επιτροπής, η οποία ορίζεται στη Λευκή Βίβλο για την τεχνητή νοημοσύνη και ενθαρρύνει τη χρήση τεχνολογιών τεχνητής νοημοσύνης με παράλληλη διασφάλιση της συμμόρφωσής τους με τους ευρωπαϊκούς κανόνες δεοντολογίας, τις ευρωπαϊκές νομικές απαιτήσεις και κοινωνικές αξίες.

1.2

Η ΕΟΚΕ επικροτεί επίσης τον στόχο της αξιοποίησης των ευρωπαϊκών πλεονεκτημάτων σε βιομηχανικές και επαγγελματικές αγορές, και τονίζει τη σημασία της ενίσχυσης των επενδύσεων, των υποδομών, της καινοτομίας και των δεξιοτήτων, έτσι ώστε οι επιχειρήσεις, συμπεριλαμβανομένων των μικρομεσαίων επιχειρήσεων (ΜΜΕ), και η κοινωνία στο σύνολό της να μπορέσουν να αξιοποιήσουν τις ευκαιρίες της τεχνητής νοημοσύνης. Η καινοτομία στον τομέα της τεχνητής νοημοσύνης πρέπει να ενισχυθεί, έτσι ώστε να μεγιστοποιηθούν τα οφέλη των συστημάτων τεχνητής νοημοσύνης, ενώ ταυτόχρονα να αποτρέπονται και να ελαχιστοποιούνται οι κίνδυνοι από αυτά.

1.3

Ωστόσο, θεωρεί ότι η έμφαση μόνο στην τεχνητή νοημοσύνη που βασίζεται στα δεδομένα είναι υπερβολικά περιορισμένη για να καταστήσει την ΕΕ πραγματικά κορυφαία στον τομέα της προηγμένης, αξιόπιστης και ανταγωνιστικής τεχνητής νοημοσύνης. Η ΕΟΚΕ προτρέπει επίσης την Επιτροπή να προωθήσει μια νέα γενιά συστημάτων τεχνητής νοημοσύνης που έχουν ως γνώμονα τη γνώση και βασίζονται στη λογική σκέψη, τα οποία προασπίζουν τις ανθρώπινες αρχές και αξίες.

1.4

Η ΕΟΚΕ καλεί την Επιτροπή (i) να προωθήσει την πολυεπιστημονικότητα στην έρευνα, με τη συμμετοχή άλλων επιστημονικών κλάδων όπως το δίκαιο, η ηθική, η φιλοσοφία, η ψυχολογία, οι επιστήμες της εργασίας, οι ανθρωπιστικές επιστήμες, οι οικονομικές επιστήμες κ.λπ.·(ii) να επιδιώξει τη συμμετοχή των σχετικών ενδιαφερόμενων φορέων (συνδικαλιστικές οργανώσεις, επαγγελματικές και επιχειρηματικές οργανώσεις, οργανώσεις καταναλωτών, ΜΚΟ) στον διάλογο για την τεχνητή νοημοσύνη και τη συμμετοχή τους ως ισότιμων εταίρων στο πεδίο της έρευνας που χρηματοδοτείται από την ΕΕ και σε άλλα έργα όπως η σύμπραξη ιδιωτικού και δημόσιου τομέα για την τεχνητή νοημοσύνη, οι τομεακοί διάλογοι, το πρόγραμμα «Adopt AI» στον δημόσιο τομέα και το κέντρο διαχείρισης· και (iii) να συνεχίσει να εκπαιδεύει και να ενημερώνει το ευρύτερο κοινό σχετικά με τις ευκαιρίες και προκλήσεις που προσφέρει η τεχνητή νοημοσύνη.

1.5

Η ΕΟΚΕ παροτρύνει την Επιτροπή να εξετάσει διεξοδικότερα τον αντίκτυπο της τεχνητής νοημοσύνης στο πλήρες φάσμα των θεμελιωδών δικαιωμάτων και ελευθεριών, συμπεριλαμβανομένων — μεταξύ άλλων — του δικαιώματος σε δίκαιη δίκη, του δικαιώματος σε δίκαιες και ανοικτές εκλογές, του δικαιώματος του συνέρχεσθαι και του δικαιώματος διαδηλώσεως, καθώς και του δικαιώματος ίσης μεταχείρισης.

1.6

Η ΕΟΚΕ εξακολουθεί να αντιτίθεται στη θέσπιση οποιασδήποτε μορφής νομικής προσωπικότητας για την τεχνητή νοημοσύνη. Κάτι τέτοιο θα υπονομεύσει την προληπτική διορθωτική δράση του νόμου περί ευθύνης και δημιουργεί σοβαρό ηθικό κίνδυνο στο πλαίσιο τόσο της ανάπτυξης όσο και της χρήσης της τεχνητής νοημοσύνης, όταν δίνει ευκαιρίες κατάχρησης.

1.7

Η ΕΟΚΕ ζητεί μια συνεχή, συστηματική, κοινωνικοτεχνική προσέγγιση, η οποία θα εξετάζει την τεχνολογία από όλες τις απόψεις και μέσα από διάφορα πρίσματα, και όχι μια μεμονωμένη (ή ακόμα και τακτικά επαναλαμβανόμενη) προγενέστερη αξιολόγηση συμμόρφωσης της τεχνητής νοημοσύνης υψηλού κινδύνου.

1.8

Η ΕΟΚΕ προειδοποιεί ότι η απαίτηση που αφορά τον τομέα «υψηλού κινδύνου» θα μπορούσε να αποκλείσει πολλές εφαρμογές και χρήσεις της τεχνητής νοημοσύνης που ενέχουν εκ φύσεως υψηλό κίνδυνο, επιπλέον της βιομετρικής αναγνώρισης και της τεχνητής νοημοσύνης που χρησιμοποιείται σε διαδικασίες πρόσληψης. Η ΕΟΚΕ συνιστά στην Επιτροπή να καταρτίσει κατάλογο κοινών χαρακτηριστικών για τις εφαρμογές ή χρήσεις της τεχνητής νοημοσύνης που θεωρείται ότι ενέχουν εκ φύσεως υψηλό κίνδυνο, ανεξαρτήτως τομέα.

1.9

Η ΕΟΚΕ υποστηρίζει σθεναρά να επιτρέπεται κάθε χρήση βιομετρικής αναγνώρισης μόνο: i) εάν υπάρχει επιστημονικά τεκμηριωμένο αποτέλεσμα, ii) σε ελεγχόμενα περιβάλλοντα και iii) υπό αυστηρές προϋποθέσεις. Θα πρέπει να απαγορεύεται η ευρεία χρήση βιομετρικής αναγνώρισης μέσω της τεχνητής νοημοσύνης με σκοπό την επιτήρηση ή τον εντοπισμό, την αξιολόγηση ή την κατηγοριοποίηση ανθρώπων, ανθρώπινων συμπεριφορών ή ανθρώπινων συναισθημάτων.

1.10

Η ΕΟΚΕ υποστηρίζει την έγκαιρη και ενεργό συμμετοχή των κοινωνικών εταίρων κατά την εισαγωγή συστημάτων τεχνητής νοημοσύνης σε χώρους εργασίας, σύμφωνα με τους ισχύοντες εθνικούς κανόνες και πρακτικές, προκειμένου να διασφαλιστεί ότι τα συστήματα είναι λειτουργικά και συμμορφώνονται με τα εργασιακά δικαιώματα και τις συνθήκες εργασίας.

1.11

Η ΕΟΚΕ τάσσεται επίσης υπέρ της έγκαιρης και ενεργού συμμετοχής των εργαζομένων εκείνων που θα χρησιμοποιούν στην εργασία τους συστήματα τεχνητής νοημοσύνης, καθώς και των εργαζομένων με εμπειρογνωσία στους κλάδους της νομικής, της ηθικής και των ανθρωπιστικών επιστημών, κατά την εφαρμογή συστημάτων τεχνητής νοημοσύνης, προκειμένου να διασφαλιστεί η ευθυγράμμιση των συστημάτων με τη νομοθεσία και τις δεοντολογικές απαιτήσεις, αλλά και με τις ανάγκες των εργαζομένων, η διατήρηση της αυτονομίας των εργαζομένων κατά την εργασία και η ύπαρξη συστημάτων τεχνητής νοημοσύνης που ενισχύουν τις δεξιότητες των εργαζομένων και αυξάνουν την ικανοποίηση από την εργασία.

1.12

Οι τεχνικές και οι προσεγγίσεις τεχνητής νοημοσύνης που χρησιμοποιούνται για την καταπολέμηση της πανδημίας του κορονοϊού θα πρέπει να είναι άρτιες, αποτελεσματικές, διαφανείς και εξηγήσιμες. Θα πρέπει επίσης να συμβαδίζουν με τα ανθρώπινα δικαιώματα, τις δεοντολογικές αρχές και την ισχύουσα νομοθεσία, και να είναι δίκαιες, χωρίς αποκλεισμούς και προαιρετικές.

1.13

Η ΕΟΚΕ καλεί την Επιτροπή να αναλάβει ηγετικό ρόλο για τη βελτίωση του συντονισμού εντός της Ευρώπης των εφαρμοσμένων λύσεων και προσεγγίσεων τεχνητής νοημοσύνης που χρησιμοποιούνται για την καταπολέμηση της πανδημίας COVID-19.

2.   Λευκή Βίβλος της ΕΕ για την τεχνητή νοημοσύνη

2.1

Η ΕΟΚΕ επισημαίνει με ικανοποίηση ότι η Ευρωπαϊκή Επιτροπή υιοθετεί πολλές από τις συστάσεις προηγούμενων γνωμοδοτήσεων της ΕΟΚΕ καθώς και συστάσεις της ομάδας εμπειρογνωμόνων υψηλού επιπέδου για την τεχνητή νοημοσύνη, ενθαρρύνοντας τη χρήση τεχνολογιών τεχνητής νοημοσύνης, ενώ παράλληλα διασφαλίζεται η συμμόρφωσή τους με τους ευρωπαϊκούς κανόνες δεοντολογίας, τις ευρωπαϊκές νομικές απαιτήσεις και κοινωνικές αξίες, με θεμέλιο το αποκαλούμενο «οικοσύστημα αριστείας και εμπιστοσύνης».

2.2

Η ΕΟΚΕ επικροτεί τις προτάσεις που απευθύνονται στις επιχειρήσεις, συμπεριλαμβανομένων των ΜΜΕ, και στην κοινωνία στο σύνολό της, αξιοποιώντας τις ευκαιρίες που προσφέρει η ανάπτυξη και η χρήση της τεχνητής νοημοσύνης. Η ΕΟΚΕ τονίζει τη σημασία της ενίσχυσης των επενδύσεων, των υποδομών, της καινοτομίας και των δεξιοτήτων για τη βελτίωση της ανταγωνιστικής επιτυχίας της ΕΕ σε παγκόσμιο επίπεδο.

Προσέγγιση που ευνοεί την άσκηση ελέγχου από τον άνθρωπο

2.3

Ωστόσο, το ύφος της Λευκής Βίβλου είναι ελαφρώς «μοιρολατρικό», καθώς υποστηρίζει ότι η τεχνητή νοημοσύνη «μας υπερβαίνει», οπότε δεν μας αφήνεται άλλη επιλογή από το να ρυθμίσουμε τη χρήση της. Η ΕΟΚΕ πιστεύει πραγματικά στη δέσμευση της ΕΕ να διασφαλίσει ότι η Ευρώπη δέχεται μόνο την τεχνητή νοημοσύνη που είναι αξιόπιστη και, ως εκ τούτου, θα πρέπει να υιοθετήσει πιο σθεναρή στάση στον τομέα αυτό. Η ΕΟΚΕ καλεί την Επιτροπή να διατηρεί πάντα την επιλογή να απορρίπτει πλήρως έναν συγκεκριμένο τύπο τεχνητής νοημοσύνης (ως προς τη χρήση του). Σε αυτό το πλαίσιο, η ΕΟΚΕ καλεί να ακολουθείται η προσέγγιση ότι «ο άνθρωπος δίνει την εντολή» (human-in-command) στον τομέα της τεχνητής νοημοσύνης.

Αξιοποίηση της τεχνητής νοημοσύνης στην Ευρώπη — ένας μακρόπνοος ορισμός

2.4

Ο ορισμός εργασίας της τεχνητής νοημοσύνης που περιλαμβάνεται στη Λευκή Βίβλο είναι μια «συλλογή τεχνολογιών που συνδυάζουν δεδομένα, αλγόριθμους και υπολογιστική ισχύ». Στη συνέχεια του κειμένου, τα δεδομένα και οι αλγόριθμοι ορίζονται ως τα βασικά στοιχεία της τεχνητής νοημοσύνης. Ωστόσο, ο ορισμός αυτός θα άρμοζε στην περιγραφή οποιουδήποτε λογισμικού, όχι μόνο της τεχνητής νοημοσύνης. Δεν υφίσταται ακόμα κάποιος καθολικά αποδεκτός ορισμός της τεχνητής νοημοσύνης, η οποία αποτελεί γενικό όρο που καλύπτει διάφορες εφαρμογές πληροφορικής.

2.5

Η έμφαση της Λευκής Βίβλου μόνο στην τεχνητή νοημοσύνη που βασίζεται στα δεδομένα είναι υπερβολικά περιορισμένη για να καταστήσει την ΕΕ πραγματικά κορυφαία στον τομέα της προηγμένης, αξιόπιστης και ανταγωνιστικής τεχνητής νοημοσύνης. Η Λευκή Βίβλος αποκλείει την εξέταση πολλών ελπιδοφόρων συστημάτων τεχνητής νοημοσύνης, αποκλείοντας, ως εκ τούτου, τη διαχείριση και τη ρύθμισή τους. Η ΕΟΚΕ προτρέπει την Επιτροπή να προωθήσει επίσης μια νέα γενιά συστημάτων τεχνητής νοημοσύνης τα οποία ενσωματώνουν προσεγγίσεις με γνώμονα τα δεδομένα σε συνδυασμό με προσεγγίσεις που έχουν ως γνώμονα τη γνώση και βασίζονται στη λογική σκέψη, τα λεγόμενα υβριδικά συστήματα. Η Λευκή Βίβλος αναγνωρίζει πράγματι την ανάγκη υβριδικών συστημάτων για σκοπούς εξηγησιμότητας, αλλά τα πλεονεκτήματα των υβριδικών συστημάτων υπερβαίνουν την εξηγησιμότητα: μπορούν να επιταχύνουν ή/και να περιορίσουν τη μάθηση, και να επικυρώσουν και να επαληθεύσουν το μοντέλο μηχανικής μάθησης.

2.6

Η Λευκή Βίβλος εστιάζεται μόνο στις προκαταλήψεις όσον αφορά τα δεδομένα, ωστόσο δεν οφείλονται όλες οι προκαταλήψεις σε χαμηλής ποιότητας ή περιορισμένα δεδομένα. Ο σχεδιασμός οποιουδήποτε αντικειμένου αποτελεί καθαυτός ένα σύνολο προκατειλημμένων επιλογών, από τις εισροές που ελήφθησαν υπόψη έως τους στόχους βελτιστοποίησης που έχουν τεθεί. Όλες αυτές οι επιλογές οφείλονται με τον έναν ή τον άλλον τρόπο στις εγγενείς προκαταλήψεις του ατόμου ή των ατόμων που τις κάνουν.

2.7

Ωστόσο, είναι πολύ σημαντικό να θυμόμαστε ότι τα συστήματα τεχνητής νοημοσύνης δεν είναι απλώς το άθροισμα των παραμέτρων του λογισμικού τους. Τα συστήματα τεχνητής νοημοσύνης εμπεριέχουν επιπλέον τις δομές του κοινωνικοτεχνικού συστήματος που τα περιβάλλει. Κατά την εξέταση της διακυβέρνησης και του ρυθμιστικού πλαισίου της τεχνητής νοημοσύνης, χρειάζεται επιπλέον να εστιάσουμε στις περιβάλλουσες κοινωνικές δομές: στους οργανισμούς και τις επιχειρήσεις, στα διάφορα επαγγέλματα, στους ανθρώπους και τους θεσμούς που δημιουργούν, αναπτύσσουν, χρησιμοποιούν και ελέγχουν την τεχνητή νοημοσύνη, καθώς και στους ανθρώπους που επηρεάζονται από αυτήν, για παράδειγμα τους πολίτες στις σχέσεις τους με τις κυβερνήσεις, τις επιχειρήσεις, τους καταναλωτές, τους εργαζομένους ή ακόμα και ολόκληρη την κοινωνία στο σύνολό της.

2.8

Θα πρέπει επίσης να σημειωθεί ότι οι νομικοί ορισμοί (για τον σκοπό της διαχείρισης και ρύθμισης) διαφέρουν από τους αμιγώς επιστημονικούς ορισμούς, ενώ πρέπει να πληρούνται διάφορες απαιτήσεις, όπως ο μη αποκλεισμός, η ακρίβεια, η διάρκεια, η πληρότητα και η πρακτικότητα. Κάποιες από αυτές τις απαιτήσεις είναι νομικά δεσμευτικές και κάποιες άλλες θεωρούνται ορθή ρυθμιστική πρακτική.

Συγκέντρωση όλων των δυνάμεων

2.9

Η ΕΟΚΕ επικροτεί την προσπάθεια να αντιμετωπιστεί το κατακερματισμένο τοπίο της τεχνητής νοημοσύνης στην Ευρώπη μέσω της συγκέντρωσης όλων των ερευνητών στον τομέα της τεχνητής νοημοσύνης, μέσω της έμφασης στις ΜΜΕ και της συνεργασίας με τον ιδιωτικό και τον δημόσιο τομέα. Επιπλέον, η ΕΟΚΕ συνιστά: i) προώθηση της πολυεπιστημονικότητας στην έρευνα, με τη συμμετοχή άλλων επιστημονικών κλάδων όπως το δίκαιο, η ηθική, η φιλοσοφία, η ψυχολογία, οι επιστήμες της εργασίας, οι ανθρωπιστικές επιστήμες, η οικονομία κ.λπ.· ii) συμμετοχή των σχετικών ενδιαφερόμενων φορέων (συνδικαλιστικές οργανώσεις, επιχειρηματικές οργανώσεις, οργανώσεις καταναλωτών, ΜΚΟ) στον διάλογο για την τεχνητή νοημοσύνη αλλά και ως ισότιμων εταίρων στο πεδίο της έρευνας που χρηματοδοτείται από την ΕΕ και σε άλλα έργα όπως η σύμπραξη ιδιωτικού και δημόσιου τομέα για την τεχνητή νοημοσύνη, οι τομεακοί διάλογοι, και το πρόγραμμα «Adopt AI» στον δημόσιο τομέα και το κέντρο διαχείρισης· και iii) συνεχή εκπαίδευση και ενημέρωση του ευρύτερου κοινού σχετικά με τις ευκαιρίες και προκλήσεις που προσφέρει η τεχνητή νοημοσύνη.

Νόμοι και τεχνητή νοημοσύνη

2.10

Η Λευκή Βίβλος αναγνωρίζει το γεγονός ότι η τεχνητή νοημοσύνη δεν λειτουργεί σε έναν κόσμο χωρίς νόμους. Η ΕΟΚΕ επικροτεί ιδίως την έμφαση που δίνεται στις επιπτώσεις που έχει η τεχνητή νοημοσύνη στα ανθρώπινα δικαιώματα και συνιστά στην Επιτροπή να εξετάσει διεξοδικότερα τις επιπτώσεις της τεχνητής νοημοσύνη σε ένα ευρύ σύνολο θεμελιωδών δικαιωμάτων και ελευθεριών, όπως η ελευθερία του λόγου και της έκφρασης, καθώς και το δικαίωμα στον σεβασμό της ιδιωτικής ζωής (η οποία περιλαμβάνει περισσότερα πεδία πέραν από την προστασία των δεδομένων των ανθρώπων), το δικαίωμα σε δίκαιη δίκη, σε δίκαιες και ανοικτές εκλογές, το δικαίωμα του συνέρχεσθαι και το δικαίωμα διαδηλώσεως, καθώς και το δικαίωμα ίσης μεταχείρισης.

2.11

Η ΕΟΚΕ επικροτεί τη σαφή στάση που υιοθετείται στη Λευκή Βίβλο όσον αφορά την εφαρμογή των ισχυόντων καθεστώτων ευθύνης στον τομέα της τεχνητής νοημοσύνης, καθώς και την προσπάθεια αξιοποίησης των εν λόγω καθεστώτων προκειμένου να αντιμετωπιστούν οι νέοι κίνδυνοι που μπορεί να δημιουργήσει η τεχνητή νοημοσύνη, μέσω της αντιμετώπισης των κενών επιβολής όπου είναι δύσκολο να καθοριστεί ο αντικειμενικά υπεύθυνος οικονομικός φορέας, και με προσαρμογή των καθεστώτων στη μεταβαλλόμενη λειτουργικότητα των συστημάτων τεχνητής νοημοσύνης.

2.12

Η Επιτροπή θα πρέπει επίσης να αναγνωρίσει ότι η τεχνητή νοημοσύνη δεν γνωρίζει σύνορα και ότι οι προσπάθειες που καταβάλλονται δεν μπορούν και δεν θα πρέπει να περιορίζονται στην Ευρώπη. Θα πρέπει να επιτευχθεί γενική παγκόσμια συναίνεση, λαμβάνοντας ως βάση τις συζητήσεις και την έρευνα νομικών εμπειρογνωμόνων, σε μια προσπάθεια θέσπισης ενός κοινού διεθνούς νομικού πλαισίου.

2.13

Σε κάθε περίπτωση, η ΕΟΚΕ εξακολουθεί να αντιτίθεται σθεναρά στη θέσπιση οποιασδήποτε μορφής νομικής προσωπικότητας για την τεχνητή νοημοσύνη. Κάτι τέτοιο θα υπονομεύσει την προληπτική διορθωτική δράση του νόμου περί ευθύνης και δημιουργεί σοβαρό ηθικό κίνδυνο στο πλαίσιο τόσο της ανάπτυξης όσο και της χρήσης της τεχνητής νοημοσύνης, όταν δίνει ευκαιρίες κατάχρησης.

Ρύθμιση της τεχνητής νοημοσύνης υψηλού κινδύνου

2.14

Η ΕΟΚΕ επικροτεί την προσέγγιση βάσει κινδύνου για τον έλεγχο του αντικτύπου της τεχνητής νοημοσύνης. Η Επιτροπή ανακοινώνει ρυθμιστικό πλαίσιο για την τεχνητή νοημοσύνη υψηλού κινδύνου, το οποίο θα πρέπει να συμμορφώνεται με απαιτήσεις που αφορούν την αρτιότητα, την ακρίβεια, την αναπαραγωγιμότητα, τη διαφάνεια, την ανθρώπινη εποπτεία και τη διακυβέρνηση των δεδομένων. Σύμφωνα με τη Λευκή Βίβλο, δύο στοιχεία συνιστούν από κοινού την τεχνητή νοημοσύνη υψηλού κινδύνου: i) η εφαρμογή τεχνητής νοημοσύνης αφορά τομέα υψηλού κινδύνου και ii) η χρήση της εφαρμογής τεχνητής νοημοσύνης είναι υψηλού κινδύνου. Στη Λευκή Βίβλο παρατίθενται επιπλέον δύο παραδείγματα εφαρμογών ή χρήσεων τεχνητής νοημοσύνης που θα μπορούσαν να θεωρηθούν ότι ενέχουν εκ φύσεως υψηλό κίνδυνο, δηλαδή ανεξαρτήτως τομέα. Επίσης, η βιομετρική αναγνώριση χαρακτηρίζεται ως εγγενώς υψηλού κινδύνου εφαρμογή. Ο εξαντλητικός κατάλογος των τομέων υψηλού κινδύνου (μολονότι αναθεωρείται περιοδικά) περιλαμβάνει τώρα τους ακόλουθους τομείς ως δυνητικά υψηλού κινδύνου: ιατροφαρμακευτική περίθαλψη, μεταφορές, ενέργεια και τμήματα του δημόσιου τομέα.

2.15

Το δεύτερο κριτήριο, δηλαδή η επικίνδυνη χρήση μιας εφαρμογής τεχνητής νοημοσύνης, είναι λιγότερο αυστηρό, γεγονός που υποδηλώνει ότι θα μπορούσαν να εξεταστούν διαφορετικά επίπεδα κινδύνου. Η ΕΟΚΕ προτείνει να προστεθούν στο σημείο αυτό η κοινωνία και το περιβάλλον ως τομείς επιπτώσεων.

2.16

Σύμφωνα με τη λογική της Λευκής Βίβλου, μια εφαρμογή τεχνητής νοημοσύνης υψηλού κινδύνου που χρησιμοποιείται σε τομέα χαμηλού κινδύνου δεν θα υπάγεται καταρχήν στο ρυθμιστικό πλαίσιο. Η ΕΟΚΕ τονίζει ότι οι ανεπιθύμητες δυσμενείς επιπτώσεις της τεχνητής νοημοσύνης υψηλού κινδύνου σε έναν τομέα χαμηλού κινδύνου θα μπορούσαν να οδηγήσουν σε εξαίρεση εφαρμογών ή χρήσεων τεχνητής νοημοσύνης από τη ρύθμιση, παρέχοντας ένα «παράθυρο» για παράκαμψη των κανόνων: ας πάρουμε, για παράδειγμα, τη στοχευμένη διαφήμιση (τομέας χαμηλού κινδύνου), η οποία έχει αποδειχθεί ότι δυνητικά μπορεί να προκαλέσει διαχωρισμό, διακρίσεις και διάσπαση, για παράδειγμα κατά τη διάρκεια εκλογών ή μέσω εξατομικευμένης τιμολόγησης (χρήση ή αποτέλεσμα υψηλού κινδύνου). Η ΕΟΚΕ συνιστά την καταγραφή των κοινών χαρακτηριστικών των εφαρμογών ή χρήσεων τεχνητής νοημοσύνης που πρέπει να θεωρούνται «καθαυτές» υψηλού κινδύνου, ανεξάρτητα από τον τομέα στον οποίο χρησιμοποιούνται.

2.17

Παρότι η ΕΟΚΕ αναγνωρίζει την ανάγκη για διενέργεια ελέγχου συμμόρφωσης της τεχνητής νοημοσύνης, εκφράζει φόβους ότι μια μεμονωμένη (ή ακόμα και τακτικά επαναλαμβανόμενη) προγενέστερη αξιολόγηση συμμόρφωσης δεν αρκεί για να εγγυηθεί την αξιόπιστη και ανθρωποκεντρική ανάπτυξη, αξιοποίηση και χρήση της τεχνητής νοημοσύνης με βιώσιμο τρόπο. Η αξιόπιστη τεχνητή νοημοσύνη χρειάζεται μια σταθερή, συστηματική, κοινωνικοτεχνική προσέγγιση η οποία θα εξετάζει την τεχνολογία από όλες τις απόψεις και μέσα από διάφορα πρίσματα. Στο πλαίσιο της χάραξης πολιτικής, κάτι τέτοιο προϋποθέτει μια πολυεπιστημονική προσέγγιση, με συνεχή συνεργασία μεταξύ φορέων χάραξης πολιτικής, ακαδημαϊκών από διάφορους κλάδους, κοινωνικών εταίρων, επαγγελματικών οργανώσεων, επαγγελματιών, επιχειρήσεων και ΜΚΟ. Ιδίως όσον αφορά τις υπηρεσίες δημοσίου συμφέροντος που σχετίζονται με την υγεία, την ασφάλεια και την ευημερία των πολιτών και βασίζονται στην εμπιστοσύνη, πρέπει να διασφαλιστεί ότι τα συστήματα τεχνητής νοημοσύνης είναι προσαρμοσμένα στις πρακτικές απαιτήσεις και δεν μπορούν να υπερισχύουν της ανθρώπινης αρμοδιότητας.

Βιομετρική αναγνώριση

2.18

Η ΕΟΚΕ επικροτεί την πρόσκληση της Επιτροπής για έναρξη δημόσιου διαλόγου σχετικά με τη χρήση βιομετρικής αναγνώρισης που βασίζεται στην τεχνητή νοημοσύνη. Η βιομετρική αναγνώριση των μικρο-εκφράσεων, του τρόπου βάδισης, (του τόνου) της φωνής, του καρδιακού ρυθμού, της θερμοκρασίας κ.λπ. χρησιμοποιείται ήδη για την αξιολόγηση ή ακόμα και την πρόβλεψη της συμπεριφοράς, της ψυχικής κατάστασης και των συναισθημάτων μας, ακόμη και σε διαδικασίες πρόσληψης. Πρέπει να καταστεί σαφές ότι δεν υπάρχουν επιστημονικά στοιχεία που υποδηλώνουν ότι τα μύχια συναισθήματα ή η ψυχική κατάσταση ενός προσώπου μπορούν να «αναγνωστούν» με ακρίβεια από την έκφραση του προσώπου του, τον τρόπο βάδισης, τον καρδιακό ρυθμό, τον τόνο της φωνής ή τη θερμοκρασία, πόσο μάλλον να προβλεφθεί με βάση αυτά η μελλοντική συμπεριφορά.

2.19

Θα πρέπει επίσης να σημειωθεί ότι ο γενικός κανονισμός για την προστασία δεδομένων (ΓΚΠΔ) περιορίζει σε κάποιο μόνο βαθμό την επεξεργασία των βιομετρικών δεδομένων. Σύμφωνα με τον ΓΚΠΔ, τα βιομετρικά δεδομένα ορίζονται ως τα «δεδομένα προσωπικού χαρακτήρα τα οποία προκύπτουν από ειδική τεχνική επεξεργασία συνδεόμενη με φυσικά, βιολογικά ή συμπεριφορικά χαρακτηριστικά φυσικού προσώπου και τα οποία επιτρέπουν ή επιβεβαιώνουν την αδιαμφισβήτητη ταυτοποίηση του εν λόγω φυσικού προσώπου». Ωστόσο, πολλές τεχνολογίες βιομετρικής αναγνώρισης δεν έχουν σχεδιαστεί με σκοπό την αδιαμφισβήτητη ταυτοποίηση ενός προσώπου αλλά μόνο για την αξιολόγηση της συμπεριφοράς ή των συναισθημάτων του. Οι χρήσεις αυτές ενδεχομένως να μην εμπίπτουν στον ορισμό (της επεξεργασίας) βιομετρικών δεδομένων του ΓΚΠΔ.

2.20

Η βιομετρική αναγνώριση που βασίζεται στην τεχνητή νοημοσύνη επηρεάζει επίσης το ευρύτερο δικαίωμά μας για σεβασμό της ιδιωτικής ζωής, της ταυτότητας, της αυτονομίας και της ψυχολογικής ακεραιότητας, δημιουργώντας μια κατάσταση στην οποία τελούμε υπό καθεστώς (συνεχούς) επιτήρησης, παρακολούθησης και ταυτοποίησης. Η εν λόγω κατάσταση θα μπορούσε να δημιουργήσει ψυχολογικό «αποτρεπτικό αποτέλεσμα», στο πλαίσιο του οποίου οι άνθρωποι έχουν την τάση να προσαρμόζουν τη συμπεριφορά τους σε έναν συγκεκριμένο άγραφο κανόνα. Το γεγονός αυτό συνιστά παραβίαση του θεμελιώδους δικαιώματός μας στην ιδιωτική ζωή (ηθική και ψυχολογική ακεραιότητα). Επιπλέον, η βιομετρική αναγνώριση που βασίζεται στην τεχνητή νοημοσύνη θα μπορούσε να επηρεάσει άλλα θεμελιώδη δικαιώματα και ελευθερίες, όπως η ελευθερία του συνέρχεσθαι και το δικαίωμα ίσης μεταχείρισης.

2.21

Η ΕΟΚΕ συνιστά να επιτρέπεται κάθε χρήση βιομετρικής αναγνώρισης μόνο αν υπάρχει επιστημονικά τεκμηριωμένο αποτέλεσμα, σε ελεγχόμενα περιβάλλοντα και υπό αυστηρές προϋποθέσεις. Δεν θα πρέπει να επιτρέπεται η ευρεία χρήση βιομετρικής αναγνώρισης που βασίζεται στην τεχνητή νοημοσύνη με σκοπό την επιτήρηση, τον εντοπισμό, την αξιολόγηση ή την κατηγοριοποίηση ανθρώπων, ανθρώπινων συμπεριφορών και ανθρώπινων συναισθημάτων.

Αντίκτυπος της τεχνητής νοημοσύνης στην εργασία και τις δεξιότητες

2.22

Η ΕΟΚΕ επισημαίνει ότι η Λευκή Βίβλος δεν διαθέτει στρατηγική για τον τρόπο αντιμετώπισης του αντίκτυπου της τεχνητής νοημοσύνης στην εργασία, ενώ το στοιχείο αυτό αναφερόταν ρητά στην ευρωπαϊκή στρατηγική για την τεχνητή νοημοσύνη του 2018.

2.23

Η ΕΟΚΕ υποστηρίζει την έγκαιρη και ενεργό συμμετοχή των εργαζομένων και παρόχων υπηρεσιών κάθε κατηγορίας, συμπεριλαμβανομένων των ελεύθερων επαγγελματιών, των αυτοαπασχολούμενων και των περιστασιακά απασχολούμενων — όχι μόνο των ανθρώπων που σχεδιάζουν ή αναπτύσσουν την τεχνητή νοημοσύνη, αλλά και όσων αγοράζουν, εφαρμόζουν, εργάζονται με συστήματα τεχνητής νοημοσύνης ή επηρεάζονται από αυτά. Ο κοινωνικός διάλογος πρέπει να πραγματοποιηθεί πριν από την εισαγωγή των τεχνολογιών τεχνητής νοημοσύνης στον χώρο εργασίας, σύμφωνα με τους ισχύοντες εθνικούς κανόνες και πρακτικές. Στον χώρο εργασίας, η πρόσβαση στα δεδομένα των εργαζομένων και η διακυβέρνησή τους θα πρέπει να διέπονται από τις αρχές και τους κανονισμούς που έχουν αποτελέσει αντικείμενο διαπραγμάτευσης από τους κοινωνικούς εταίρους.

2.24

Η ΕΟΚΕ θα ήθελε να επιστήσει ιδιαιτέρως την προσοχή στην τεχνητή νοημοσύνη που χρησιμοποιείται σε διαδικασίες πρόσληψης, απόλυσης, ελέγχου και αξιολόγησης των εργαζομένων. Στη Λευκή Βίβλο γίνεται μνεία στην τεχνητή νοημοσύνη που χρησιμοποιείται σε διαδικασίες πρόσληψης ως παράδειγμα εφαρμογής υψηλού κινδύνου η οποία θα υπαχθεί σε ρύθμιση ανεξαρτήτως τομέα. Η ΕΟΚΕ συνιστά να επεκταθεί αυτός ο τομέας χρήσης ώστε να συμπεριληφθεί η τεχνητή νοημοσύνη που χρησιμοποιείται στις διαδικασίες απόλυσης, ελέγχου και αξιολόγησης των εργαζομένων, αλλά και να διερευνηθούν τα κοινά χαρακτηριστικά των εφαρμογών τεχνητής νοημοσύνης που θα οδηγούν σε χρήση υψηλού κινδύνου στο χώρο εργασίας, ανεξάρτητα από τον τομέα. Οι εφαρμογές τεχνητής νοημοσύνης που δεν είναι επιστημονικά τεκμηριωμένες, όπως η ανίχνευση συναισθήματος μέσω της βιομετρικής αναγνώρισης, δεν θα πρέπει να επιτρέπονται σε εργασιακά περιβάλλοντα.

2.25

Για να καταστεί δυνατή η προσαρμογή στις ταχείες εξελίξεις στον τομέα της τεχνητής νοημοσύνης, είναι απαραίτητη η διατήρηση ή η απόκτηση δεξιοτήτων στον τομέα της τεχνητής νοημοσύνης. Ωστόσο, η χάραξη πολιτικής και οι οικονομικοί πόροι θα πρέπει επίσης να να διοχετεύονται στην εκπαίδευση και στην ανάπτυξη δεξιοτήτων σε κλάδους που δεν θα απειληθούν από τα συστήματα τεχνητής νοημοσύνης (π.χ. εργασίες για τις οποίες η ανθρώπινη αλληλεπίδραση είναι καίρια όπως οι υπηρεσίες δημόσιου συμφέροντος που σχετίζονται με την υγεία, την ασφάλεια και την ευημερία των ανθρώπων και βασίζονται στην εμπιστοσύνη, εργασίες όπου άνθρωπος και μηχανή συνεργάζονται ή εργασίες που θα θέλαμε να εξακολουθήσουν να τις κάνουν άνθρωποι).

3.   Τεχνητή νοημοσύνη και κορονοϊός

3.1

Η τεχνητή νοημοσύνη μπορεί να συμβάλει στην καλύτερη κατανόηση του κορονοϊού και της νόσου COVID-19, καθώς και στην προστασία των ατόμων από την έκθεση σε αυτά, να βοηθήσει στην ανακάλυψη ενός εμβολίου και να διερευνήσει δυνατότητες θεραπείας. Είναι όμως επίσης σημαντικό να είμαστε ειλικρινείς και ξεκάθαροι σχετικά με το τι μπορεί και τι δεν μπορεί να κάνει η τεχνητή νοημοσύνη.

3.2

Αρτιότητα και αποτελεσματικότητα: η χρήση της τεχνητής νοημοσύνης που βασίζεται στα δεδομένα για την πρόβλεψη της εξάπλωσης του κορονοϊού είναι δυνάμει προβληματική, διότι τα δεδομένα για τον κορονοϊό είναι πολύ λίγα για να μπορέσει η τεχνητή νοημοσύνη να επιτύχει αξιόπιστα αποτελέσματα. Επιπλέον, τα ελάχιστα δεδομένα που διατίθενται είναι ελλιπή και μεροληπτικά. Η χρήση των δεδομένων αυτών για προσεγγίσεις μηχανικής μάθησης θα μπορούσε να οδηγήσει σε ψευδώς αρνητικά και ψευδώς θετικά αποτελέσματα.

3.3

Η διαφάνεια όσον αφορά τα δεδομένα και τα μοντέλα που χρησιμοποιούνται, καθώς και η εξηγησιμότητα των αποτελεσμάτων είναι ύψιστης σημασίας. Αυτή τη στιγμή συγκεκριμένα, ο κόσμος δεν έχει την πολυτέλεια να λαμβάνει αποφάσεις βασιζόμενος σε «αδιαφανή συστήματα».

3.4

Στο πλαίσιο της χρήσης της τεχνητής νοημοσύνης για την καταπολέμηση της συγκεκριμένης πανδημίας, ο σεβασμός των ανθρωπίνων δικαιωμάτων, των δεοντολογικών αρχών και της ισχύουσας νομοθεσίας είναι σημαντικότερος από ποτέ. Ειδικότερα όταν τα εργαλεία της τεχνητής νοημοσύνης είναι πιθανόν να παραβιάσουν τα ανθρώπινα δικαιώματα, πρέπει να υπάρχει έννομο συμφέρον για τη χρήση τους, η οποία πρέπει να είναι απολύτως αναγκαία, αναλογική και, προπάντων, χρονικά περιορισμένη.

3.5

Τέλος, πρέπει να διασφαλίσουμε δικαιοσύνη και συμπερίληψη. Τα συστήματα τεχνητής νοημοσύνης που αναπτύσσονται για την καταπολέμηση της πανδημίας θα πρέπει να είναι αμερόληπτα και να μην εισάγουν διακρίσεις. Επιπλέον, θα πρέπει να είναι διαθέσιμα σε όλους και να λαμβάνουν υπόψη τις κοινωνικές και τις πολιτιστικές διαφορές των χωρών που πλήττονται.

Εφαρμογές παρακολούθησης και ανίχνευσης και εφαρμογές παρακολούθησης της υγείας

3.6

Σύμφωνα με τους ιολόγους και τους επιδημιολόγους, το άνοιγμα της κοινωνίας και της οικονομίας με τη λήξη των περιοριστικών μέτρων απαιτεί αποτελεσματική ιχνηλάτηση, εντοπισμό, παρακολούθηση και προστασία της υγείας των ανθρώπων. Επί του παρόντος, αναπτύσσονται πολλές εφαρμογές για την ιχνηλάτηση, τον εντοπισμό και τη διενέργεια υγειονομικών ελέγχων, δραστηριότητες που διεξάγονται συνήθως (όπως και κατά το παρελθόν) από επαγγελματίες. Πολλές κυβερνήσεις παγκοσμίως έχουν δείξει μεγάλη εμπιστοσύνη σε εφαρμογές παρακολούθησης και ανίχνευσης ως μέσο για να ανοίξουν ξανά οι κοινωνίες.

3.7

Η αξιοποίηση των εφαρμογών αυτού του είδους αποτελεί πολύ ριζοσπαστικό βήμα. Ως εκ τούτου, προτού ληφθεί απόφαση για τη χρήση τους είναι σημαντικό να εξεταστούν με κριτικό πνεύμα η χρησιμότητα, η αναγκαιότητα και η αποτελεσματικότητά τους, καθώς και ο κοινωνικός και νομικός αντίκτυπός τους. Πρέπει να εξακολουθεί να υφίσταται η επιλογή της μη χρήσης τους, και θα πρέπει να δίδεται προτεραιότητα σε λιγότερο παρεμβατικές λύσεις.

3.8

Η αποτελεσματικότητα και η αξιοπιστία των εφαρμογών παρακολούθησης και ανίχνευσης είναι άκρως σημαντικές, διότι η αναποτελεσματικότητα και η αναξιοπιστία μπορούν να οδηγήσουν σε πολλά ψευδώς θετικά και ψευδώς αρνητικά αποτελέσματα, σε ψευδή αίσθηση ασφάλειας και, συνεπώς, σε μεγαλύτερο κίνδυνο μόλυνσης. Οι αρχικές επιστημονικές προσομοιώσεις εγείρουν σοβαρές αμφιβολίες ως προς το αν μια εφαρμογή παρακολούθησης θα έχει οποιαδήποτε θετική επίπτωση στην εξάπλωση του ιού, ακόμα και με χρήση της τάξης του 80 % ή 90 %. Επίσης, μια εφαρμογή δεν μπορεί να καταχωρίσει ειδικές περιστάσεις, όπως την ύπαρξη πλέξιγκλας και παραθύρων ή τη χρήση μέσων ατομικής προστασίας.

3.9

Επιπλέον, οι συγκεκριμένες εφαρμογές οδηγούν σε (μερική) αναστολή διαφόρων ανθρωπίνων δικαιωμάτων και ελευθεριών, καθώς σχετίζονται με την ελευθερία του συνεταιρίζεσθαι, το δικαίωμα στην ασφάλεια, στην ίση μεταχείριση και στην ιδιωτική ζωή.

3.10

Η ιδιωτική ζωή είναι πολύ σημαντική, αφορά δε πολλά περισσότερα πράγματα από τα δεδομένα προσωπικού χαρακτήρα και την ανωνυμία. Αφορά το δικαίωμα του ατόμου να μην τελεί υπό επιτήρηση και παρακολούθηση. Έχει αποδειχθεί επιστημονικά ότι οι άνθρωποι που ξέρουν ότι παρακολουθούνται, αρχίζουν να συμπεριφέρονται διαφορετικά. Σύμφωνα με το Ευρωπαϊκό Δικαστήριο Ανθρωπίνων Δικαιωμάτων, το εν λόγω «αποτρεπτικό αποτέλεσμα» συνιστά παραβίαση της ιδιωτικής ζωής μας. Η ίδια ευρεία έννοια της ιδιωτικής ζωής θα πρέπει να συμπεριληφθεί στον διάλογο σχετικά με την τεχνητή νοημοσύνη.

3.11

Συντρέχει κίνδυνος τα δεδομένα που συλλέγονται (τώρα ή στο μέλλον) να χρησιμοποιηθούν όχι μόνο για την καταπολέμηση της τρέχουσας πανδημίας αλλά και για την κατάρτιση προφίλ, την κατηγοριοποίηση και τη βαθμολόγηση ατόμων για διαφορετικούς σκοπούς. Θα μπορούσε κάλλιστα να σκεφτεί κανείς ότι ελλοχεύει ο «κίνδυνος αποκλίνουσας εφαρμογής» στο απώτερο μέλλον που θα μπορούσε να οδηγήσει σε ανεπιθύμητους τύπους κατάρτισης προφίλ στους τομείς της παρακολούθησης και της εποπτείας, να παίζει ρόλο στην αποδοχή για ασφάλιση ή κοινωνικές παροχές, στην πρόσληψη ή απόλυση κ.λπ. Συνεπώς, τα δεδομένα που συλλέγονται με τη χρήση των συγκεκριμένων εφαρμογών δεν επιτρέπεται σε καμία περίπτωση να χρησιμοποιούνται για κατάρτιση προφίλ, βαθμολόγηση κινδύνων, κατηγοριοποίηση ή πρόβλεψη.

3.12

Επιπλέον, κάθε λύση τεχνητής νοημοσύνης που χρησιμοποιείται σε αυτές τις έκτακτες περιστάσεις, ακόμα και με τις καλύτερες προθέσεις, θα δημιουργήσει προηγούμενο, είτε μας αρέσει είτε όχι. Προηγούμενες περιπτώσεις κρίσεων έχουν δείξει ότι, παρά τις καλές προθέσεις, τέτοιου είδους μέτρα ουσιαστικά δεν θα καταργηθούν ποτέ.

3.13

Συνεπώς, η χρήση της τεχνητής νοημοσύνης κατά τη διάρκεια της παρούσας πανδημίας θα πρέπει πάντοτε να αξιολογείται με βάση ορισμένες εκτιμήσεις, όπως i) είναι αποτελεσματική και αξιόπιστη; ii) υπάρχουν λιγότερο παρεμβατικές λύσεις; iii) είναι τα οφέλη της σημαντικότερα από τις ανησυχίες κοινωνικού και δεοντολογικού χαρακτήρα και από τις ανησυχίες που συνδέονται με τα θεμελιώδη δικαιώματα; και iv) μπορεί να επιτευχθεί σοβαρός συμβιβασμός μεταξύ αντικρουόμενων θεμελιωδών δικαιωμάτων και ελευθεριών; Επιπλέον, συστήματα τέτοιου είδους δεν επιτρέπεται να τίθενται σε γενικευμένη χρήση υπό οποιαδήποτε μορφή υποχρέωσης ή εξαναγκασμού.

3.14

Η ΕΟΚΕ προτρέπει τους φορείς χάραξης πολιτικής να μην υποκύπτουν με μεγάλη ευκολία στον τεχνολογικό λυσισμό. Δεδομένης της σοβαρότητας της κατάστασης, συνιστάται οι εφαρμογές που συνδέονται με έργα σχεδιασμένα για να συμβάλουν στον έλεγχο της πανδημίας να βασίζονται σε αξιόπιστη έρευνα στην επιδημιολογία, την κοινωνιολογία, την ψυχολογία, το δίκαιο, την ηθική και τις επιστήμες συστημάτων. Πριν από τη λήψη απόφασης για τη χρήση των εν λόγω συστημάτων πρέπει να διεξάγονται αναλύσεις και προσομοιώσεις αποτελεσματικότητας, αναγκαιότητας και ευαισθησίας.

Βρυξέλλες, 16 Ιουλίου 2020.

Ο Πρόεδρος της Ευρωπαϊκής Οικονομικής και Κοινωνικής Επιτροπής

Luca JAHIER