Accept Refuse

EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52016IE5369

Γνωμοδότηση της Ευρωπαϊκής Οικονομικής και Κοινωνικής Επιτροπής με θέμα «Η τεχνητή νοημοσύνη — Η επίδραση της τεχνητής νοημοσύνης στην (ψηφιακή) ενιαία αγορά, στην παραγωγή, στην κατανάλωση, στην απασχόληση και στην κοινωνία» (γνωμοδότηση πρωτοβουλίας)

OJ C 288, 31.8.2017, p. 1–9 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

31.8.2017   

EL

Επίσημη Εφημερίδα της Ευρωπαϊκής Ένωσης

C 288/1


Γνωμοδότηση της Ευρωπαϊκής Οικονομικής και Κοινωνικής Επιτροπής με θέμα «Η τεχνητή νοημοσύνη — Η επίδραση της τεχνητής νοημοσύνης στην (ψηφιακή) ενιαία αγορά, στην παραγωγή, στην κατανάλωση, στην απασχόληση και στην κοινωνία»

(γνωμοδότηση πρωτοβουλίας)

(2017/C 288/01)

Εισηγήτρια: η κ.

Catelijne MULLER

Απόφαση της συνόδου ολομέλειας

22.9.2016

Νομική βάση

Άρθρο 29 παράγραφος 2 του Εσωτερικού Κανονισμού

 

Γνωμοδότηση πρωτοβουλίας

 

 

Αρμόδιο ειδικευμένο τμήμα

Ενιαία αγορά, παραγωγή και κατανάλωση

Υιοθετήθηκε από το ειδικευμένο τμήμα

4.5.2017

Υιοθετήθηκε από την ολομέλεια

31.5.2017

Σύνοδος ολομέλειας αριθ.

526

Αποτέλεσμα της ψηφοφορίας

(υπέρ/κατά/αποχές)

159/3/14

1.   Συμπεράσματα και συστάσεις

1.1

Η τεχνητή νοημοσύνη γνωρίζει επί του παρόντος μια σειρά σημαντικών εξελίξεων και βρίσκει ταχέως διάφορες εφαρμογές εντός της κοινωνίας. Η αγορά της τεχνητής νοημοσύνης ανέρχεται περίπου στα 664 εκατ. δολάρια ΗΠΑ και εκτιμάται ότι έως το έτος 2025 θα έχει ανέλθει περίπου στα 38,8 δισ. δολάρια. Δεδομένου ότι η τεχνητή νοημοσύνη μπορεί να επηρεάσει την κοινωνία τόσο θετικά όσο και αρνητικά, η ΕΟΚΕ παρακολουθεί εκ του σύνεγγυς τις εξελίξεις στον τομέα αυτόν, όχι μόνο από τεχνικής άποψης, αλλά και ως προς τα ζητήματα ηθικής, κοινωνίας και ασφάλειας.

1.2

Ως εκπρόσωπος της ευρωπαϊκής κοινωνίας πολιτών, η ΕΟΚΕ πρόκειται, κατά το επόμενο χρονικό διάστημα, να δρομολογήσει, να συγκεντρώσει και να ενθαρρύνει την ανάπτυξη κοινωνικό προβληματισμού με θέμα την τεχνητή νοημοσύνη και να μεριμνήσει για τη συμμετοχή στη διαδικασία αυτή όλων των συναρμοδίων, δηλαδή: των αρμοδίων χάραξης πολιτικής, της βιομηχανίας, των κοινωνικών εταίρων, των καταναλωτών, των μη κυβερνητικών οργανώσεων (ΜΚΟ), των μονάδων περίθαλψης, των εκπαιδευτικών ιδρυμάτων, καθώς και ειδημόνων και πανεπιστημιακών διαφόρων κλάδων, όπως η τεχνητή νοημοσύνη, η ασφάλεια, η ηθική, η οικονομία, οι επιστήμες της συμπεριφοράς και της εργασίας, η νομική, η ψυχολογία και η φιλοσοφία.

1.3

Όσο σημαντική και αν είναι, η προβληματική για την υπερνοημοσύνη κυριαρχεί επί του παρόντος και επισκιάζει τον διάλογο με θέμα την επίδραση των σημερινών εφαρμογών της τεχνητής νοημοσύνης. Επομένως, η αποστολή και ο σκοπός αυτής της διεργασίας θα είναι, κατά κύριο λόγο, η ανάπτυξη και η διεύρυνση των γνώσεων για την τεχνητή νοημοσύνη και, ως εκ τούτου, η συμβολή σε έναν εμπεριστατωμένο και ισορροπημένο διάλογο, αποφεύγοντας τους σκοπέλους με τα δυσμενέστερα πιθανά σενάρια ή την υπερβολική σχετικοποίηση. Επιπλέον, η ΕΟΚΕ θα μεριμνήσει για την προαγωγή της ανάπτυξης της τεχνητής νοημοσύνης προς όφελος της ανθρωπότητας. Ωστόσο, σημαντική αποστολή και στόχος της διαδικασίας αυτής θα είναι επίσης η καταγραφή, ο εντοπισμός και ο έλεγχος των ριζοσπαστικών εξελίξεων στα της ανάπτυξης της τεχνητής νοημοσύνης και στα συναφή πεδία, έτσι ώστε να μπορούν να αντιμετωπίζονται καταλλήλως και εγκαίρως. Αυτό θα ενισχύει την προσήλωση της κοινωνίας και την ακλόνητη εμπιστοσύνη και υποστήριξή της υπέρ της βιώσιμης ανάπτυξης και της διάδοσης της τεχνητής νοημοσύνης.

1.4

Καθότι η επίδραση της τεχνητής νοημοσύνης υπερβαίνει τα εθνικά σύνορα, πρέπει επίσης να εφαρμοστούν υπερεθνικά στρατηγικά πλαίσια. Η ΕΟΚΕ πιστεύει ότι η ΕΕ πρέπει να διαδραματίσει ηγετικό ρόλο στην παγκόσμια σκηνή για την έγκριση σαφών και καθολικών στρατηγικών πλαισίων σε θέματα τεχνητής νοημοσύνης, τα οποία θα είναι σύμφωνα με τις ευρωπαϊκές αξίες και τα θεμελιώδη δικαιώματα. Από την πλευρά της, η ΕΟΚΕ μπορεί και θέλει να συμβάλει προς αυτή την κατεύθυνση.

1.5

Η ΕΟΚΕ επισημαίνει επί του παρόντος τους εξής έντεκα τομείς στους οποίους η τεχνητή νοημοσύνη θέτει ορισμένα κοινωνικά ζητήματα: ηθική, ασφάλεια, ιδιωτικός βίος, διαφάνεια και λογοδοσία, εργασία, εκπαίδευση και δεξιότητες, (αν)ισότητα και ένταξη, νομοθεσία και κανονιστικές ρυθμίσεις, διοίκηση και δημοκρατία, πόλεμος, υπερνοημοσύνη. Ακολούθως διατυπώνονται ορισμένες προτάσεις.

1.6

Η ΕΟΚΕ τάσσεται υπέρ του ελέγχου της τεχνητής νοημοσύνης από τον άνθρωπο (human-in-command), προϋποθέσεις του οποίου είναι η υπεύθυνη, ασφαλής και ωφέλιμη ανάπτυξη της τεχνητής νοημοσύνης στο πλαίσιο της οποίας οι μηχανές παραμένουν μηχανές, υπό τον μόνιμο έλεγχο των ανθρώπων.

1.7

Η ΕΟΚΕ τάσσεται υπέρ της θέσπισης ενός κώδικα δεοντολογίας για την ανάπτυξη, τη διάδοση και τη χρήση της τεχνητής νοημοσύνης, έτσι ώστε τα συστήματα τεχνητής νοημοσύνης να παραμένουν —καθ’ όλη τη διάρκεια της διαδικασίας εκμετάλλευσης— συμβατά με τις αρχές της ανθρώπινης αξιοπρέπειας, ακεραιότητας και ελευθερίας, του σεβασμού του ιδιωτικού βίου, της πολιτισμικής πολυμορφίας και της ισότητας μεταξύ ανδρών και γυναικών, καθώς και με τα θεμελιώδη δικαιώματα.

1.8

Η ΕΟΚΕ υποστηρίζει τη δημιουργία ενός συστήματος τυποποίησης για την επαλήθευση, την επικύρωση και τον έλεγχο των συστημάτων τεχνητής νοημοσύνης, το οποίο θα βασίζεται σε ένα ευρύ φάσμα προτύπων ασφάλειας, διαφάνειας, αναγνωσιμότητας, υποχρέωσης λογοδοσίας και ηθικών αξιών.

1.9

Η ΕΟΚΕ φρονεί ότι πρέπει η ΕΕ να αναπτύξει τη δική της ευρωπαϊκή υποδομή τεχνητής νοημοσύνης, η οποία θα περιλαμβάνει μαθησιακά πλαίσια ανοικτής πηγής (open source) με σεβασμό προς τον ιδιωτικό βίο του ατόμου, περιβάλλοντα δοκιμών σε πραγματικές συνθήκες και σύνολα δεδομένων υψηλής ποιότητας για την ανάπτυξη και την «εκπαίδευση» συστημάτων τεχνητής νοημοσύνης. Εφιστάται η προσοχή στο (ανταγωνιστικό) πλεονέκτημα στην παγκόσμια αγορά που ενδέχεται να συνεπάγονται για την ΕΕ η ανάπτυξη και η προαγωγή —πιστοποιημένων σε ευρωπαϊκό επίπεδο— συστημάτων τεχνητής νοημοσύνης, στα οποία η τεχνητή νοημοσύνη θα υπόκειται σε ενωσιακή πιστοποίηση και επισήμανση.

1.10

Η ΕΕ, οι εθνικές αρχές και οι κοινωνικοί εταίροι πρέπει να εντοπίζουν από κοινού ποιοι κλάδοι της αγοράς εργασίας θα επηρεαστούν από την τεχνητή νοημοσύνη, σε ποιο βαθμό και σε τι χρονικό διάστημα, και να βρίσκουν λύσεις για την αντιμετώπιση του αντικτύπου αυτής της διεργασίας στην απασχόληση, στο περιεχόμενο της εργασίας, στα συστήματα κοινωνικής ασφάλισης και στην (αν)ισότητα. Πρέπει επίσης να πραγματοποιηθούν επενδύσεις στους τομείς της αγοράς εργασίας στους οποίους η τεχνητή νοημοσύνη έχει μικρή ή καθόλου επίδραση.

1.11

Η ΕΟΚΕ συνιστά οι συναρμόδιοι να ταχθούν από κοινού υπέρ συμπληρωματικών συστημάτων τεχνητής νοημοσύνης και της κοινής εφαρμογής τους στον χώρο εργασίας. Θα μπορούσε να εξεταστεί π.χ. η δημιουργία ομάδων ανθρώπου — μηχανής μέσω των οποίων η τεχνητή νοημοσύνη θα συμπληρώνει και θα βελτιώνει τις ανθρώπινες επιδόσεις. Επίσης, πρέπει οι συναρμόδιοι να επενδύουν στην τυπική και άτυπη μάθηση, στην εκπαίδευση και στην κατάρτιση για όλους, έτσι ώστε να μπορούν όλοι να εργάζονται με συστήματα τεχνητής νοημοσύνης αλλά και για να αναπτυχθούν οι δεξιότητες που δεν θα διαθέτει ή δεν θα μπορεί να διαθέτει η τεχνητή νοημοσύνη.

1.12

Πλέον πρέπει να ξεκινήσει η ειδική αξιολόγηση της νομοθεσίας και των κανονιστικών ρυθμίσεων της ΕΕ στα έξι πεδία που έχει καθορίσει η μονάδα διερεύνησης επιστημονικών προοπτικών της ομάδας Αξιολόγησης Επιστημονικών και Τεχνολογικών Επιλογών (science and technology options assessment — STOA) και τα οποία είναι πιθανόν να αναθεωρηθούν ή να επικαιροποιηθούν. Η ΕΟΚΕ μπορεί και θέλει να συμμετάσχει στην εν λόγω διαδικασία αξιολόγησης. Η ΕΟΚΕ αντιτίθεται στη θέσπιση μιας μορφής νομικής προσωπικότητας για τα ρομπότ ή την τεχνητή νοημοσύνη. H προληπτική και διορθωτική επίδραση του δικαίου περί αστικής ευθύνης θα καθίστατο κενή περιεχομένου. Επιπλέον, κάτι τέτοιο θα δημιουργούσε δυνατότητες κατάχρησης αλλά και ηθικούς κινδύνους όσον αφορά την ανάπτυξη, αλλά και τη χρήση της τεχνητής νοημοσύνης.

1.13

Η ανάπτυξη ωφέλιμων για την κοινωνία εφαρμογών τεχνητής νοημοσύνης που ευνοούν την κοινωνική ενσωμάτωση και βελτιώνουν τη ζωή των ανθρώπων πρέπει να ενθαρρύνεται και να προωθείται ενεργά, τόσο στη δημόσια όσο και στην ιδιωτική σφαίρα. Η Ευρωπαϊκή Επιτροπή πρέπει, μέσω των προγραμμάτων της, να χρηματοδοτεί την έρευνα με θέμα την κοινωνική επίδραση της τεχνητής νοημοσύνης καθώς και των ενωσιακής χρηματοδότησης καινοτομιών στα της τεχνητής νοημοσύνης.

1.14

Η ΕΟΚΕ υποστηρίζει την έκκληση απαγόρευσης των συστημάτων αυτόνομων όπλων που απηύθυναν η Human Rights Watch και άλλες οργανώσεις. Εκφράζει την ικανοποίησή της για τη διαβούλευση που αναγγέλθηκε επί του θέματος στο πλαίσιο των Ηνωμένων Εθνών, αλλά εκτιμά ότι θα πρέπει να αφορά και τις εφαρμογές της τεχνητής νοημοσύνης στον τομέα του πολέμου στον κυβερνοχώρο.

2.   Η τεχνητή νοημοσύνη

2.1

Δεν υπάρχει μοναδικός και ακριβής ορισμός της τεχνητής νοημοσύνης. Πρόκειται για μια έννοια που περιλαμβάνει μεγάλο αριθμό (υπο-)τομέων όπως η γνωσιακή υπολογιστική (cognitive computing, δηλ. αλγόριθμοι που σκέπτονται και μαθαίνουν σε ανώτερο επίπεδο, ήτοι πιο ανθρώπινο), η μηχανική μάθηση (machine learning, δηλ. αλγόριθμοι που μαθαίνουν αυτόνομα να εκτελούν εργασίες), η επαυξημένη νοημοσύνη (augmented intelligence, δηλ. η συνεργασία ανθρώπου και μηχανής) και η έξυπνη ρομποτική (τεχνητή νοημοσύνη ενσωματωμένη σε ρομπότ). Κύριος στόχος της έρευνας και της ανάπτυξης σε θέματα τεχνητής νοημοσύνης είναι, ωστόσο, η αυτοματοποίηση των ευφυών συμπεριφορών, μεταξύ άλλων της ικανότητας κριτικής σκέψης, της συλλογής πληροφοριών, του σχεδιασμού, της μάθησης, της επικοινωνίας, του χειρισμού, της αναφοράς, ακόμη και της δημιουργίας, του ονείρου και της αντίληψης.

2.2

Γενικότερα, γίνεται διάκριση μεταξύ δύο τύπων τεχνητής νοημοσύνης: της στενής τεχνητής νοημοσύνης (narrow AI) και της γενικής τεχνητής νοημοσύνης (general AI). Η μεν στενή τεχνητή νοημοσύνη μπορεί να εκτελέσει συγκεκριμένες εργασίες. Η δε γενική τεχνητή νοημοσύνη είναι σε θέση να εκτελέσει όλες τις διανοητικές εργασίες που μπορεί να εκτελέσει ένας άνθρωπος.

2.3

Τον τελευταίο καιρό, έχει σημειωθεί σημαντική πρόοδος στον τομέα της στενής τεχνητής νοημοσύνης, κυρίως χάρη στην αύξηση της υπολογιστικής ισχύος των ηλεκτρονικών υπολογιστών, στη διάθεση μεγάλου όγκου δεδομένων και στην ανάπτυξη της μηχανικής μάθησης. Όσον αφορά τη μηχανική μάθηση, οι αλγόριθμοι μπορούν να μάθουν να εκτελούν συγκεκριμένα καθήκοντα με αυτόνομο τρόπο, χωρίς ειδικό προγραμματισμό. Η μέθοδος αυτή στηρίζεται στην επεξεργασία δεδομένων μάθησης βάσει των οποίων ο αλγόριθμος μαθαίνει να αναγνωρίζει μοντέλα και να καθορίζει κανόνες. Η εις βάθος μάθηση (deep learning), ένα είδος μηχανικής μάθησης, χρησιμοποιεί δομές (neuronal networks/νευρωνικά δίκτυα) εμπνευσμένες από ορισμένες λειτουργίες του ανθρώπινου εγκεφάλου που αντλούν τη μάθησή τους από την εμπειρία και από την ανατροφοδότηση. Χάρη σε αυτήν την εξέλιξη, τα συστήματα τεχνητής νοημοσύνης μπορούν πλέον —μέσω αλγορίθμων— να είναι αυτόνομα, προσαρμοστικά και ικανά να μαθαίνουν αυτομάτως.

2.4

Εδώ και λίγο καιρό, η έρευνα και η ανάπτυξη στον τομέα της τεχνητής νοημοσύνης επικεντρώνονται στην κριτική σκέψη, στην απόκτηση γνώσεων, στον σχεδιασμό, στην επικοινωνία και στις αντιλήψεις (οπτική, ακουστική και αισθητηριακή). Αυτό κατέστησε δυνατή την ανάπτυξη πολυάριθμων εφαρμογών που βασίζονται στην τεχνητή νοημοσύνη: εικονικοί βοηθοί, αυτόνομα οχήματα, αυτόματη συνάθροιση πληροφοριών, αναγνώριση φωνής, λογισμικά μετάφρασης, λογισμικά μετατροπής κειμένου σε συνθετική ομιλία (text-to-speak), αυτοματοποιημένες χρηματοπιστωτικές συναλλαγές, ηλεκτρονική αναζήτηση δεδομένων δικαστικού χαρακτήρα (e-discovery) κ.λπ.

2.5

Η ΕΟΚΕ εφιστά την προσοχή στο γεγονός ότι ο αριθμός των εφαρμογών στον τομέα αυτόν και ο όγκος των επενδύσεων στην τεχνητή νοημοσύνη έχει προσφάτως αυξηθεί εκθετικά. Η αγορά της τεχνητής νοημοσύνης ανέρχεται περίπου σε 664 εκατ. δολάρια ΗΠΑ και εκτιμάται ότι έως το έτος 2025 θα έχει ανέλθει περίπου στα 38,8 δισ. δολάρια.

3.   Θετικές προοπτικές και κίνδυνοι που συνδέονται με την τεχνητή νοημοσύνη

3.1

Σχεδόν κανένας δεν αμφισβητεί ότι η τεχνητή νοημοσύνη μπορεί να αποφέρει πολλά οφέλη στην κοινωνία. Αρκεί να αναλογιστούμε τις εφαρμογές που αποσκοπούν στην επίτευξη πιο βιώσιμης γεωργίας, μεγαλύτερης οδικής ασφάλειας, σταθερότερου χρηματοπιστωτικού συστήματος, λιγότερο ρυπογόνων παραγωγικών διεργασιών, ιατρικών επιτευγμάτων, μεγαλύτερης ασφάλειας στον χώρο εργασίας, περισσότερο εξατομικευμένης εκπαίδευσης, καλύτερης δικαιοσύνης και μιας ασφαλέστερης κοινωνίας. Ενδέχεται να συμβάλει ακόμη και στην εξάλειψη ορισμένων νόσων και της φτώχειας. Η τεχνητή νοημοσύνη μπορεί επίσης να συμβάλει σημαντικά στην ανάπτυξη της βιομηχανίας και στην ενίσχυση της ανταγωνιστικότητας της ΕΕ.

3.2

Εντούτοις, όπως όλες οι ανατρεπτικές τεχνολογίες, η τεχνητή νοημοσύνη εμπεριέχει ορισμένους κινδύνους και πολυσύνθετες στρατηγικές προκλήσεις όσον αφορά την ασφάλεια και τη δυνατότητα ελέγχου, τις κοινωνικοοικονομικές πτυχές, τη δεοντολογία και την προστασία του ιδιωτικού βίου, την αξιοπιστία κτλ.

3.3

Βρισκόμαστε σε κρίσιμη καμπή όσον αφορά τη δημιουργία των συνθηκών (πλαίσιο) για την τρέχουσα και μελλοντική ανάπτυξη και διάδοση της τεχνητής νοημοσύνης. Αυτά τα πλεονεκτήματα της τεχνητής νοημοσύνης μπορούν να επιτευχθούν μακροπρόθεσμα μόνον εφόσον αντιμετωπιστούν καταλλήλως οι συναφείς προκλήσεις και γι’ αυτό θα πρέπει να γίνουν ορισμένες πολιτικές επιλογές.

1)

Ηθική

3.4

Η ανάπτυξη της τεχνητής νοημοσύνης εγείρει πολλά ηθικά ζητήματα. Ποια είναι η επίδραση της τεχνητής νοημοσύνης στην προσωπική μας ακεραιότητα, αυτονομία, αξιοπρέπεια, ανεξαρτησία, ισότητα, ασφάλεια και ελευθερία επιλογής; Πώς μπορεί να διασφαλιστεί ότι εξακολουθούν να τηρούνται και να κατοχυρώνονται οι θεμελιώδεις κανόνες μας, οι αξίες μας και τα ανθρώπινα δικαιώματα;

3.5

Ως προς τούτο, είναι σκόπιμο να επισημανθεί ότι, επί του παρόντος, η ανάπτυξη της τεχνητής νοημοσύνης συντελείται σε ένα ομοιογενές περιβάλλον αποτελούμενο κυρίως από νέους άνδρες της λευκής φυλής, γεγονός που οδηγεί (εσκεμμένα ή όχι) στην παγίωση στον κόσμο της τεχνητής νοημοσύνης των πολιτισμικών ανισοτήτων και των ανισοτήτων μεταξύ των φύλων, μεταξύ άλλων επειδή τα συστήματα τεχνητής νοημοσύνης μαθαίνουν βάσει δεδομένων εκπαιδευτικού χαρακτήρα. Κρίνεται σκόπιμο τα δεδομένα αυτά να είναι πρωτίστως ορθά, αλλά και ποιοτικά, διαφοροποιημένα, επαρκώς εμπεριστατωμένα και αντικειμενικά. Πιστεύεται γενικά ότι τα δεδομένα είναι εξ ορισμού αντικειμενικά, πρόκειται, όμως, για εσφαλμένη άποψη. Τα δεδομένα χειραγωγούνται εύκολα και ενδέχεται να είναι μονομερή, να επηρεάζονται από προτιμήσεις και προκαταλήψεις πολιτισμικού χαρακτήρα, ως προς το φύλο ή άλλου είδους, ή να είναι ακόμη και εσφαλμένα.

3.6

Τα συστήματα τεχνητής νοημοσύνης που βρίσκονται στο στάδιο της ανάπτυξης δεν περιλαμβάνουν ενσωματωμένες ηθικές αξίες. Εναπόκειται στους ανθρώπους να τις εισάγουν στα συστήματα τεχνητής νοημοσύνης και στο περιβάλλον στο οποίο αυτά εξελίσσονται. Η ανάπτυξη, η διάδοση και η χρήση συστημάτων τεχνητής νοημοσύνης (δημόσιων και εμπορικών) πρέπει να συντελούνται εντός των ορίων των κανόνων, των αξιών και των θεμελιωδών ελευθεριών μας, καθώς και των ανθρωπίνων δικαιωμάτων. Επομένως, η ΕΟΚΕ ζητεί να καταρτιστεί και να θεσπιστεί ένας ενιαίος κώδικας δεοντολογίας που θα εφαρμόζεται σε παγκόσμια κλίμακα για την ανάπτυξη, τη διάδοση και τη χρήση της τεχνητής νοημοσύνης.

2)

Ασφάλεια

3.7

Αδιαμφισβήτητα, η χρήση της τεχνητής νοημοσύνης στον πραγματικό κόσμο εγείρει ορισμένα ζητήματα ασφάλειας και θα μπορούσε να γίνει μια διάκριση μεταξύ της εσωτερικής και της εξωτερικής ασφάλειας:

Εσωτερική ασφάλεια: Είναι άραγε το σύστημα τεχνητής νοημοσύνης αρκετά σταθερό ώστε να (συνεχίσει να) λειτουργεί σωστά; Έχει προγραμματιστεί όπως πρέπει ο αλγόριθμος; Υπάρχει κίνδυνος να πάψει να λειτουργεί ή να υποστεί δικτυοπαραβίαση; Είναι αποτελεσματικό; Είναι αξιόπιστο;

Εξωτερική ασφάλεια: Πραγματοποιείται με απόλυτη ασφάλεια η χρήση του συστήματος τεχνητής νοημοσύνης στην κοινωνία; Λειτουργεί άραγε με απόλυτη ασφάλεια, όχι μόνο σε μια φυσιολογική κατάσταση, αλλά και σε καταστάσεις άγνωστες, επικίνδυνες ή απρόβλεπτες; Ποια είναι η επίδραση της ικανότητας αυτοδιδασκαλίας του συστήματος στην ασφάλεια, ακόμη και όταν το σύστημα συνεχίζει να μαθαίνει μετά την έναρξη λειτουργίας του;

3.8

Η ΕΟΚΕ εκτιμά ότι τα συστήματα τεχνητής νοημοσύνης μπορούν να χρησιμοποιούνται μόνον εφόσον πληρούνται συγκεκριμένες προϋποθέσεις εσωτερικής και εξωτερικής ασφάλειας. Τις προϋποθέσεις αυτές πρέπει να καθορίσουν από κοινού οι αρμόδιοι χάραξης πολιτικής, οι ειδικοί στα της τεχνητής νοημοσύνης και της ασφάλειας, οι επιχειρήσεις και οι οργανώσεις της κοινωνίας πολιτών.

3)

Διαφάνεια, αναγνωσιμότητα, δυνατότητα ελέγχου και λογοδοσίας

3.9

Η αποδοχή και η βιώσιμη ανάπτυξη και εφαρμογή της τεχνητής νοημοσύνης συμβαδίζουν με τη δυνατότητα κατανόησης, ελέγχου και εξήγησης της λειτουργίας, των ενεργειών και των αποφάσεων των συστημάτων τεχνητής νοημοσύνης, ιδίως εκ των υστέρων.

3.10

Οι ενέργειες και οι αποφάσεις των συστημάτων τεχνητής νοημοσύνης (ως απόρροια ευφυών αλγορίθμων) επηρεάζουν ολοένα και περισσότερο τη ζωή των ανθρώπων. Τούτο συμβαίνει, για παράδειγμα, στην περίπτωση της εφαρμογής της τεχνητής νοημοσύνης στην αστυνόμευση βάσει πληροφοριών, στην αξιολόγηση αιτήσεων για ενυπόθηκα δάνεια ή στις διαδικασίες έγκρισης ασφαλιστικής κάλυψης. Εν προκειμένω, η αναγνωσιμότητα και η δυνατότητα ελέγχου της διαδικασίας λήψης αποφάσεων ενός συστήματος τεχνητής νοημοσύνης, καθώς και η δυνατότητα λογοδοσίας του, είναι ζητήματα ζωτικής σημασίας.

3.11

Ήδη, πολλά συστήματα τεχνητής νοημοσύνης είναι πολύ δυσνόητα για τους χρήστες. Το ίδιο όμως συμβαίνει ολοένα συχνότερα και για τους σχεδιαστές των συστημάτων αυτών. Πιο συγκεκριμένα, τα νευρωνικά δίκτυα είναι συχνά μαύρα κουτιά όπου συντελούνται διεργασίες (λήψης αποφάσεων) οι οποίες έχουν καταστεί ακατανόητες και για τις οποίες δεν παρέχεται κανένα επεξηγηματικό εγχειρίδιο.

3.12

Η ΕΟΚΕ τάσσεται υπέρ των διαφανών, κατανοητών και ελέγξιμων συστημάτων τεχνητής νοημοσύνης, η λειτουργία των οποίων θα είναι δυνατόν να εξηγείται και εκ των υστέρων. Πρέπει, εξάλλου, να οριστεί ποιες διεργασίες λήψης αποφάσεων θα μπορούν να ανατίθενται σε συστήματα τεχνητής νοημοσύνης και ποιες όχι, καθώς και πότε πρέπει να προτιμάται ή να θεωρείται υποχρεωτική η ανθρώπινη παρέμβαση.

4)

Σεβασμός του ιδιωτικού βίου

3.13

Ο σεβασμός του ιδιωτικού βίου προκειμένου για τα συστήματα τεχνητής νοημοσύνης είναι ζήτημα που προξενεί ανησυχία. Δεν είναι λίγα τα (καταναλωτικά) προϊόντα με ενσωματωμένο ήδη ένα σύστημα τεχνητής νοημοσύνης: έξυπνες ηλεκτρικές οικιακές συσκευές, έξυπνα παιχνίδια, έξυπνα αυτοκίνητα, έξυπνα ρολόγια και έξυπνα περικάρπια ή ακόμη και έξυπνα τηλέφωνα. Όλα τα προϊόντα αυτά μεταδίδουν δεδομένα (συχνά προσωπικού χαρακτήρα) σε πλατφόρμες στο υπολογιστικό νέφος των παραγωγών. Το ζήτημα της επαρκούς προστασίας του ιδιωτικού βίου τίθεται ακόμη πιο επιτακτικά για τον πρόσθετο λόγο ότι η εμπορία δεδομένων, δηλαδή η πώληση σε τρίτους δεδομένων που συλλέγονται από τον κατασκευαστή, βρίσκεται σε πλήρη άνθηση.

3.14

Επιπροσθέτως, η τεχνητή νοημοσύνη μπορεί, χάρη στην ανάλυση πολύ μεγάλου αριθμού δεδομένων (συχνά) προσωπικού χαρακτήρα, να επηρεάζει τις επιλογές του ατόμου σε πολλά πεδία (από τις εμπορικές επιλογές έως τις εκλογές και τα δημοψηφίσματα). Εξάλλου, τα παιδιά αποτελούν μια ιδιαίτερα ευάλωτη ομάδα και η ΕΟΚΕ εκφράζει την ανησυχία της για τις εφαρμογές τεχνητής νοημοσύνης που αποβλέπουν σαφώς στην επιρροή της συμπεριφοράς και των επιθυμιών των παιδιών.

3.15

Πρέπει να αποφεύγεται ο περιορισμός της πραγματικής ή εκλαμβανόμενης ελευθερίας των προσώπων λόγω της εφαρμογής της τεχνητής νοημοσύνης στα προσωπικά δεδομένα. Ο γενικός κανονισμός της ΕΕ περί της προστασίας των δεδομένων προβλέπει την ενισχυμένη προστασία του ιδιωτικού βίου όσον αφορά τα δεδομένα προσωπικού χαρακτήρα που διαβιβάζονται ψηφιακά. Πρέπει να εξετάζεται προσεκτικά, βάσει των εξελίξεων στον τομέα της τεχνητής νοημοσύνης, εάν κατοχυρώνονται επαρκώς στην πράξη τόσο το δικαίωμα του ατόμου στην εν επιγνώσει συναίνεση και την ελεύθερη επιλογή κατά τη διαβίβαση των δεδομένων όσο και το δικαίωμά του να προσπελάζει, να προσαρμόζει και να επαληθεύει τα διαβιβαζόμενα δεδομένα.

5)

Κανόνες και υποδομές

3.16

Πρέπει να αναπτυχθούν νέες διαδικασίες τυποποίησης για την επαλήθευση και την επικύρωση των συστημάτων τεχνητής νοημοσύνης, οι οποίες θα πρέπει να βασίζονται σε μεγάλο φάσμα κανόνων, έτσι ώστε να καθίσταται δυνατή η αξιολόγηση και ο έλεγχος της ασφάλειας, της διαφάνειας, της αναγνωσιμότητας, της δυνατότητας λογοδοσίας και της ηθικής υπευθυνότητας των συστημάτων τεχνητής νοημοσύνης.

3.17

Η ΕΟΚΕ φρονεί ότι πρέπει η ΕΕ να αναπτύξει τη δική της υποδομή τεχνητής νοημοσύνης, η οποία θα περιλαμβάνει αφ’ ενός μεν μαθησιακά πλαίσια ανοικτής πηγής με σεβασμό προς τον ιδιωτικό βίο του ατόμου, αφ’ ετέρου δε σύνολα δεδομένων υψηλής ποιότητας για την ανάπτυξη και την «εκπαίδευση» συστημάτων τεχνητής νοημοσύνης. Η προαγωγή συστημάτων τεχνητής νοημοσύνης πιστοποιημένων σε ευρωπαϊκό επίπεδο μπορεί επίσης να δώσει στην ΕΕ (ανταγωνιστικό) πλεονέκτημα στην παγκόσμια αγορά. Η ΕΟΚΕ συνιστά εν προκειμένω να εξεταστούν οι δυνατότητες ευρωπαϊκής πιστοποίησης και επισήμανσης των συστημάτων τεχνητής νοημοσύνης.

6)

Η επίδραση της τεχνητής νοημοσύνης στην εργασία, στην απασχόληση, στις συνθήκες εργασίας και στα συστήματα κοινωνικής ασφάλισης

3.18

Οι γνώμες διίστανται όσον αφορά την ταχύτητα και τον βαθμό στον οποίο θα συντελεστεί αυτή η επίδραση, αλλά είναι προφανές ότι η τεχνητή νοημοσύνη θα επηρεάσει τον τομέα της απασχόλησης, καθώς και τη φύση και τον χαρακτήρα πολλών θέσεων εργασίας και, επομένως, τα συστήματα κοινωνικής ασφάλισης.

3.19

Για τους Brynjolfsson και McAfee (του πανεπιστημίου MIT), οι τρέχουσες τεχνολογικές πρόοδοι (συμπεριλαμβανομένης της τεχνητής νοημοσύνης) αποτελούν τη δεύτερη περίοδο της μηχανοποίησης. Εντούτοις, υπάρχουν δύο σημαντικές διαφορές: α) τα «παλαιά» μηχανήματα είχαν εν πολλοίς αντικαταστήσει τη μυϊκή δύναμη, ενώ σήμερα τα νέα μηχανήματα αντικαθιστούν πνευματικές υπηρεσίες και βασικές γνωσιακές δεξιότητες, γεγονός που επηρεάζει όχι μόνο τους εργαζομένους χαμηλής ειδίκευσης, αλλά και τους εργαζομένους με πτυχίο, και β) η τεχνητή νοημοσύνη αποτελεί μια τεχνολογία γενικής εφαρμογής (general purpose technology) που επιδρά σε όλους σχεδόν τους τομείς ταυτοχρόνως.

3.20

Η τεχνητή νοημοσύνη μπορεί να προσφέρει πραγματικά πλεονεκτήματα όσον αφορά ορισμένες επικίνδυνες, επίπονες, κοπιαστικές, βρώμικες, δυσάρεστες, επαναλαμβανόμενες ή πληκτικές δραστηριότητες. Σημειώνεται, ωστόσο, ότι οι εργασίες που μπορούν να συστηματοποιηθούν, η επεξεργασία και η ανάλυση δεδομένων ή ακόμη και οι εργασίες που συνίστανται ουσιαστικά στον σχεδιασμό και στην πρόβλεψη —και οι οποίες εκτελούνται συχνά από άτομα υψηλής ειδίκευσης— είναι ολοένα και περισσότερο δυνατόν να πραγματοποιούνται από συστήματα τεχνητής νοημοσύνης.

3.21

Ωστόσο, οι περισσότερες θέσεις εργασίας περιλαμβάνουν πολλές και διάφορες δραστηριότητες. Άρα, ο κίνδυνος της ανάληψης όλων των επαγγελματικών δραστηριοτήτων ενός προσώπου από συστήματα τεχνητής νοημοσύνης ή από ρομπότ δείχνει μηδαμινός. Εντούτοις, πρακτικά, όλοι θα έρθουν αντιμέτωποι με την αυτοματοποίηση ενός μέρους των επαγγελματικών τους δραστηριοτήτων. Ο χρόνος που θα απελευθερωθεί κατ’ αυτόν τον τρόπο μπορεί να αφιερωθεί σε άλλα καθήκοντα, υπό την προϋπόθεση ότι οι δημόσιες αρχές και οι κοινωνικοί εταίροι θα καταβάλλουν, εν προκειμένω, την απαραίτητη προσπάθεια. Συναφώς, πρέπει να ληφθεί υπόψη η επιρροή που μπορεί να έχουν οι εν λόγω εξελίξεις στους εργαζομένους και στα ανώτατα διοικητικά στελέχη και πρέπει να προαχθεί η συμμετοχή τους στη διεργασία αυτή, έτσι ώστε να τη διατηρούν υπό τον έλεγχό τους και να μην γίνονται θύματά της.

3.22

Επιπλέον, θα προκύψουν νέες θέσεις εργασίας. Κανείς δεν μπορεί να προβλέψει ακόμη τι θέσεις θα είναι αυτές, ποιος θα είναι ο αριθμός τους, ούτε με τι ταχύτητα θα δημιουργηθούν. Επιχειρήσεις όπως η Google και το Facebook κατορθώνουν να παράγουν σημαντική αξία με σχετικά μικρό αριθμό εργαζομένων. Εντούτοις, οι νέες θέσεις εργασίας που δημιουργούνται δεν είναι πάντα ποιοτικές. Με την συνέχιση της ανάπτυξης της τεχνητής νοημοσύνης, εκφράζεται ο φόβος μήπως απομείνουν σύντομα μόνο ορισμένες χαμηλά αμειβόμενες μικρο-εργασίες για μια ολοένα διευρυνόμενη ομάδα ευέλικτων εργαζομένων.

3.23

Η τεχνητή νοημοσύνη θα επηρεάσει όχι μόνο τον όγκο της εργασίας, αλλά και τη φύση της εκτελούμενης εργασίας. Τα συστήματα τεχνητής νοημοσύνης προσφέρουν ολοένα περισσότερες δυνατότητες παρακολούθησης και επίβλεψης των εργαζομένων, γεγονός που κινδυνεύει να πλήξει την αυτονομία και τον σεβασμό του ιδιωτικού βίου τους. Ήδη από σήμερα, η εργασία καθορίζεται και κατανέμεται συχνά από αλγoρίθμους, χωρίς καμία ανθρώπινη παρέμβαση. Αυτό έχει αντίκτυπο στη φύση και στις συνθήκες της εργασίας. Συν τοις άλλοις, η χρήση συστημάτων τεχνητής νοημοσύνης μπορεί να επιφέρει επίσης υποβάθμιση των δραστηριοτήτων και απώλεια σημαντικών δεξιοτήτων.

3.24

Εντούτοις, το γεγονός είναι ότι δεν είμαστε έρμαια της τεχνολογίας. Οι δημόσιες αρχές και οι κοινωνικοί εταίροι έχουν τη δυνατότητα να καθορίζουν τον τρόπο με τον οποίο η τεχνητή νοημοσύνη θα συνεχίσει να αναπτύσσεται και να εφαρμόζεται στο πλαίσιο της επαγγελματικής δραστηριότητας, και οφείλουν να αδράξουν την ευκαιρία με τρόπο εμφατικό. Δεν πρέπει να επικεντρωνόμαστε εν προκειμένω μόνο σε όσα μπορούν να πραγματοποιηθούν χάρη στην τεχνητή νοημοσύνη, αλλά περισσότερο να αναρωτηθούμε τι είναι σε θέση να κάνουν οι άνθρωποι (δημιουργικότητα, ενσυναίσθηση, συνεργασία), ποιες εργασίες θέλουμε να συνεχίσουμε να εκτελούμε μόνοι μας, και να αναζητήσουμε λύσεις που επιτρέπουν να βελτιωθεί η συνεργασία μεταξύ ανθρώπου και μηχανής (συμπληρωματικότητα).

3.25

Η επαυξημένη νοημοσύνη (augmented intelligence — συμπληρωματικότητα) —βάσει της οποίας ο άνθρωπος και η μηχανή συνεργάζονται και αλληλοενισχύονται— είναι η πλέον ενδιαφέρουσα εφαρμογή της τεχνητής νοημοσύνης, καθότι πρόκειται για τη συνύπαρξη ανθρώπου και μηχανής, σε αντίθεση με τον άνθρωπο στη θέση της μηχανής. Η συνδημιουργία έχει, ωστόσο, μεγάλη σημασία· πρέπει οι εργαζόμενοι να συμμετέχουν στην ανάπτυξη αυτών των συμπληρωματικών συστημάτων τεχνητής νοημοσύνης, έτσι ώστε τα συστήματα τεχνητής νοημοσύνης να είναι αποτελεσματικά και να διατηρεί ο εργαζόμενος επαρκή αυτονομία και έλεγχο, την ικανοποίηση και την ευχαρίστηση της εργασίας.

7)

Εκπαίδευση και δεξιότητες

3.26

Για να μπορούν να προσαρμοστούν όλοι στην ταχεία εξέλιξη της τεχνητής νοημοσύνης, είναι απαραίτητη η διατήρηση των ψηφιακών δεξιοτήτων ή η δυνατότητα απόκτησης νέων δεξιοτήτων. Η Ευρωπαϊκή Επιτροπή ενθαρρύνει έντονα, μέσω του Συνασπισμού για τις ψηφιακές δεξιότητες και τις ψηφιακές θέσεις εργασίας (Digital Skills and Jobs Coalition), την ανάπτυξη ψηφιακών δεξιοτήτων. Εντούτοις, το επάγγελμα του εγκωδικευτή ή του προγραμματιστή δεν είναι κάτι που θα ενδιαφέρει τους πάντες ή για το οποίο θα είναι οι πάντες ικανοί. Οι πολιτικές και τα χρηματοπιστωτικά μέσα πρέπει, συνεπώς, να εστιάζουν στην εκπαίδευση και στην ανάπτυξη δεξιοτήτων σε κλάδους που δεν θα απειληθούν από τα συστήματα τεχνητής νοημοσύνης (όπως οι εργασίες όπου κυριαρχεί η ανθρώπινη παρέμβαση, όπου άνθρωπος και μηχανή ενεργούν από κοινού ή εργασίες που δεν θέλουμε να εμπιστευτούμε σε μηχανές).

3.27

Όταν βασιζόμαστε στη συμπληρωματικότητα ανθρώπου και τεχνητής νοημοσύνης (επαυξημένη νοημοσύνη), είναι απαραίτητο να προβλέπεται για όλους, από πολύ νεαρή ηλικία, κατάρτιση σχετική με την αντιμετώπιση των σχέσεων με την τεχνητή νοημοσύνη και την εκμετάλλευσή της, έτσι ώστε να καθίσταται δυνατή η διατήρηση της αυτονομίας και του ελέγχου της από τους χρήστες (ανθρώπινος έλεγχος). Υπό αυτήν την έννοια, πρέπει να διδάσκονται επίσης η ηθική και ο σεβασμός του ιδιωτικού βίου, δεδομένης της σημαντικής επίδρασης της τεχνητής νοημοσύνης στα εν λόγω πεδία.

8)

Προσβασιμότητα, κοινωνική (αν)ισότητα, ένταξη και καταμερισμός

3.28

Το μεγαλύτερο μέρος της ανάπτυξης της τεχνητής νοημοσύνης και το σύνολο των σχετικών στοιχείων (πλατφόρμες ανάπτυξης, δεδομένα, γνώσεις, ειδημοσύνη) βρίσκεται στα χέρια πέντε μεγάλων τεχνολογικών επιχειρήσεων (Amazon, Google, Apple, Facebook και Microsoft). Μολονότι οι εταιρείες αυτές είναι υπέρ της ανοικτής ανάπτυξης της τεχνητής νοημοσύνης, και ορισμένες από αυτές προτείνουν δικές τους πλατφόρμες για την ανάπτυξη της τεχνητής νοημοσύνης σε μορφή ανοικτής πηγής, αυτό δεν αρκεί για να διασφαλιστεί η συνολική προσβασιμότητα στα συστήματα τεχνητής νοημοσύνης. Η ΕΕ, οι αρμόδιοι χάραξης πολιτικής διεθνώς και οι οργανώσεις της κοινωνίας πολιτών οφείλουν εν προκειμένω να διαδραματίσουν πρωταγωνιστικό ρόλο, φροντίζοντας τα συστήματα αυτά να είναι προσιτά σε όλους, αλλά και η ανάπτυξή τους να πραγματοποιείται σε ανοικτό περιβάλλον.

3.29

Οι τεχνολογικές εξελίξεις που χρηματοδοτούνται από το κεφάλαιο, βάσει των οποίων οι καινοτομίες ωφελούν κυρίως τους ιδιοκτήτες τους, επιδεινώνουν τη θέση της εργασίας σε σχέση με εκείνη του κεφαλαίου. Οι τεχνολογικές εξελίξεις μπορούν να επιφέρουν επίσης (εισοδηματικές) ανισότητες μεταξύ των ατόμων (σε τοπικό, περιφερειακό και παγκόσμιο επίπεδο). Υπάρχει ο κίνδυνος η τεχνητή νοημοσύνη να ενισχύσει αυτές τις τάσεις.

3.30

Είναι σημαντικό οι τάσεις αυτές να παρακολουθούνται εκ του σύνεγγυς και να δίνονται οι κατάλληλες απαντήσεις. Ορισμένοι τάσσονται ήδη υπέρ της φορολόγησης της τεχνητής νοημοσύνης, της καθιέρωσης μερισμάτων τεχνητής νοημοσύνης ή του διαμοιρασμού της κυριότητας των εν λόγω συστημάτων μεταξύ των εργαζομένων και των εργοδοτών. Ολοένα δε συχνότερα γίνεται επίκληση της ανάγκης καθιέρωσης ενός βασικού άνευ όρων εισοδήματος.

3.31

Σε προηγούμενη γνωμοδότησή (1) της, η ΕΟΚΕ αναφέρθηκε στη δυνατότητα του ψηφιακού μερίσματος και στη δίκαιη κατανομή του για την επίτευξη θετικών αποτελεσμάτων όσον αφορά την ανάπτυξη. Η ΕΟΚΕ αποδίδει ιδιαίτερη σημασία στη μελέτη αυτών των λύσεων, στην οποία πρέπει να βρίσκεται η κατάλληλη ισορροπία μεταξύ της ανάπτυξης της ωφέλιμης για το άτομο τεχνητής νοημοσύνης και των πιθανών αρνητικών συνεπειών των εν λόγω λύσεων. Πρέπει επίσης να αποφευχθεί ο ηθικός κίνδυνος της μεταβίβασης της ευθύνης για τα συστήματα τεχνητής νοημοσύνης σε μια οντότητα η οποία, στην πράξη, δεν θα μπορεί να θεωρηθεί υπεύθυνη.

9)

Νομοθεσία και κανονιστικές ρυθμίσεις

3.32

Οι επιπτώσεις της τεχνητής νοημοσύνης στις υφιστάμενες νομοθετικές και κανονιστικές ρυθμίσεις είναι σημαντικές. Τον Ιούνιο του 2016, η ομάδα Αξιολόγησης Επιστημονικών και Τεχνολογικών Επιλογών (STOA) του Ευρωπαϊκού Κοινοβουλίου δημοσίευσε έναν κατάλογο ευρωπαϊκών νομοθετικών και κανονιστικών πράξεων που θα επηρεαστούν από την εξέλιξη της κατάστασης στον τομέα της ρομποτικής, των κυβερνοφυσικών συστημάτων και της τεχνητής νοημοσύνης. Η STOA έχει καθορίσει έξι τομείς (μεταφορές, συστήματα διπλής χρήσης, ατομικές ελευθερίες, ασφάλεια, υγεία και ενέργεια) στους οποίους η ΕΕ θα χρειαστεί ενδεχομένως να επανεξετάσει ή να επικαιροποιήσει τουλάχιστον 39 κανονισμούς, οδηγίες, δηλώσεις και ανακοινώσεις, καθώς και τον Χάρτη των Θεμελιωδών Δικαιωμάτων της Ευρωπαϊκής Ένωσης. Η εν λόγω αξιολόγηση θα πρέπει να πραγματοποιηθεί ταχέως και με αποφασιστικότητα, και η ΕΟΚΕ μπορεί και θέλει να συμμετάσχει στη διαδικασία αυτή.

3.33

Το ζήτημα του καταλογισμού της ευθύνης για ζημίες που οφείλονται σε συστήματα τεχνητής νοημοσύνης αποτελεί αντικείμενο πολλών συζητήσεων. Πολλώ μάλλον στην περίπτωση που το σύστημα είναι αυτόνομο και συνεχίζει την αυτοδιδασκαλία του μετά την έναρξη λειτουργίας του. Το Ευρωπαϊκό Κοινοβούλιο έχει διατυπώσει συστάσεις όσον αφορά τους κανόνες Αστικού Δικαίου για τη ρομποτική και κυρίως μια πρόταση που προβλέπει το ενδεχόμενο δημιουργίας «ηλεκτρονικής προσωπικότητας» (e-personality) για τα ρομπότ, έτσι ώστε να μπορούν να αναλαμβάνουν την αστική ευθύνη για ζημίες που ενδέχεται να προκαλέσουν. Η ΕΟΚΕ διαφωνεί με τη χορήγηση νομικής προσωπικότητας στα ρομπότ, στην τεχνητή νοημοσύνη ή στα συστήματα τεχνητής νοημοσύνης, λόγω του απαράδεκτου ηθικού κινδύνου που ενέχει μια τέτοια προσέγγιση. Εάν υλοποιηθεί αυτή η πρόταση, απαλείφεται η προληπτική διορθωτική λειτουργία που απορρέει από το δίκαιο περί αστικής ευθύνης, εφόσον ο κατασκευαστής δεν θα αναλαμβάνει πλέον την ευθύνη, η οποία θα έχει μεταβιβαστεί στο ρομπότ (ή στο σύστημα τεχνητής νοημοσύνης). Συν τοις άλλοις, υφίσταται ο κίνδυνος ακατάλληλης χρήσης και κατάχρησης ενός τέτοιου συστήματος. Η σύγκριση με την περιορισμένη ευθύνη των εταιρειών δεν ευσταθεί στον βαθμό που υπάρχει πάντοτε, σε αυτήν την περίπτωση, ένα φυσικό πρόσωπο το οποίο έχει την τελική ευθύνη. Εδώ πρέπει να εξεταστεί σε ποιον βαθμό στη νομοθεσία, στις κανονιστικές ρυθμίσεις και στη νομολογία των κρατών μελών και της ΕΕ που ισχύουν επί του παρόντος και διαλαμβάνουν την ευθύνη (για τα προϊόντα και τους κινδύνους) και την ίδια υπαιτιότητα αντιμετωπίζεται επαρκώς το ζήτημα αυτό και, εφόσον δεν συμβαίνει κάτι τέτοιο, ποιες είναι οι προβλέψιμες λύσεις σε νομικό επίπεδο.

3.34

Για να καταστεί δυνατός ο καθορισμός μιας επαρκούς νομοθετικής και κανονιστικής προσέγγισης της τεχνητής νοημοσύνης, είναι απαραίτητο να οριστεί με σαφήνεια τι μπορεί ή δεν μπορεί να κάνει η τεχνητή νοημοσύνη και τι θα μπορεί να κάνει βραχυπρόθεσμα, μεσοπρόθεσμα και μακροπρόθεσμα.

3.35

Η τεχνητή νοημοσύνη δεν γνωρίζει σύνορα. Πρέπει, συνεπώς, να εξεταστεί η ανάγκη μιας ρύθμισης παγκοσμίως, δεδομένου ότι η περιφερειακή νομοθεσία δεν επαρκεί και θα έχει μάλιστα ανεπιθύμητα αποτελέσματα. Έχοντας κατά νου το δοκιμασμένο σύστημα προτύπων για τα προϊόντα και την ασφάλεια, τις τάσεις προστατευτισμού που παρατηρούνται σε άλλες ηπείρους, το υψηλό επίπεδο γνώσης στην Ευρώπη, το σύστημα των θεμελιωδών δικαιωμάτων και των κοινωνικών αξιών στην Ευρώπη, καθώς και τον κοινωνικό διάλογο, η ΕΟΚΕ προτείνει να αναλάβει η ΕΕ ηγετικό ρόλο στη θέσπιση σαφών και καθολικών στρατηγικών πλαισίων σε θέματα τεχνητής νοημοσύνης και να προαγάγει τη διαδικασία αυτή σε παγκόσμιο επίπεδο.

10)

Διοίκηση και δημοκρατία

3.36

Οι εφαρμογές της τεχνητής νοημοσύνης μπορούν να συμβάλουν στην καλύτερη συμμετοχή των πολιτών στα κοινά και στην ενίσχυση της διαφάνειας κατά τη διαδικασία λήψης πολιτικών αποφάσεων. Η ΕΟΚΕ καλεί την ΕΕ και τις εθνικές αρχές να χρησιμοποιούν την τεχνητή νοημοσύνη για τον σκοπό αυτό.

3.37

Η ΕΟΚΕ δηλώνει ανήσυχη εξαιτίας της ειδικής χρήσης συστημάτων τεχνητής νοημοσύνης (με τη μορφή ευφυών αλγορίθμων) στη συνάθροιση πληροφοριών, λ.χ. στα μέσα κοινωνικής δικτύωσης, κάτι το οποίο —απ’ ό,τι φαίνεται— έχει επιφέρει περιορισμό της πληροφόρησης και ενίσχυση των διαχωρισμών στην κοινωνία (π.χ. οι «φούσκες φίλτρων» ή filter bubbles και οι ψευδείς πληροφορίες που δημοσιεύονταν στο Twitter και στο Facebook κατά τη διάρκεια των αμερικανικών εκλογών).

3.38

Εκφράζει επίσης τον προβληματισμό της για τις ενδείξεις που έχουμε ότι τα συστήματα τεχνητής νοημοσύνης χρησιμοποιούνται επίσης για να επηρεάσουν τη συμπεριφορά (ψήφο) των πολιτών. Εικάζεται ότι, χάρη σε ευφυείς αλγορίθμους, κατέστη δυνατό να προβλεφθούν οι προτιμήσεις και η συμπεριφορά των ατόμων και να προσανατολιστούν αναλόγως. Πρόκειται για μια απειλή ενάντια στην ανοικτή και ακριβοδίκαιη δημοκρατία. Στο σημερινό περίγραμμα πόλωσης και αποξήλωσης των διεθνών θεσμών, μια τέτοιου τύπου τεχνολογία ακριβούς και ισχυρής προπαγάνδας θα μπορούσε να διαταράξει γρήγορα και σε μεγαλύτερο βαθμό την κοινωνία μας. Αυτός είναι ένας από τους λόγους για τους οποίους είναι αναγκαία η ανάπτυξη προτύπων για τη διαφάνεια και τη δυνατότητα ελέγχου των (ευφυών) αλγορίθμων.

11)

Εμπόλεμες καταστάσεις

3.39

Στη Σύμβαση των Ηνωμένων Εθνών για ορισμένα συμβατικά όπλα αποφασίστηκε να διεξαχθούν εντός του 2017 διαβουλεύσεις μεταξύ ειδικών με θέμα τις προεκτάσεις της χρήσης αυτόνομων όπλων. Η ΕΟΚΕ επιδοκιμάζει την απόφαση αυτή και υποστηρίζει την έκκληση απαγόρευσης των αυτόνομων όπλων που απηύθυναν η Human Rights Watch και άλλες οργανώσεις. Θεωρεί δε ότι μια τέτοια απαγόρευση θα πρέπει να εξεταστεί και να ληφθεί σοβαρά υπόψη. Ωστόσο, η εξεύρεση κατάλληλης λύσης στο ζήτημα των δυνατοτήτων εφαρμογής της τεχνητής νοημοσύνης σε καταστάσεις πολέμου και συγκρούσεων δεν αρκεί. Η εν λόγω διαβούλευση στο πλαίσιο των Ηνωμένων Εθνών θα πρέπει να αφορά και τις εφαρμογές της τεχνητής νοημοσύνης στον τομέα του πολέμου στον κυβερνοχώρο.

3.40

Επιπλέον, πρέπει να αποφευχθεί να καταλήξει η τεχνητή νοημοσύνη στα χέρια προσώπων ή καθεστώτων που είναι πιθανόν να την χρησιμοποιήσουν για τρομοκρατικούς σκοπούς.

12)

Υπερνοημοσύνη

3.41

Τέλος, τίθεται το ζήτημα των προοπτικών και των κινδύνων που σχετίζονται με την ανάπτυξη της υπερνοημοσύνης. Σύμφωνα με τον Stephen Hawking, ήδη η επίτευξη της γενικής τεχνητής νοημοσύνης θα σηματοδοτήσει το τέλος της ανθρωπότητας. Στο στάδιο αυτό, κατά τον Hawking, η τεχνητή νοημοσύνη θα συνεχίσει να εξελίσσεται με ρυθμούς που δεν θα μπορεί να ακολουθήσει ο άνθρωπος. Ορισμένοι ειδικοί συμβουλεύουν να δημιουργηθεί ένας διακόπτης ασφαλείας (kill-switch) ή ένα κουμπί επαναφοράς (reset-button) που θα καθιστά δυνατή την απενεργοποίηση ή την επανεκκίνηση ενός συστήματος τεχνητής νοημοσύνης με υπερνοημοσύνη ή εκτός ελέγχου.

3.42

Η ΕΟΚΕ τάσσεται υπέρ του ελέγχου της τεχνητής νοημοσύνης από τον άνθρωπο, προϋποθέσεις του οποίου είναι η υπεύθυνη και ασφαλής ανάπτυξη της τεχνητής νοημοσύνης στο πλαίσιο της οποίας οι μηχανές παραμένουν μηχανές, υπό τον μόνιμο έλεγχο των ανθρώπων. Ο προβληματισμός σχετικά με την υπερνοημοσύνη είναι μεν σημαντικός αλλά, επί του παρόντος, επισκιάζει τον προβληματισμό για την επίδραση των σημερινών εφαρμογών της τεχνητής νοημοσύνης.

4.   Η τεχνητή νοημοσύνη στην υπηρεσία της ανθρωπότητας

4.1

Οι μεγάλοι εμπορικοί παράγοντες (όπως η εταιρεία OpenAI) έχουν ήδη αναλάβει πολλές πρωτοβουλίες με σκοπό την ανάπτυξη της τεχνητής νοημοσύνης κατά τρόπο ανοικτό, ασφαλή και κοινωνικά υπεύθυνο. Οι ιθύνοντες πολιτικής δεν πρέπει, ωστόσο, να αφήσουν τις επιχειρήσεις να διαδραματίζουν αυτόν τον ρόλο και πρέπει να αναλάβουν τις ευθύνες τους. Πρέπει να προβλεφθούν μέτρα και ειδική υποστήριξη υπέρ της διεξαγωγής μελετών με θέμα τα κοινωνικά ζητήματα που σχετίζονται με την τεχνητή νοημοσύνη και την ανάπτυξη ασφαλών και σταθερών συστημάτων τεχνητής νοημοσύνης.

4.2

Τα προγράμματα της ΕΕ όπως ο «Ορίζοντας 2020» είναι απολύτως ενδεδειγμένα για την αντιμετώπιση αυτής της πρόκλησης. Η ΕΟΚΕ έχει διαπιστώσει ότι η χρηματοδότηση κυρίως από τον πυλώνα «Κοινωνικές προκλήσεις» του προγράμματος «Ορίζοντας 2020» υστερεί σε σχέση με τη χρηματοδότηση από τους άλλους δύο πυλώνες —«Επιστήμη αριστείας» και «Βιομηχανική υπεροχή»— και ότι έχει μειωθεί. Η ΕΟΚΕ επιμένει ότι πρέπει να δοθεί μεγάλη προσοχή στην έρευνα με θέμα τα μεγάλα κοινωνικά ζητήματα, καθώς και τις κοινωνικές εφαρμογές της τεχνητής νοημοσύνης βάσει του πυλώνα «Κοινωνικές προκλήσεις».

4.3

Επίσης, πρέπει να αντιμετωπιστούν οι πιθανές εγκάρσιες επιδράσεις της τεχνητής νοημοσύνης. Εκτός από την ανάπτυξη ανατρεπτικής καινοτομίας στον τομέα της τεχνητής νοημοσύνης, κρίνεται σκόπιμη η χρηματοδότηση της έρευνας με αντικείμενο την επίδραση αυτών των καινοτομιών στην κοινωνία, καθώς και τα μέσα για την αντιμετώπισή της.

4.4

Η έρευνα και η ανάπτυξη μορφών τεχνητής νοημοσύνης στην υπηρεσία της ανθρωπότητας προϋποθέτει επίσης ένα φάσμα δεδομένων μάθησης και εξειδικευμένων δοκιμών προσιτών στο ευρύ κοινό, καθώς και περιβάλλοντα δοκιμών σε πραγματικές συνθήκες. Μέχρι σήμερα, οι υποδομές τεχνητής νοημοσύνης και ένας μεγάλος αριθμός συγκεκριμένων δεδομένων είναι διαθέσιμα μόνο σε περιορισμένο αριθμό ιδιωτικών παραγόντων και παρεμβάλλονται φραγμοί στη δοκιμή της τεχνητής νοημοσύνης από δημόσιες αρχές, γεγονός που αποτελεί τροχοπέδη για την εφαρμογή της τεχνητής νοημοσύνης σε άλλους τομείς. Η ανάπτυξη ειδικών δεδομένων προσπελάσιμων από όλους και μιας ευρωπαϊκής υποδομής τεχνητής νοημοσύνης έχουν μεγάλη σημασία για την επίτευξη ασφαλούς, σταθερής και ωφέλιμης τεχνητής νοημοσύνης.

5.   Έλεγχος και δράση

5.1

Ο μεγάλη επίδραση της τεχνητής νοημοσύνης στην κοινωνία δεν μπορεί να εκτιμηθεί ακόμη εντελώς. Παρόλα αυτά, όλοι συμφωνούν ότι η επίδραση αυτή θα είναι σημαντική. Σήμερα, τα επιτεύγματα στον τομέα της τεχνητής νοημοσύνης διαδέχονται το ένα το άλλο με ταχείς ρυθμούς, γεγονός που καθιστά απαραίτητο τον κριτικό και συνολικό έλεγχο, για να καταστεί δυνατή η επαρκής και καίρια αντιμετώπιση των ριζικών και αποφασιστικής σημασίας εξελίξεων, τεχνικού και κοινωνικού χαρακτήρα, που είναι πιθανόν να αλλάξουν τα δεδομένα στον τομέα της ανάπτυξης της τεχνητής νοημοσύνης ή γύρω από αυτόν.

5.2

Αυτές οι αποφασιστικής σημασίας εξελίξεις τεχνικής φύσης μπορούν να χαρακτηριστούν αξιοσημείωτα ή σημαντικά επιτεύγματα στο πεδίο της ανάπτυξης δεξιοτήτων τεχνητής νοημοσύνης και θα μπορούσαν να αποτελέσουν πρόδρομα στοιχεία της γενικής τεχνητής νοημοσύνης. Οι σημαντικές κοινωνικές εξελίξεις ενδέχεται να σχετίζονται με τη μαζική απώλεια θέσεων εργασίας χωρίς την προοπτική αντικατάστασής τους, με επισφαλείς καταστάσεις, αστοχίες του συστήματος, απρόσμενες εξελίξεις σε διεθνές επίπεδο κτλ.

5.3

Οι αρμόδιοι χάραξης πολιτικής, η βιομηχανία, οι κοινωνικοί εταίροι, οι καταναλωτές, οι ΜΚΟ, οι μονάδες περίθαλψης, τα εκπαιδευτικά ιδρύματα, οι ειδήμονες και οι πανεπιστημιακοί διαφόρων κλάδων (όπως η —εφαρμοσμένη ή μη— τεχνητή νοημοσύνη, η ηθική, η ασφάλεια, η οικονομία, οι επιστήμες της εργασίας και της συμπεριφοράς, η νομική, η ψυχολογία και η φιλοσοφία) πρέπει να μεριμνήσουν από κοινού για την προσεκτική παρακολούθηση των εξελίξεων στον τομέα της τεχνητής νοημοσύνης και να καταγράφουν τακτικά όσα στοιχεία αλλάζουν τα δεδομένα κατά τρόπο που να καθίσταται δυνατή η λήψη, την κατάλληλη στιγμή, ενδεδειγμένων μέτρων με τη μορφή πολιτικών, νομοθεσίας και κανονιστικών ρυθμίσεων, αυτορρύθμισης, κοινωνικού διαλόγου κτλ.

5.4

Ως εκπρόσωπος της ευρωπαϊκής κοινωνίας πολιτών, η ΕΟΚΕ σκοπεύει, κατά το επόμενο χρονικό διάστημα, να δρομολογήσει, να συγκεντρώσει και να ενθαρρύνει την ανάπτυξη προβληματισμού με θέμα την τεχνητή νοημοσύνη με τη συμμετοχή όλων των συναρμοδίων.

Βρυξέλλες, 31 Μαΐου 2017.

Ο Πρόεδρος της Ευρωπαϊκής Οικονομικής και Κοινωνικής Επιτροπής

Γιώργος ΝΤΑΣΗΣ


(1)  ΕΕ C 13 της 15.1.2016, σ. 161.


Top