Χρυσή τομή για τους κανόνες σε AI

Εγκρίθηκε η θέση του Κοινοβουλίου για την τελική νομοθεσία στην Ευρωπαϊκή Ενωση

3' 6" χρόνος ανάγνωσης
Ακούστε το άρθρο

«Πράσινο φως» για το πρώτο σύνολο ολοκληρωμένων κανόνων στον κόσμο σε ό,τι αφορά τη διαχείριση των κινδύνων που ενέχει η τεχνητή νοημοσύνη έδωσε με συντριπτική, μάλιστα, πλειοψηφία το Ευρωπαϊκό Κοινοβούλιο στη διάρκεια της χθεσινής ολομέλειας στο Στρασβούργο. Επί της ουσίας, οι ευρωβουλευτές με 499 ψήφους υπέρ, 28 κατά και 93 αποχές ενέκριναν τη θέση του Κοινοβουλίου –ενόψει των διαπραγματεύσεων με το Ευρωπαϊκό Συμβούλιο– για την τελική νομοθεσία στην Ευρωπαϊκή Ενωση σχετικά με την παραγωγή συστημάτων τεχνητής νοημοσύνης, αλλά και τη χρήση τους από τους Ευρωπαίους πολίτες.

Για μια «ισορροπημένη και ανθρωποκεντρική νομοθεσία, διεθνές πρότυπο για τα επόμενα χρόνια» έκανε λόγο μετά την ψηφοφορία η πρόεδρος του Κοινοβουλίου, Ρομπέρτα Μέτσολα, για να προσθέσει ότι «γράψαμε Ιστορία». Από την πλευρά του, ο ευρωβουλευτής Πέτερ Βιτάνοφ από την ευρωομάδα των Σοσιαλιστών (S&D) ανέφερε, μιλώντας σε Ελληνες δημοσιογράφους, ότι έπειτα από 1,5 χρόνο συνολικών διαπραγματεύσεων που ανέλαβαν οι επιτροπές του Κοινοβουλίου, επί της ουσίας βρέθηκε η χρυσή τομή για μια ολιστική προσέγγιση του θέματος της τεχνητής νοημοσύνης, ανάμεσα δηλαδή στη διασφάλιση της καινοτομίας και του ανταγωνισμού των ευρωπαϊκών τεχνολογικών κολοσσών και της προστασίας των ανθρωπίνων δικαιωμάτων και του κράτους δικαίου.

Σε ό,τι αφορά την παραγωγή εφαρμογών τεχνητής νοημοσύνης, όπως το περίφημο ChatGPT, οι εταιρείες θα πρέπει να συμμορφώνονται πλέον με τις απαιτήσεις διαφάνειας της Ε.Ε., δηλαδή θα πρέπει να γνωστοποιούν στο κοινό ότι πρόκειται –για παράδειγμα– για παραποιημένες εικόνες, ενώ έχουν πλέον την υποχρέωση να διαθέτουν λεπτομερή καταγραφή του υλικού που προστατεύεται από δικαιώματα πνευματι-κής ιδιοκτησίας.

Ιδιαίτερο ενδιαφέρον έχει εξάλλου ότι ενόψει των ευρωεκλογών, όπου για πρώτη φορά μάλιστα θα ψηφίσουν νέοι 16 ετών σε τέσσερα κράτη-μέλη, δίνεται πλέον έμφαση στη διασφάλιση κανόνων λειτουργίας διαφόρων συστημάτων (π.χ. πλατφόρμες κοινωνικής δικτύωσης που συλλέγουν προσωπικά δεδομένα μέσω αλγορίθμων και που επηρεάζουν ψηφοφόρους και συνεπώς αποτελέσματα). «Εργαζόμαστε από κοινού με χώρες εν απουσία σχετικών προβλέψεων στους εκλογικούς νόμους», είπε χαρακτηριστικά η Ρομπέρτα Μέτσολα.

Απορρίφθηκε η τροπολογία για εξ αποστά- σεως βιομετρική ανα- γνώριση προσώπων σε πραγματικό χρόνο σε δημόσιους χώρους.

Σημείο πολιτικής αντιπαράθεσης ήταν η τροπολογία που κατέθεσε πριν από λίγες ημέρες το Ευρωπαϊκό Λαϊκό Κόμμα για την «εξ αποστάσεως βιομετρική αναγνώριση προσώπων σε πραγματικό χρόνο σε δημόσιους χώρους» για την πρόληψη εγκληματικών πράξεων, όπως τρομοκρατική ενέργεια ή ακόμη και περιπτώσεων εξαφάνισης ανθρώπων και ιδιαίτερα παιδιών. Η βιομετρική αναγνώριση (ταυτοποίηση προσώπων) εφαρμόζεται ήδη στην Κίνα για μαζικές παρακολουθήσεις πολιτών, ενώ σύντομα και η Γαλλία πρόκειται να την ενσωματώσει στην εθνική της νομοθεσία. Η τροπολογία πάντως δεν πέρασε, καθώς απορρίφθηκε από τις ευρωομάδες Σοσιαλιστών, Φιλελευθέρων και Πρασίνων.

Παρ’ όλα αυτά, θα μπορούσε και πώς να εξασφαλιστεί μια ισορροπημένη χρήση βιομετρικής αναγνώρισης εκ μέρους της Ε.Ε.; Μιλώντας στην «Κ» ο διευθυντής του Ευρωπαϊκού Οργανισμού για την Ασφάλεια Δικτύων και Πληροφοριών (ENISA) Γιούχαν Λεπασάαρ τόνισε ότι «ο καλύτερος τρόπος για να επιτευχθεί η σωστή ισορροπία μεταξύ τριών βασικών πτυχών (ασφάλειας, προστασίας ιδιωτικής ζωής και απόδοσης του συστήματος) είναι να ακολουθήσουμε μια προσέγγιση βασιζόμενη στην ανάλυση του κινδύνου (που προβλέπει ο προτεινόμενος νόμος), ώστε να εντοπιστούν πιθανές αρνητικές επιπτώσεις που απορρέουν από τη χρήση της τεχνητής νοημοσύνης και των ελέγχων ασφαλείας και απορρήτου, οι οποίοι μπορούν να μειώσουν τους κινδύνους σε αποδεκτά επίπεδα. Δεδομένου ότι υπάρχουν διαφορετικά επίπεδα κινδύνων, απαιτούνται διαφορετικοί έλεγχοι μετριασμού». Εξάλλου, ο Εσθονός ειδικός εκτιμά ότι «είναι επίσης σημαντικό να θυμόμαστε ότι η αξιολόγηση κινδύνου δεν είναι μια εφάπαξ δραστηριότητα, αλλά μια συνεχής διαδικασία στη διάρκεια του κύκλου ζωής ενός συστήματος τεχνητής νοημοσύνης».

Καινοτομία και προστασία

Σε ό,τι αφορά το μέλλον και έναν πιθανό «οδικό χάρτη» για τη χρήση και διασφάλιση των κανόνων λειτουργίας της τεχνητής νοημοσύνης, ο κ. Λεπασάαρ επισημαίνει ότι αυτό που θα πρέπει να υπολογίζεται είναι «η αλλαγή της φύσης της τεχνητής νοημοσύνης», αλλά και να εξασφαλίζεται μια ισορροπία μεταξύ της προώθησης της καινοτομίας και της επαρκούς προστασίας για κάθε πολίτη και επιχείρηση στην Ευρώπη».

Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή
MHT