Αρθρο Δημοσθένη Αναγνωστόπουλου στην «Κ»: Ο ευρωπαϊκός νόμος AI Act

Αρθρο Δημοσθένη Αναγνωστόπουλου στην «Κ»: Ο ευρωπαϊκός νόμος AI Act

Η σημασία της ΑΙ είναι αντιληπτή πλέον σε όλους. Και γι’ αυτό Microsoft, Google, META, και τελευταία Ελον Μασκ, ερίζουν για να δημιουργήσουν τα AI εργαλεία και εφαρμογές που θα κυριαρχήσουν

4' 13" χρόνος ανάγνωσης

Η σημασία της ΑΙ είναι αντιληπτή πλέον σε όλους. Και γι’ αυτό Microsoft, Google, META, και τελευταία Ελον Μασκ, ερίζουν για να δημιουργήσουν τα AI εργαλεία και εφαρμογές που θα κυριαρχήσουν. To κείμενο αυτό όμως δεν αναφέρεται στις εφαρμογές και προοπτικές της ΑΙ, όπως συνηθίζεται, αλλά στην πρώτη προσπάθεια που έγινε για να προσδιοριστεί (για την ακρίβεια να ρυθμιστεί) ποιες είναι οι κατηγορίες χρήσης της ΑΙ, ποιες είναι οι αποδεκτές χρήσεις και υπό ποιες συνθήκες. Και αυτό έγινε από την Ε.Ε. με τον γνωστό (ίσως όχι σε όλους) κανονισμό AI Act που τέθηκε σε εφαρμογή πριν από ενάμιση μήνα, στις 2 Αυγούστου. Και μόλις την εβδομάδα αυτή πραγματοποιήθηκε η πρώτη επίσημη συνεδρίαση του ΑΙ Board, του συμβουλίου της Ε.Ε. για την εφαρμογή του AI Act.

Τι είναι το AI Act; O ευρωπαϊκός νόμος περί τεχνητής νοημοσύνης (AI Act) είναι ο πρώτος ολοκληρωμένος κανονισμός παγκοσμίως για την ΑΙ, και έχει σχεδιαστεί ώστε να διασφαλίζει ότι η ΑΙ που δημιουργείται και χρησιμοποιείται στην Ε.Ε. είναι αξιόπιστη και με εγγυήσεις για την προστασία των θεμελιωδών δικαιωμάτων του ανθρώπου.

Τι κάνει λοιπόν το AI Act; Ο κανονισμός ενθαρρύνει την υιοθέτηση της AI στην Ε.Ε., υποστηρίζει την καινοτομία και τις επενδύσεις και αποσκοπεί σε ενιαίο τρόπο αντιμετώπισης της ΑΙ στην Ε.Ε.

Για να γίνει αυτό είναι απαραίτητο να μιλάμε με ίδια «γλώσσα». Για τον σκοπό αυτόν ο κανονισμός εισάγει έναν ορισμό της ΑΙ με κριτήριο την ασφάλεια των προϊόντων ΑΙ και την εκτίμηση του κινδύνου που θα μπορούσε να υπάρξει από τη χρήση τους. Και παρότι κάποιες έννοιες ίσως φαίνονται επιστημονικές ή τεχνικές, η πραγματικότητα είναι ότι αφορούν σε πλείστες πτυχές της καθημερινότητάς μας, με απτά παραδείγματα.

Για τον σκοπό αυτόν, λοιπόν, πραγματοποιείται η παρακάτω κατηγοριοποίηση των συστημάτων:

• Ελαχίστου κινδύνου. Πλείστα συστήματα ΑΙ, όπως τα συστήματα συστάσεων (π.χ. το συνιστώμενο περιεχόμενο σε πλατφόρμες streaming, όπως ταινίες στο Netflix) και τα φίλτρα αλληλογραφίας, όπου αυτόματα κάποια email πηγαίνουν στα ανεπιθύμητα, εμπίπτουν σε αυτή την κατηγορία. Γι’ αυτά τα συστήματα δεν τίθενται υποχρεώσεις λόγω του ελαχίστου κινδύνου που ενέχουν για τα δικαιώματα και την ασφάλεια του πολίτη.

• Περιορισμένου κινδύνου. Συστήματα ΑΙ όπως τα chatbots (βοηθητικά προγράμματα τύπου ChatGPT, όπως και το δικό μας mAIgov) και συστήματα με περιεχόμενο που δημιουργείται από ΑΙ (όπως τα «ψευδή» βίντεο, deepfake, που φαίνεται ότι κάποιος λέει ή κάνει κάτι) οφείλουν ξεκάθαρα να ενημερώνουν τους χρήστες ότι πρόκειται για αλληλεπίδραση με σύστημα ΑΙ. Ομοίως, οι χρήστες πρέπει να ενημερώνονται όταν χρησιμοποιούνται συστήματα βιομετρικής κατηγοριοποίησης ή αναγνώρισης συναισθημάτων.

• Υψηλού κινδύνου. Τα συστήματα ΑΙ υψηλού κινδύνου πρέπει να συμμορφώνονται με αυστηρές απαιτήσεις, όπως τεχνικές μετριασμού κινδύνου, υψηλή ποιότητα δεδομένων, καταγραφή δραστηριότητας, σαφείς πληροφορίες για τον χρήστη, ανθρώπινη επίβλεψη, ακρίβεια και ασφάλεια. Ενδεικτικά, υψηλού κινδύνου είναι συστήματα μεταφορών, ελέγχου συνόρων, ασφαλείας και ΑΙ στον χώρο της Δικαιοσύνης.

O ευρωπαϊκός νόμος περί τεχνητής νοημοσύνης (AI Act) είναι ο πρώτος ολοκληρωμένος κανονισμός παγκο-σμίως για την ΑΙ.

• Απαράδεκτου κινδύνου. Συστήματα ΑΙ που θεωρούνται σαφώς απειλή για τα θεμελιώδη δικαιώματα του ανθρώπου, ρητά απαγορεύονται. Σε αυτά περιλαμβάνονται συστήματα ΑΙ που χειραγωγούν την ανθρώπινη συμπεριφορά για να παρακάμψουν την ελεύθερη βούληση, όπως παιχνίδια που ενθαρρύνουν την επικίνδυνη συμπεριφορά ανηλίκων, συστήματα που επιτρέπουν τη βαθμολόγηση της κοινωνικής συμπεριφοράς μας από κυβερνήσεις ή εταιρείες, και ορισμένες εφαρμογές προληπτικής αστυνόμευσης.

Ο στόχος είναι διττός: αφενός η προώθηση της καινοτομίας στην Ευρώπη προκειμένου να πρωταγωνιστήσει στον διεθνή ανταγωνισμό, με παράλληλο σεβασμό στα προσωπικά δεδομένα, και αφετέρου η ρύθμιση ενός χώρου όπου οι εξελίξεις είναι ραγδαίες και οι τεχνολογικές εξελίξεις προέρχονται κυρίως από τον ιδιωτικό τομέα.

Σε ό,τι αφορά το χρονοδιάγραμμα εφαρμογής του κανονισμού, η ημερομηνία έναρξης ισχύος του κανονισμού είναι η 2/8/2024. Η απαγόρευση συστημάτων ΑΙ με μη αποδεκτό κίνδυνο ισχύει μετά από έξι μήνες (2/2025). Οι κανόνες για την Τεχνητή Νοημοσύνη Γενικού Σκοπού (GPAI) ισχύουν μετά από έναν χρόνο (8/2025). Οι απαιτήσεις για τα συστήματα ΑΙ υψηλού κινδύνου ισχύουν μετά από δύο χρόνια (8/2026).

Κλείνω με τρία βασικά συμπεράσματα:

1. Η διαμόρφωση κοινής βάσης συμφωνίας σε διεθνές επίπεδο για το τι επιτρέπεται και με ποιον τρόπο είναι κρίσιμη, ειδάλλως θα οδηγηθούμε σε «παραδείσους εφαρμογής ΑΙ», αντίστοιχους με τους φορολογικούς παραδείσους, με ανύπαρκτους πρακτικά ηθικούς περιορισμούς χρήσης ΑΙ, και συνέπειες που αφορούν όλους μας. Για τον λόγο αυτόν απαιτείται άμεσα διεθνής συνεργασία για να βρεθεί ένας κοινός παρονομαστής.

2. Στην Ε.Ε. δεν είναι εφικτό κάθε κράτος να ελέγχει χωριστά τους αλγορίθμους ΑΙ υψηλού κινδύνου και μάλιστα όταν είναι τόσο ραγδαία εξελισσόμενοι. Ο έλεγχος των αλγορίθμων αποτελεί συνεπώς σημαντικό πεδίο για ευρωπαϊκή εμβάθυνση, συνεργασία και εμπιστοσύνη που πρέπει να επιδείξουν μεταξύ τους τα κράτη-μέλη, δεδομένης της σημασίας της ΑΙ.

3. Η χώρα μας εργάζεται εντατικά τα τελευταία χρόνια στα ζητήματα της ψηφιακής οικονομίας, σημειώνοντας σημαντικές επιδόσεις, έχοντας πλέον καλύψει το χαμένο έδαφος του παρελθόντος. Στα αντικείμενα, όμως, της ΑΙ που αφορούν τα δικαιώματα του πολίτη, δηλαδή την ποιότητα της ίδιας της δημοκρατίας, τα οποία σήμερα διαμορφώνονται με ραγδαίους ρυθμούς, η χώρα μας ως κοιτίδα της δημοκρατίας μπορεί και πρέπει να προσφέρει πολλά στη διεθνή κοινότητα. Είναι η κατάλληλη ώρα.

*Ο καθηγητής Δημοσθένης Αναγνωστόπουλος είναι γ.γ. Πληροφοριακών Συστημάτων και Ψηφιακής Διακυβέρνησης, τ. πρύτανης του Χαροκοπείου Πανεπιστημίου και εκπρόσωπος της χώρας μας στο ευρωπαϊκό συμβούλιο ΑΙ (AI Board).

comment-below Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή
MHT