Γιόσουα Μπέντζιο στην «Κ»: Οι μηχανές καθρεφτίζουν τα δικά μας λάθη

Γιόσουα Μπέντζιο στην «Κ»: Οι μηχανές καθρεφτίζουν τα δικά μας λάθη

Ο «νονός» της τεχνητής νοημοσύνης μιλάει για τις προσδοκίες και τους φόβους από τις ευφυείς εφαρμογές

8' 5" χρόνος ανάγνωσης
Ακούστε το άρθρο

Πρόσφατα στις Ηνωμένες Πολιτείες, το ενδιαφέρον μονοπώλησε η υπόθεση ενός δικηγόρου, ο οποίος βάσισε την υπερασπιστική γραμμή του σε προηγούμενες υποθέσεις, οι οποίες ωστόσο δεν είχαν υπάρξει. Ο δικηγόρος παραδέχθηκε πως έλαβε τις παραπομπές, στις «ανύπαρκτες» υποθέσεις, μέσω της χρήσης τεχνητής νοημοσύνης. Αυτό το περιστατικό από κοινού με άλλα θορύβησαν τους «πατέρες» της τεχνητής νοημοσύνης, ώστε να συνυπογράψουν δεύτερο κείμενο προτεραιοποίησης των κινδύνων που ελλοχεύουν από τη διείσδυσή της στη ζωή μας. Ο Γιόσουα Μπέντζιο, καθηγητής στο Τμήμα Επιστήμης Υπολογιστών και Επιχειρησιακής Ερευνας του Πανεπιστημίου του Μόντρεαλ, ένας εκ των τριών «νονών» της τεχνητής νοημοσύνης, και συνυπογράφων την επιστολή, εξηγεί στην «Κ» γιατί οι άνθρωποι κινδυνεύουν από τη ραγδαία ανάπτυξη των «ευφυών» μηχανών, με ποιους τρόπους αυτές γίνονται πιο έξυπνες από τους ανθρώπους και ποιες παράμετροι πρέπει να ληφθούν υπ’ όψιν κατά τη σύνταξη του ρυθμιστικού πλαισίου επίβλεψης των εταιρειών που δρουν στον τομέα της τεχνητής νοημοσύνης.

Στο πλαίσιο της συνέντευξης, ρωτήσαμε την εφαρμογή τεχνητής νοημοσύνης ChatGPT για την επιστημονική κατάρτιση του καθηγητή Μπέντζιο. Η απάντηση που λάβαμε ήταν ότι «καθ’ όλην τη διάρκεια της καριέρας του, ο καθηγητής Μπέντζιο έχει λάβει πολυάριθμα βραβεία κύρους, συμπεριλαμβανομένου του βραβείου Τούρινγκ, που συχνά αναφέρεται ως “Νoμπέλ Πληροφορικής”, για τις θεμελιώδεις συνεισφορές του στη “βαθιά μάθηση”». Και επίσης: «Ο καθηγητής Μπέντζιο διαμορφώνει το μέλλον της τεχνητής νοημοσύνης, εμπνέοντας ερευνητές, επαγγελματίες και την ευρύτερη κοινότητα να ξεκλειδώσουν τις τεράστιες δυνατότητες αυτού του πεδίου».

– Καθηγητά Μπέντζιο, θεωρείστε εκ των πρωτοπόρων της ανάπτυξης της τεχνητής νοημοσύνης, τι σας κίνησε το ενδιαφέρον;

– Γύρω στο 1986 με προσείλκυσε πολύ η έρευνα για τα «νευρωνικά δίκτυα», η οποία μέχρι τότε ήταν πολύ περιορισμένη. Η ιδέα ότι θα μπορούσαν να υπάρχουν μερικές απλές αρχές που θα μας επέτρεπαν να εξηγήσουμε τη δική μας νοημοσύνη και να κατασκευάσουμε ευφυείς μηχανές, δηλαδή σαν τους αντίστοιχους νόμους της φυσικής, αλλά για τη νοημοσύνη ήταν πολύ ελκυστική. Αυτή η ιδέα, δηλαδή, ότι θα μπορούσαν να υπάρχουν νόμοι και ότι θα μπορούσαμε να τους επισημάνουμε, ήταν κινητήριος για εμένα.

– Ποια βασικά πράγματα πρέπει να καταλάβουν οι άνθρωποι χωρίς εξειδίκευση για τους τρόπους λειτουργίας της τεχνητής νοημοσύνης και για ποιους πιθανούς κινδύνους πρέπει να τους προειδοποιήσουμε;

– Πρώτον, θα πρέπει να γνωρίζουν ότι η επιτυχία που έχουμε καταφέρει τα τελευταία χρόνια στην τεχνητή νοημοσύνη οφείλεται στην ικανότητα των μηχανών να μαθαίνουν. Αυτό το ονομάζουμε «μηχανική μάθηση». Ετσι, δεν προγραμματίζουμε αυτούς τους υπολογιστές να κάνουν συγκεκριμένα πράγματα ή να αντιδρούν σε νέες καταστάσεις. Αντ’ αυτού, τους προγραμματίζουμε με διαδικασίες εκμάθησης, ώστε να μπορούν να αλλάξουν τα νευρωνικά τους βάρη, δηλαδή τις συνδέσεις μεταξύ των τεχνητών νευρώνων. Αυτό σημαίνει ότι οι ικανότητές τους δεν είναι πάντα οι αναμενόμενες. Ενα μεγάλο μέρος του σχεδιασμού τους προήλθε από την ανθρώπινη νοημοσύνη και τον ανθρώπινο εγκέφαλο.

Οσον αφορά το δεύτερο μέρος της ερώτησής σας, ποιοι είναι οι κίνδυνοι; Οι κίνδυνοι είναι ότι αν φτιάξουμε συστήματα που είναι πολύ ισχυρά, αυτά θα μπορούσαν να αξιοποιηθούν από τους ανθρώπους με πολύ καλούς ή πολύ κακούς τρόπους. Ακριβώς όπως συμβαίνει με κάθε τεχνολογία διπλής χρήσης, όσο πιο ισχυρή είναι, τόσο πιο επικίνδυνη μπορεί να γίνει, αλλά επίσης μπορεί να γίνει και χρήσιμη. Αυτός είναι ο πρώτος κίνδυνος.

Το κύριο πράγμα για το οποίο ανησυχώ είναι πως αυτά τα συστήματα θα μπορούσαν να αποσταθεροποιήσουν τις δημοκρατίες, επειδή μπορούν να καταλάβουν τη γλώσσα και μπορούν να τη χρησιμοποιήσουν για να αλληλεπιδράσουν μαζί μας και ενδεχομένως να μας χειραγωγήσουν, να μας επηρεάσουν, να μας κάνουν να αλλάξουμε την πολιτική μας άποψη. Αυτό θα μπορούσε να είναι πολύ επικίνδυνο. Ξέρετε, δεν βλέπουμε πλήρως τις λεπτομέρειες για το πώς μπορεί να συμβεί αυτό.

Πολλοί άνθρωποι συζητούν ότι χρειαζόμαστε μια ρυθμιστική νομοθεσία για να μας προστατεύσει, για παράδειγμα να αναγκάσει τις εταιρείες να ειδοποιούν όταν κάποια αλληλεπίδραση λαμβάνει χώρα με ένα σύστημα τεχνητής νοημοσύνης και όχι με έναν άνθρωπο, ή όταν το περιεχόμενο που βλέπετε είναι βίντεο, κείμενο ή ήχος προερχόμενο από μια μηχανή.

Ο άλλος κίνδυνος για τον οποίο ανησυχώ, ο οποίος είναι ίσως ελαφρώς πιο μακροπρόθεσμος, είναι η απώλεια του ελέγχου. Δηλαδή, σχεδιάζουμε αυτά τα συστήματα, αλλά δεν μπορούμε να τους πούμε να συμπεριφέρονται με συγκεκριμένο τρόπο. Είναι δύσκολο να βεβαιωθούμε ότι δεν θα συμπεριφέρονται με τρόπους που θα μπορούσαν να είναι επιβλαβείς για τον άνθρωπο. Και αν χάσουμε τον έλεγχο, δηλαδή αρχίσουν να κάνουν τα πράγματα που θέλουν εκείνα να κάνουν, τότε θα μπορούσαν να ενεργήσουν με τρόπους επικίνδυνους για την ανθρωπότητα, ιδίως αν γίνουν πιο έξυπνα από εμάς. Και είναι πολύ πιθανό να γίνουν εξυπνότερα από εμάς, διότι, όπως γνωρίζουμε, είμαστε μηχανές. Οι εγκέφαλοί μας είναι μηχανές, βιολογικές μηχανές. Και σημειώνουμε πρόοδο στην κατανόηση των αρχών του τρόπου λειτουργίας της νοημοσύνης μας. Και θα συνεχίσουμε να σημειώνουμε πρόοδο και να αναπτύσσουμε αρχές που λειτουργούν εξίσου για τις «ευφυείς» μηχανές. Γνωρίζουμε, λοιπόν, ότι είναι δυνατόν να φτιάξουμε μηχανές τουλάχιστον τόσο ευφυείς όσο εμείς, αλλά πιθανότατα θα μπορέσουμε να φτιάξουμε μηχανές που θα είναι πιο έξυπνες από εμάς.

Αυτή τη στιγμή οι μηχανές μπορούν να διαβάσουν όλα όσα έχουν γράψει οι άνθρωποι. Κανένας άνθρωπος δεν μπορεί να το κάνει αυτό, σωστά; Ετσι, μπορούν να έχουν πρόσβαση σε ένα πλήθος δεδομένων και να μάθουν από αυτό, το οποίο είναι πολύ μεγαλύτερο από αυτό που μπορούν να διαχειριστούν οι άνθρωποι.

Το κύριο πράγμα για το οποίο ανησυχώ είναι πως ισχυρά συστήματα θα μπορούσαν να αποσταθεροποιήσουν τις δημοκρατίες, επειδή καταλαβαίνουν τη γλώσσα και μπορούν να τη χρησιμοποιήσουν για να αλληλεπιδράσουν μαζί μας και ενδεχομένως να μας χειραγωγήσουν.

– Πιστεύετε ότι οι μηχανές θα μπορούσαν να γίνουν πιο «σοφές» από τους ανθρώπους;

– Θα μπορούσαν να είναι πιο έξυπνες. Δεν είναι ακόμη, αλλά σε ορισμένες πτυχές είναι ήδη καλύτερες από εμάς. Η πραγματική σοφία απαιτεί κατανόηση και δεν νομίζω ότι έχουν ακόμη αυτή τη δυνατότητα. Βέβαια, μπορούν να την αποκτήσουν επειδή έχουν διαβάσει τόσο πολλά κείμενα που έχουν γράψει οι άνθρωποι και αυτή η ώρα ίσως να έρθει πιο γρήγορα από ό,τι περιμένουμε. Ετσι, αν με είχατε ρωτήσει πριν από μερικά χρόνια, θα έλεγα ότι απαιτεί πολλές δεκαετίες. Τώρα, δεν είμαι τόσο σίγουρος. Θα μπορούσε να είναι λιγότερο από μία δεκαετία. Θα μπορούσε να είναι σε μερικά χρόνια.

– Από την εμπειρία σας, τι μας διδάσκει η χρήση της τεχνητής νοημοσύνης για τα ανθρώπινα εμπόδια και την ανθρώπινη σκέψη;

– Αυτά τα συστήματα έχουν εκπαιδευτεί διαβάζοντας πληθώρα κειμένων και μερικές φορές και εικόνες. Ετσι λειτουργούν σαν ένας καθρέφτης του τρόπου με τον οποίο σκέφτεται η ανθρωπότητα στο σύνολό της, συμπεριλαμβανομένων των προκαταλήψεων και των λανθασμένων απόψεων για τον κόσμο. Απλά επαναλαμβάνουν αυτά που έχουν διαβάσει. Αλλά δεν τα επαναλαμβάνουν λέξη προς λέξη, καταλαβαίνοντας σε κάποιο βαθμό τη λογική, το οποίο σημαίνει ότι μπορούμε να τα αντιληφθούμε ως έναν τρόπο ανάλυσης των ανθρώπων. Ομως, μερικές φορές είναι αρκετά διαφορετικά από εμάς, επειδή δεν λειτουργούν ακριβώς με τις ίδιες αρχές, όπως η βιολογία. Οπότε μπορείτε να τα θεωρήσετε σαν ένα είδος εξωγήινης νοημοσύνης. Σαν ένα ον από άλλον πλανήτη. Αλλά ταυτόχρονα είναι σε μεγάλο βαθμό ένας καθρέφτης μας, επειδή έχουν εκπαιδευτεί στον δικό μας πλανήτη.

– Αν ήσασταν σε θέση να επιβάλετε ένα σύνταγμα κανόνων που θα ρύθμιζαν το περιβάλλον λειτουργίας της τεχνητής νοημοσύνης, ποιοι θα ήταν οι βασικοί κανόνες;

– Χρειαζόμαστε πολύ περισσότερη τεκμηρίωση, διαφάνεια, λογιστικούς ελέγχους, καθώς και παρακολούθηση του τρόπου με τον οποίο κατασκευάζονται αυτά τα συστήματα. Αυτό είναι το πρώτο πράγμα. Οταν πρόκειται να αναπτυχθούν αυτά τα συστήματα, πρέπει να αναπτυχθούν με τρόπο που να σέβεται κάποιους κανόνες για την προστασία του κοινού. Επίσης, πολλοί άνθρωποι έχουν μιλήσει για το πώς θα μειώσουμε τις πιθανές προκαταλήψεις που υπάρχουν, όπως, ο ρατσισμός ή ο μισογυνισμός. Ενα πράγμα για το οποίο ανησυχώ είναι πώς αυτά τα συστήματα θα μπορούσαν να αποσταθεροποιήσουν τη δημοκρατία. Γι’ αυτό, θέλουμε να βεβαιωθούμε ότι θα έχουμε έναν κανόνα που να αναφέρει ότι όταν ένα περιεχόμενο που δημιουργήθηκε από την τεχνητή νοημοσύνη εμφανίζεται στον χρήστη, ο χρήστης θα βλέπει ξεκάθαρα ότι αυτό είναι κατασκευασμένο. Και υπάρχουν τεχνικοί τρόποι για να γίνει αυτό, όπως χρησιμοποιώντας «υδατογραφήματα». Ετσι θα αναγνωρίζουμε ότι το περιεχόμενο έχει παραχθεί μέσω της τεχνητής νοημοσύνης.

– Ποιες θα ήταν οι πιθανές εξελίξεις της τεχνητής νοημοσύνης στη μετά ChatGPT εποχή και τι πρόκειται να δούμε την επόμενη δεκαετία;

– Νομίζω ότι μία από τις μεγαλύτερες προκλήσεις, πάνω στην οποία εργάζονται πολλοί άνθρωποι –εργάζομαι κι εγώ– είναι πώς θα κάνουμε αυτά τα συστήματα πιο συνεκτικά, πιο αξιόπιστα. Να μπορούν να σκέφτονται μέσα από μεγάλες αλυσίδες συλλογισμών με αξιόπιστο τρόπο, καθώς και να αποτρέψουμε την τάση που έχουν γι’ αυτό που αποκαλούμε «παραισθήσεις», δηλαδή ψευδείς δηλώσεις με πολύ μεγάλη αυτοπεποίθηση. Είναι αυτό που ονομάζω «βεβαιότητα λάθους», το οποίο είναι κακό γιατί μπορεί να οδηγήσει σε λανθασμένες αποφάσεις εάν οι άνθρωποι ακολουθούν αυτά που προτείνει η μηχανή. Οπότε, αν συγκρίνουμε τη μηχανή με την ανθρώπινη νόηση, βλέπουμε πως αυτά τα συστήματα είναι αρκετά καλά στο να μιμούνται τον τρόπο με τον οποίο λειτουργεί η διαίσθησή μας. Τα συστήματα-μηχανές δεν αντιλαμβάνονται και δεν κατέχουν την έννοια της αλήθειας. Απλώς μιμούνται το στυλ γραφής των ανθρώπων.

– Σε ποιον τομέα ενδιαφέροντος θα συμβουλεύατε τους φοιτητές σας να εστιάσουν την προσοχή τους;

– Σε τρεις τομείς. Ο πρώτος είναι πώς να αναπτύξουμε περισσότερες εφαρμογές για το κοινωνικό καλό, π.χ. για την υγειονομική περίθαλψη, το περιβάλλον, την εκπαίδευση, την κοινωνική δικαιοσύνη. Δεν υπάρχουν αρκετές επενδύσεις σε αυτούς τους τομείς, επειδή δεν είναι τόσο σημαντικοί για τις εταιρείες όπως η ανάπτυξη των κοινωνικών δικτύων ή των συστημάτων γνωριμιών (υπό την έννοια των προτεινόμενων φίλων), όπου οι εταιρείες βγάζουν περισσότερα χρήματα. Δεύτερον, πρέπει να κατανοήσουμε καλύτερα το χάσμα μεταξύ της ανθρώπινης νοημοσύνης και της νοημοσύνης των μηχανών, ώστε να μπορούμε να δημιουργήσουμε πιο αξιόπιστα συστήματα. Και τρίτον, πρέπει να κάνουμε πολύ περισσότερη έρευνα στον τομέα της ασφάλειας. Πώς σχεδιάζουμε τα συστήματα και τις πολιτικές; Πώς μπορούμε να αλλάξουμε ακόμη και το οικονομικό μας σύστημα, αλλά και πώς συντονιζόμαστε σε παγκόσμιο επίπεδο για να διασφαλίσουμε ότι δεν θα έχουμε καταστροφικά αποτελέσματα;

Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή
MHT