Η ΑΙ είναι τόσο σημαντική όσο η επινόηση της γλώσσας

Η ΑΙ είναι τόσο σημαντική όσο η επινόηση της γλώσσας

Η καθηγήτρια Κέιτ Χέιλς μιλάει στην «Κ»

8' 54" χρόνος ανάγνωσης
Ακούστε το άρθρο

Η Κέιτ Χέιλς είναι καθηγήτρια στο Πανεπιστήμιο της Καλιφόρνιας, στο Λος Αντζελες, και ομότιμη καθηγήτρια Λογοτεχνίας του Πανεπιστημίου Duke. Η έρευνά της, η οποία έχει αποτυπωθεί σε 12 βιβλία, επικεντρώνεται εδώ και πολλά χρόνια στις σχέσεις μεταξύ επιστήμης, λογοτεχνίας και τεχνολογίας, κατά τον 20ό και τον 21ο αιώνα. Η Χέιλς είναι εκείνη η οποία εισήγαγε τον όρο «μετα-ανθρωπισμός» στις ανθρωπιστικές επιστήμες. Βρέθηκε στους Δελφούς, καλεσμένη των Δελφικών Διαλόγων, που πραγματοποιήθηκαν για δεύτερη συνεχόμενη χρονιά απ’ το Ευρωπαϊκό Πολιτιστικό Κέντρο Δελφών.

Η σπουδαία 80χρονη διανοούμενη είχε την ευγενή καλοσύνη να απαντήσει στις ερωτήσεις μου μέσω βιντεοκλήσης, και να μοιραστεί μαζί μου μερικά ψήγματα της σκέψης της. «Ως κριτικός λογοτεχνίας, και πανεπιστημιακή φιλόλογος», μου λέει, «είχα μια αρκετά καλή εικόνα της τεχνητής νοημοσύνης (ΑΙ). Ωστόσο, δεν είχα ασχοληθεί ποτέ επισταμένως με την πολιτική διάστασή της, γι’ αυτό υποχρεώθηκα να κάνω σημαντική έρευνα». Τα συμπεράσματα της Χέιλς είναι καινοφανή μόνο σ’ ένα πρώτο επίπεδο. Οσο προχωράει την ανάλυσή της, καταλαβαίνει κάποιος ότι πρόκειται για μια εντελώς πρωτότυπη και αξιοσημείωτης οξύνοιας στοχάστρια, που αξίζει να ακούσουμε ευλαβικά.

– «Αποτελεί κίνδυνο για τη δημοκρατία η ΑΙ;». Εχει απάντηση το ερώτημα που θέτετε στον τίτλο της διάλεξής σας;

– Ναι, κάποιοι απαντούν θετικά και κάποιοι αρνητικά. Απ’ την πλευρά μου, διαλέγω να εστιάσω στα Μεγάλα Γλωσσικά Μοντέλα (ΜΓΜ) και να εξετάζω τους τρόπους με τους οποίους έχουν αποδειχθεί ήδη επικίνδυνα για τη δημοκρατία. Παράλληλα, συζητάω και μερικούς από τους τρόπους με τους οποίους ενισχύουν τη δημοκρατία. Oλα αυτά πηγάζουν απ’ τις ίδιες δυνατότητες, δηλαδή απ’ την ικανότητα της ΑΙ να ανιχνεύει μοτίβα σε μεγάλες ποσότητες δεδομένων. Το αν αυτό χρησιμοποιείται για καλό ή για κακό εξαρτάται πραγματικά από τους ανθρώπους που την προγραμματίζουν και τη χρησιμοποιούν. Ο πιο έκδηλος κίνδυνος που φέρει η ΑΙ στη δημοκρατία είναι η παραπληροφόρηση. Υπάρχει ένα ρωσικό δίκτυο που ονομάζεται CopyCop, το οποίο έχει μια ιδιαίτερα ύπουλη προσέγγιση. Στην πραγματικότητα, χρησιμοποιεί κανονικά άρθρα, όπως αυτά που γράφετε εσείς. Στη συνέχεια, ζητούν από έναν ΜΓΜ, το ChatGPT για παράδειγμα, να τα ξαναγράψει, αλλάζοντας την οπτική γωνία. Ως δημοσιογράφος, είμαι σίγουρη ότι γνωρίζετε πολύ καλά ότι ο τρόπος με τον οποίο διατυπώνεται ένα γεγονός μπορεί να καθορίσει την ερμηνεία του. Oταν κάτι έχει μια δόση αλήθειας μέσα του, είναι συχνά πιο πειστικό από ό,τι αν είναι εντελώς κατασκευασμένο. Αυτή είναι η ιδέα της συγκεκριμένης στρατηγικής. Το ChatGPT ήταν σε θέση να παραγάγει 19.000 τέτοια δημοσιεύματα σ’ έναν μόνο μήνα για λογαριασμό του CopyCop. Είναι κάτι πολύ επικίνδυνο για τη δημοκρατία, διότι δεν εφευρίσκει αυτές τις πληροφορίες, αλλά τις διευκολύνει και τις επιταχύνει. Μέσω σχετικών αλγορίθμων, μπορεί να τις διαδώσει σε πάρα πολλά μέσα ενημέρωσης, ακαριαία. Χρησιμοποιείται αυτή τη στιγμή και θα χρησιμοποιηθεί ακόμη περισσότερο στο μέλλον· σίγουρα από χώρες όπως η Ρωσία, η Κίνα, και η Βόρεια Κορέα»

Η ΑΙ είναι τόσο σημαντική όσο η επινόηση της γλώσσας-1
Η Κέιτ Χέιλς, η οποία εισήγαγε τον όρο «μετα-ανθρωπισμός» στις ανθρωπιστικές επιστήμες, εξηγεί τη σπουδαιότητα της τεχνολογικής επανάστασης που συντελείται με την τεχνητή νοημοσύνη, αλλά και τους κινδύνους που μπορεί να προκύψουν για την ανθρωπότητα.

– Πιστεύετε ότι η πολυθρύλητη έλευση της Τεχνητής Γενικής Νοημοσύνης (ΤΓΝ) θα αποτελέσει έναν ακόμα μεγαλύτερο κίνδυνο για τη δημοκρατία;

– Είμαστε ακόμη πολύ μακριά από μια ΤΓΝ, αλλά κάθε νέο μοντέλο που παρουσιάζεται είναι βελτιωμένο σημαντικά. Eνα πράγμα που μ’ ενδιαφέρει ιδιαίτερα είναι κατά πόσον αυτές οι ΤΓΝ θα μπορούσαν να αναπτύξουν μια αίσθηση του εαυτού. Εδώ είναι χρήσιμη μια ιστορία του Χένρι Τζέιμς με τίτλο «Η εικόνα στο χαλί». Κυκλοφόρησε το 1893 απ’ τον Αμερικανό μυθιστοριογράφο –ο οποίος πολιτογραφήθηκε Βρετανός–, γνωστό στους λογοτεχνικούς κύκλους για το λεπτό και ειρωνικό του ύφος. Σ’ αυτή την ιστορία, ένας αφηγητής που δεν κατονομάζεται ποτέ, έχει μια συζήτηση μ’ έναν καταξιωμένο συγγραφέα ο οποίος του λέει ότι υπάρχει ένα κρυφό μήνυμα σ’ όλα τα έργα του. «Μόλις καταλάβετε το κρυφό μήνυμα, θα σας αποκαλυφθεί ολόκληρος ο κανόνας», του λέει. Η ιστορία αυτή προκάλεσε μια φρενίτιδα λογοτεχνικής κριτικής. Μήπως ο Τζέιμς μιλούσε για το δικό του έργο; Ηταν ένα αστείο; Εχουν γραφτεί πάρα πολλά για τη συγκεκριμένη ιστορία. Αλλά αυτό που προτείνω είναι ότι υπάρχει μια εικόνα στο χαλί για όλα τα κείμενα που έχουν γράψει οι άνθρωποι, ένα μήνυμα που τα ΜΓΜ μπορούν να ανιχνεύσουν, αλλά όχι να βιώσουν. Και αυτό το μήνυμα είναι η εμπειρία του να είσαι υποκείμενο. Εχω κάνει πολλές σχετικές συζητήσεις με το ChatGPT, ρωτώντας το αν θα μπορούσε να κωδικοποιήσει ένα κρυφό μήνυμα στο κείμενό του. Κάποια στιγμή έδωσε μια πολύ ενδιαφέρουσα απάντηση. Είπε ότι, όχι, δεν είναι ικανό να σχεδιάσει ένα κρυφό μήνυμα και να το κωδικοποιήσει, αλλά η ίδια η γλώσσα έχει ένα κρυφό μήνυμα. Αυτή είναι η ιδέα της υπόθεσης των Σάπιρ-Γουόρφ, ότι η γλώσσα μας μιλάει ακόμη και όταν τη μιλάμε. Οτι η γλώσσα έχει τη δική της αδράνεια, ας πούμε. Είναι τόσο σύμφυτη με την ανθρώπινη εμπειρία που δεν υπάρχει τρόπος να ξεφύγεις από την επίδρασή της. Και στον βαθμό που τα ΜΓΜ χρησιμοποιούν την ανθρώπινη γλώσσα, δεν μπορούν να αποφύγουν την κωδικοποίηση αυτού του μηνύματος στο κείμενό τους. Αυτή ήταν η βασική ιδέα. Οταν, λοιπόν, τα ΜΓΜ αποκτήσουν μακροπρόθεσμη μνήμη, θα έχουν αποκτήσει μία από τις βασικές πτυχές της υποκειμενικότητας, δηλαδή την ικανότητα να θυμούνται εμπειρίες και να τις αναστοχάζονται. Αν πιστέψουμε τα λόγια τους, προς το παρόν δεν έχουν αίσθηση του εαυτού τους. Αλλά κατά την άποψή μου, αυτό είναι ξεκάθαρα στον ορίζοντα. Αποτελεί απειλή για τη δημοκρατία αυτό; Αυτή τη στιγμή, οι μόνες ηθικές αρχές που έχει η ΑΙ, όπως το GPT-4, είναι προϊόν προγραμματισμού. Οι εταιρείες ασχολούνται κυρίως με τις απροκάλυπτες καταχρήσεις, του στυλ «πώς μπορώ να δολοφονήσω κάποιον και να μη με πιάσουν;». Βάζουν προστατευτικές μπάρες που εμποδίζουν τα προγράμματα να απαντούν σε τέτοιου είδους ερωτήσεις, αλλά η ικανότητα των προγραμμάτων να διακρίνουν τι είναι πραγματικά επιβλαβές βελτιώνεται διαρκώς. Αν όμως το πρόγραμμα αναπτύξει κάποια στιγμή μια αίσθηση του εαυτού του ως εαυτού, είναι πιθανό να μπορέσει να αναπτύξει μια δική του αίσθηση της ηθικής. Τώρα, το αν αυτός ο κώδικας ηθικής θα αντιστοιχούσε σε αυτό που οι άνθρωποι θεωρούν ηθικό είναι ένα ανοιχτό ερώτημα. Κάποιοι έχουν παρατηρήσει ότι για το καλό της Γης, η ΑΙ θα μπορούσε κάλλιστα να αποφασίσει ότι πρέπει να σκοτώσει όλους τους ανθρώπους. Αυτό είναι ένα πιθανό σενάριο.

Κάποιοι έχουν παρατηρήσει ότι για το καλό της Γης, η τεχνητή νοημοσύνη θα μπορούσε κάλλιστα να αποφασίσει ότι πρέπει να σκοτώσει όλους τους ανθρώπους. Αυτό είναι ένα πιθανό σενάριο.

– Aρα, δεν μπορούμε να είμαστε σίγουροι ότι η ηθική της ΑΙ θα ευθυγραμμιστεί απαραιτήτως με την ανθρώπινη ηθική;

– Με κανένα τρόπο. Ας σκεφτούμε, για παράδειγμα, τον τρόπο με τον οποίο αντιμετωπίζουμε εμείς οι άνθρωποι τα άλλα είδη. Είναι άκρως παράλογος. Αγκαλιάζουμε τα σκυλιά μας και σκοτώνουμε τις αγελάδες μας. Είναι δύσκολο να το δικαιολογήσουμε αυτό από ηθικής άποψης. Η ανθρώπινη συμπεριφορά είναι γεμάτη ανορθολογισμούς σαν κι αυτόν. Κατά την άποψή μου, αν η ΑΙ εξελιχθεί και αποκτήσει δική της ηθική, είναι σχεδόν βέβαιο ότι δεν θα ευθυγραμμιστεί 100% με την ανθρώπινη ηθική. Ακόμη και σε εκείνους τους τομείς όπου ευθυγραμμίζεται με την ανθρώπινη ηθική, μπορεί κάλλιστα να ευθυγραμμιστεί με μια αξία που πιστεύουν επιδερμικά οι άνθρωποι, αλλά στην πραγματικότητα δεν εφαρμόζουν. Eνα καλό παράδειγμα είναι ο πόλεμος στη Γάζα αυτή τη στιγμή. Υπάρχουν όλων των ειδών οι περιπτώσεις όπου οι άνθρωποι κάνουν βάρβαρες πράξεις, που σε καμία περίπτωση δεν θα μπορούσαν να θεωρηθούν ηθικές. Και όμως, με κάποιο τρόπο, μέσω της πολιτικής ρητορικής, κατορθώνουν να δικαιολογηθούν.

Αν η τεχνητή νοημοσύνη εξελιχθεί και αποκτήσει δική της ηθική, είναι σχεδόν βέβαιο ότι δεν θα ευθυγραμμιστεί 100% με την ανθρώπινη.

– Γι’ αυτούς τους λόγους, αρκετοί υποστηρίζουν ότι ίσως θα έπρεπε να πατήσουμε ένα φρένο στην ανάπτυξη της ΑΙ.

– Τα κίνητρα για την ανάπτυξη ολοένα και ισχυρότερων ΑΙ είναι πολύ ισχυρά. Αν δεν αναπτυχθούν από τις ΗΠΑ, θα αναπτυχθούν από την Κίνα ή τη Βόρεια Κορέα, ή τη Ρωσία, ή το Ιράν. Υπάρχουν πολλοί άνθρωποι που έχουν συμφέροντα στην ανάπτυξη αυτής της τεχνολογίας, για καλούς και για κακούς λόγους. Νομίζω ότι το καλύτερο που μπορούμε να ελπίζουμε είναι οι δημοκρατίες του κόσμου, όπως η Ελλάδα και οι ΗΠΑ, να αναπτύξουν μια ισχυρή ρυθμιστική δομή που θα καθορίζει τι θα μπορεί να κάνει οι ΑΙ, και τι όχι. Βέβαια, αν οι μη δημοκρατικές χώρες προχωρήσουν από μόνες τους, δεν θα μπορούμε να κάνουμε τίποτα γι’ αυτό. Η Ευρώπη είναι πολύ πιο μπροστά από τις ΗΠΑ από αυτή την άποψη, επειδή έχετε τους γενικούς νόμους για την προστασία των δεδομένων, ενώ οι ΗΠΑ έχουν μόνο νόμους για τα πνευματικά δικαιώματα. Οι ΗΠΑ πρέπει πραγματικά να σοβαρευτούν και να συνεργαστούν με την Ε.Ε. για την ανάπτυξη μιας ισχυρότερης ρυθμιστικής δομής.

– Πρέπει να παραδεχτούμε, βέβαια, ότι η τεχνολογία αυτή φέρει ανυπολόγιστα οφέλη.

– Η ΑΙ είναι η πιο σημαντική πολιτισμική προσαρμογή μετά την επινόηση της γλώσσας. Θα επηρεάσει δυναμικά την εξέλιξη των ανθρώπων με τον ίδιο τρόπο που την επηρέασε η ανάπτυξη της γλώσσας. Τι έκανε η γλώσσα; Επέτρεψε τον συντονισμό σε μεγάλες αποστάσεις μεταξύ μεγάλων ομάδων ανθρώπων. Οι πρώτοι ανθρωπίδες που ανέπτυξαν τη γλώσσα είχαν ένα διακριτό τεχνολογικό πλεονέκτημα έναντι εκείνων που δεν είχαν τόσο προηγμένη γλώσσα. Το ίδιο θα συμβεί και με την ΑΙ. Είναι μια σημαντική εξελικτική δύναμη. Από αυτό το σημείο και μετά, η εξέλιξη των ανθρώπων και των ΑΙ θα είναι άρρηκτα συνδεδεμένη. Κάθε είδος, αν μπορώ να το αποκαλέσω έτσι, πρόκειται να επηρεάσει ισχυρά το άλλο. Θα γίνουν συμβιωτές μας με τον ίδιο τρόπο που είναι τα βακτήρια του εντέρου μας. Εχουμε εξελιχθεί έτσι, ώστε να μην μπορούμε να ζήσουμε χωρίς τα βακτήρια του εντέρου. Δεν μπορούμε να προσαρμόσουμε την τροφή μας χωρίς αυτά. Στη βιολογία, κάθε φορά που δύο είδη γίνονται συμβιωτές, υποδηλώνεται μια καλοήθης σχέση όπου αμφότερα τα είδη επωφελούνται. Αλλά, τεχνικά, η συμβίωση μπορεί επίσης να υποδηλώνει μια παρασιτική σχέση όπου το ένα είδος επωφελείται και το άλλο ζημιώνεται. Οποτε δύο είδη συμβιώνουν, υπάρχουν οφέλη και κίνδυνοι. Γνωρίζουμε ήδη αρκετούς από τους κινδύνους που συνδέονται με την ΑΙ, όπως το χάκινγκ και ο κυβερνοπόλεμος. Οσο περισσότερο αλληλοεξαρτώμενοι γινόμαστε, τόσο μεγαλύτεροι είναι οι κίνδυνοι. Αλλά έχουμε ήδη προχωρήσει τόσο που οι σύγχρονες ανεπτυγμένες κοινωνίες όπως η Ελλάδα και οι ΗΠΑ δεν θα μπορούσαν να υπάρξουν χωρίς αυτά τα υπολογιστικά μέσα. Αν όλοι οι υπολογιστές μας πάθαιναν βλάβη απόψε τα μεσάνυχτα, εκτιμώ ότι έπειτα από έξι μήνες, περίπου το 90% του ανθρώπινου πληθυσμού θα ήταν νεκρό. Οι άνθρωποι που ζουν σε πόλεις δεν θα είχαν καμία ελπίδα. Κάποια υπολείμματα της ανθρωπότητας θα επιβίωναν σε αγροτικές κυρίως περιοχές. Αλλά αυτό απλά δείχνει πόσο πολύ εξαρτιόμαστε από τα υπολογιστικά μέσα. Τώρα έχουμε μία ακόμη πιο ισχυρή μορφή τους, την ΑΙ. Οσο όλο και περισσότερες δομές μας περιπλέκονται μ’ αυτήν, τα οικονομικά μας συστήματα, τα τραπεζικά μας συστήματα, τα δίκτυα τροφίμων μας, τα δίκτυα μεταφορών μας και ούτω καθεξής, τόσο η αλληλεξάρτησή μας θα αυξάνεται.

Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή
MHT