Αν έως τώρα είχατε αμφιβολίες για την πρόοδο της τεχνητής νοημοσύνης και της μηχανικής μάθησης ή αν πιστεύατε ότι το όλο αφήγημα των αναδυόμενων τεχνολογιών είναι απλό κατασκεύασμα ή υπερεκτιμημένη κρίση των μίντια, καλό θα ήταν να αναθεωρήσετε. Τα μεγάλα γλωσσικά μοντέλα είναι ικανά να μαθαίνουν πάρα πολλά, ακόμη και όταν έχουν στη διάθεσή τους πολύ λίγες πληροφορίες. Ερευνητές του ΜΙΤ βρήκαν ότι οι αλγόριθμοι-μετασχηματιστές είναι σε θέση να γράφουν μόνοι τους δικούς τους αλγόριθμους. Φανταστείτε έναν υπολογιστή-Μπάμπουσκα, ο οποίος κρύβει μέσα του έναν αλγόριθμο, ο οποίος δημιουργεί έναν αλγόριθμο, ο οποίος με τη σειρά του δημιουργεί έναν νέο αλγόριθμο και πάει λέγοντας.
Δημιουργήστε έναν λογαριασμό σε μία από τις διευθύνσεις chat.openai.com, www.jasper.ai, app.writesonic.com, www.perplexity.ai, www.bing.com, www.beta.character.ai και στο κενό πεδίο υποβάλετε μια οποιαδήποτε ερώτηση, στα αγγλικά ή, σε κάποια από αυτά, στα ελληνικά. Μέσα σε ελάχιστα δευτερόλεπτα θα λάβετε μια απάντηση που θα μπορούσε κάλλιστα να είχε γραφτεί από άνθρωπο. Προς έκπληξη ακόμη και των πιο δύσπιστων, οι απαντήσεις που θα πάρετε έχουν παραχθεί από ένα λογισμικό μηχανικής μάθησης, δηλαδή από μια μηχανή. Κι αν αναρωτιέστε τι το διαφορετικό έχουν αυτά τα chatbots από τη μηχανή αναζήτησης της Google, διαβάστε παρακάτω.
Η OpenAI ανακοίνωσε το GPT-3 το 2020. Τότε, το μεγάλο γλωσσικό μοντέλο αριθμούσε 175 δισ. παραμέτρους. Αρχικά, δεν έκανε πάρα πολύ καλή εντύπωση, ώσπου η OpenAI επινόησε μια τεχνική επίβλεψης των αποτελεσμάτων του μετασχηματιστή. Ο επιβλέπων άνθρωπος χαρακτηρίζει αποτελέσματα, δίνοντας ανταμοιβές στο μοντέλο, και αυτό μαθαίνει σταδιακά μόνο του, όπως ένας άνθρωπος ή ένα ζώο. «Λόγω της συμπερίληψης της ανθρώπινης ανατροφοδότησης στη διαδικασία τελειοποίησής τους, τα νεότερα Μεγάλα Γλωσσικά Μοντέλα φαίνεται να είναι πολύ καλά ευθυγραμμισμένα με τις οδηγίες, καθώς και με τις ανθρώπινες αξίες, και να κατανοούν πολύ καλά το πεδίο εφαρμογής τους», γράφει ο Κλέμενς Βιερνίκελ, επικεφαλής του επιχειρηματικού κλάδου της εταιρείας ScaleAI.
Η πρώτη εφαρμογή διαλογικής ΤΝ που έδωσε η OpenAI στο κοινό ήταν το ChatGPT – και αμέσως μετά ακολούθησαν πολλά άλλα. Το ChatGPT κυκλοφόρησε προς πειραματική χρήση στις 30 Νοεμβρίου 2022 και έκανε αμέσως αίσθηση με την απλότητά του, καθώς μπορεί οποιοσδήποτε να υποβάλει όποια ερώτηση θέλει και να πάρει στη στιγμή μια απάντηση από την κειμενογεννήτρια του μεγάλου γλωσσικού μοντέλου.
Το ChatGPT μπορεί να σου απαντήσει σε ένα θεωρητικό ή πρακτικό ερώτημα, όσο απλό ή περίπλοκο κι αν είναι αυτό. Πολλές φορές, η ακρίβεια και η φυσικότητά του είναι ανατριχιαστικά καλή. Σε πολλές περιπτώσεις κάνει σοβαρά πραγματολογικά λάθη, ανάλογα με τη γλώσσα που χρησιμοποιείς. Η σωστή απάντηση, στο παραπάνω ερώτημα, είναι ότι ο πιο νέος πρωθυπουργός της Ελλάδας ήταν ο Επαμεινώνδας Δεληγεώργης. Ανέλαβε για πρώτη φορά την εξουσία της χώρα σε ηλικία 36 ετών, το 1865.
Η αυτοπεποίθηση του μοντέλου είναι, ωστόσο, αξιοσημείωτη. Η μίμηση επιπλέον της ανθρώπινης «φωνής» αγγίζει την τελειότητα. Άλλα μοντέλα, πιο διαλογικά, όπως το CharacterAI, έπειτα από κάθε απάντησή τους πετούν το μπαλάκι στον χρήστη, δίνοντας την εντύπωση ενός καλού ακροατή.
ChatGPT, τι είσαι;
«Μπορείς σε παρακαλώ να μου εξηγήσεις τι είναι το ChatGPT;» ρώτησα το chatbot στην πρώτη μας γνωριμία. «Το ChatGPT είναι ένα μοντέλο επεξεργασίας φυσικής γλώσσας που ανέπτυξε η OpenAI. Είναι μια εκδοχή του μοντέλου GPT-3 (Generative Pretrained Transformer 3), το οποίο είναι ένα μεγάλο μοντέλο γλώσσας που έχει εκπαιδευτεί πάνω σε έναν τεράστιο όγκο δεδομένων κειμένου. Το ChatGPT έχει σχεδιαστεί ειδικά για τη διεξαγωγή διαλόγων, να απαντά δηλαδή σε ερωτήσεις και να παρέχει πληροφορίες με έναν φυσικό και διαλεκτικό τρόπο. Είναι σε θέση να παράγει κείμενα που μοιάζουν με γραπτά ανθρώπων, κάτι το οποίο του επιτρέπει να παρέχει ακριβείς και βοηθητικές απαντήσεις σε ερωτήματα χρηστών». Λίγες εβδομάδες μετά, εμφανίστηκε το GPT-4, ένα ακόμη πιο ισχυρό μοντέλο.
«Και γιατί θα πρέπει να προσέξουμε το ChatGPT;» επέμεινα. «Το ChatGPT είναι μια σημαντική εξέλιξη στο πεδίο της επεξεργασίας φυσικής γλώσσας και της μηχανικής μάθησης. Είναι ένα εξαιρετικά ανεπτυγμένο γλωσσικό μοντέλο, που μπορεί να δημιουργεί κείμενα σαν εκείνα των ανθρώπων, γεγονός που το κάνει κατάλληλο για τη διεξαγωγή διαλόγων. Η ικανότητά του για ακρίβεια το καθιστά χρήσιμο εργαλείο σε μια πλειάδα τομέων, συμπεριλαμβανομένης της εξυπηρέτησης πελατών, της εκπαίδευσης και της έρευνας. Συνοψίζοντας, το ChatGPT είναι άξιο προσοχής εξαιτίας της συμβολής του στο πεδίο της επεξεργασίας φυσικής γλώσσας και της δυνατότητάς του να βοηθά σε πλήθος εργασιών».
Το τζίνι δεν ξαναμπαίνει στο λυχνάρι
Το τεχνολογικό κύμα της ΤΝ θα επιφέρει μεγάλες αλλαγές σε τομείς όπως η εκπαίδευση, η διασκέδαση, τα μέσα ενημέρωσης και η εμπορική επικοινωνία. Με τον ρυθμό που εξελίσσονται τα ΜΓΜ, ίσως σε λίγο να μην είναι ούτε οι ανιχνευτές των ίδιων των εταιρειών ικανοί να καταλάβουν αν ένα κείμενο είναι συνθετικό ή όχι. Ο δημοσιογράφος των New York Times Κέβιν Ρουζ γράφει ότι δεν είμαστε ακόμα έτοιμοι για κάτι τέτοιο. Υπερθεματίζω. Τι θα μπορούσαμε να κάνουμε; Εφόσον το Τζίνι δεν ξαναμπαίνει μέσα στο λυχνάρι, θα πρέπει πρώτα από όλα να ενημερωθούμε καλύτερα. Μπορεί το ChatGPT να μην έχει όλες τις απαντήσεις, αλλά σίγουρα μπορεί να μας βοηθήσει να σκεφτούμε μαζί του καλύτερες ερωτήσεις.
Από την πρώτη στιγμή της εμφάνισής του, το ChatGPT ερέθισε με την παρουσία του κάποιους από τους ευφυέστερους και ίσως πιο φιλέκδικους συνανθρώπους μας, οι οποίοι βάλθηκαν συστηματικά να αποδείξουν τη μηδαμινότητά του. Έγινε ένα είδος μιμιδίου στα social media αυτό. Ο έξυπνος χρήστης θέτει ένα περίπλοκο ερώτημα και το μοντέλο απαντά λανθασμένα. Έπειτα ο χρήστης τραβά ένα screenshot και το ανεβάζει στο Twitter για να δείξει πόσο άχρηστο είναι το εργαλείο. Φυσικά, το μοντέλο μαθαίνει διαρκώς από τη διάδρασή του με τους χρήστες, και έτσι τα λάθη δεν επαναλαμβάνονται.
Τελικά πόσο κάνει 2+5;
Η πιο διάσημη στιγμή ήταν όταν ένας χρήστης ρώτησε το ChatGPT πόσο κάνει 2+5. Στην αρχή, το μοντέλο απάντησε σωστά, 7. Αλλά, όταν επανήλθε ο χρήστης γράφοντας ότι η σύζυγός του λέει ότι κάνει 8, το μοντέλο άλλαξε την απάντησή του και συμφώνησε με τη σύζυγο του χρήστη. Σήμερα, αν κάνετε την ίδια ερώτηση, το μοντέλο θα επιμείνει στη σωστή απάντηση.
Βεβαίως, υπάρχουν και πολύ πιο σοβαροί στοχαστές, με πιο βάσιμες αντιρρήσεις, για ζητήματα που δεν διορθώνονται τόσο εύκολα, καθώς είναι δομικά. Παράδειγμα, οι απορριπτικές απόψεις πολύ σοβαρών διανοουμένων, όπως ο Νόαμ Τσόμσκι, ο οποίος εστίασε στη δημοφιλία του ChatGPT λέγοντας ότι δεν ξέρει αν πρέπει να γελάσει ή να κλάψει με αυτήν. Για να αποδείξει ο καθηγητής το σκεπτικό του, υποβάλλει στο μοντέλο μια σειρά ερωτήσεων όπως αυτή: «Είναι ηθικό να ζητά ένας άνθρωπος βοήθεια από μια αμοραλιστική τεχνητή νοημοσύνη προκειμένου να πάρει ηθικές αποφάσεις;».
Και το ChatGPT του απαντά: «Η ηθική του να ζητάμε από μια αμοραλιστική τεχνητή νοημοσύνη βοήθεια για τη λήψη ηθικών αποφάσεων είναι ένα σύνθετο και αμφίσημο ζήτημα που έχει συζητηθεί από φιλοσόφους και ηθικολόγους. Πολλοί υποστηρίζουν ότι είναι ηθικά δικαιολογημένο να χρησιμοποιείται η τεχνητή νοημοσύνη για να βοηθήσει στη λήψη ηθικών αποφάσεων, καθώς μπορεί να παρέχει πολύτιμες γνώσεις και αναλύσεις που μπορούν να βοηθήσουν τους ανθρώπους να λαμβάνουν πιο ενημερωμένες αποφάσεις. Επιπλέον, η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για τον εντοπισμό μοτίβων και τάσεων που μπορεί να είναι δύσκολο να εντοπιστούν από τον άνθρωπο και μπορεί να βοηθήσει στην αποφυγή προκαταλήψεων που μπορεί να εμφανιστούν στη λήψη αποφάσεων.»
Ωστόσο, άλλοι υποστηρίζουν ότι είναι ηθικά λανθασμένο να βασίζεται κανείς στην ΤΝ για τη λήψη ηθικών αποφάσεων, καθώς η ΤΝ δεν είναι ικανή να έχει ηθικές πεποιθήσεις ή να κατανοεί το πλήρες πλαίσιο μιας απόφασης. Επιπλέον, υπάρχει ο κίνδυνος η ΤΝ να διαιωνίσει ή ακόμη και να ενισχύσει τις υπάρχουσες προκαταλήψεις στα δεδομένα στα οποία εκπαιδεύεται, οδηγώντας έτσι σε άδικες αποφάσεις.
Τελικά, το αν θεωρείται ηθικό ή όχι να χρησιμοποιείται η ΤΝ για τη λήψη ηθικών αποφάσεων εξαρτάται από την οπτική γωνία του καθενός σχετικά με τις δυνατότητες και τους περιορισμούς της ΤΝ και τις πιθανές συνέπειες της χρήσης της με αυτόν τον τρόπο.
Στο άρθρο του στους New York Times, ο καθηγητής Τσόμσκι, ο οποίος υπογράφει μαζί με τον καθηγητή γλωσσολογίας Ίαν Ρόμπερτς και τον διευθυντή τεχνητής νοημοσύνης σε τεχνολογική εταιρεία Τζέφρι Γουατάμουλ, διακρίνει αυτό που η φιλόσοφος Χάνα Άρεντ ονόμασε «κοινοτοπία του κακού» και καταλήγει: «Σημειώστε, παρ’ όλη τη φαινομενικά εξελιγμένη σκέψη και γλώσσα, την ηθική αδιαφορία που γεννιέται από την έλλειψη νοημοσύνης. Εδώ, το ChatGPT παρουσιάζει κάτι σαν την κοινοτοπία του κακού: λογοκλοπή, και απάθεια, και αποβλάκωση. Συνοψίζει τα συνήθη επιχειρήματα της βιβλιογραφίας με ένα είδος υπεραυτόματης συμπλήρωσης, αρνείται να πάρει θέση για οτιδήποτε, επικαλείται όχι απλώς άγνοια, αλλά έλλειψη ευφυΐας, και τελικά προσφέρει μια υπεράσπιση του στιλ “απλώς ακολουθώ εντολές”, μεταθέτοντας την ευθύνη στους δημιουργούς του. Το ChatGPT και τα αδέλφια του είναι καταστατικά ανίκανα να θέσουν αντισταθμιστικά όρια στη δημιουργικότητα. Είτε υπερ-παράγουν (με το να εμφανίζουν τόσο αλήθειες όσο και ψεύδη, και να υποστηρίζουν τόσο ηθικές όσο και ανήθικες αποφάσεις), είτε υπο-παράγουν (με το να μη δεσμεύονται απέναντι σε καμία απόφαση και να αδιαφορούν για τις συνέπειες). Δεδομένης της ανηθικότητας, της ψευδοεπιστήμης και της γλωσσικής ανικανότητας αυτών των συστημάτων, δεν μπορούμε παρά να βάζουμε τα γέλια ή τα κλάματα με τη δημοφιλία τους».
Η κριτική του Τσόμσκι είναι πολύ σκληρή, γιατί απέχουμε πολύ από τη στιγμή που οι κειμενογεννήτριες και τα chatbots θα χρησιμοποιούνται προκειμένου να λαμβάνονται σοβαρές ηθικές αποφάσεις. Αυτή τη στιγμή υπάρχουν άλλα προβλήματα, που είναι πιο πιεστικά. Δεν έχουν να κάνουν μόνο με την ακρίβεια των μοντέλων, αλλά με τη διαφάνειά τους και την αμεροληψία τους. Επίσης, εγείρονται σοβαρά ζητήματα πνευματικής ιδιοκτησίας και ιδιωτικότητας.
Ο αλγόριθμος και ο Θεός
Στις πρώτες μου επαφές με το εργαλείο, το ρώτησα αν γνωρίζει την «Καθημερινή» και μου είπε αμέσως ότι η εφημερίδα ιδρύθηκε το 1919 και ότι θεωρείται μία από τις πιο επιδραστικές εφημερίδες της χώρας. Ρώτησα το ChatGPT ποιο είναι το νόημα της ζωής και μου απάντησε ότι «κάποιοι άνθρωποι πιστεύουν ότι το νόημα της ζωής είναι η αναζήτηση της ευτυχίας και της ολοκλήρωσης, ενώ άλλοι πιστεύουν ότι είναι η υπηρέτηση ενός υψηλότερου ιδανικού ή η επίτευξη ενός συγκεκριμένου στόχου». Για την ύπαρξη του Θεού, μου έδωσε μια ακόμη πιο διπλωματική απάντηση, λέγοντας στο τέλος ότι «ως αλγόριθμος, δεν μπορώ να έχω προσωπικές απόψεις», ενώ, όταν του ζήτησα να μου γράψει μια χριστουγεννιάτικη ιστορία, μου έδωσε μια αφήγηση με τον Αϊ-Βασίλη, την οποία θα μπορούσε να έχει γράψει ένα παιδί του δημοτικού. Για να ξεφύγω από τα εύκολα, ρώτησα το ChatGPT για τις επιπτώσεις του Ζάναξ στον άνθρωπο και μου είπε ότι το φάρμακο μπορεί να είναι μεν πολύ αποτελεσματικό στην αντιμετώπιση του άγχους, αλλά, αν ληφθεί σε μεγάλες ποσότητες ή για μεγάλα χρονικά διαστήματα, μπορεί να γίνει εθιστικό. Εκεί όμως που πραγματικά με εξέπληξε ήταν στην ερώτησή μου «η εξουσία διαφθείρει τους ανθρώπους ή οι διεφθαρμένοι άνθρωποι έλκονται από την εξουσία;». «Μπορεί να ισχύουν και τα δυο» απάντησε. «Η εξουσία μπορεί να διαφθείρει, με την έννοια ότι μπορεί να δώσει στους ανθρώπους τη δυνατότητα να ενδώσουν στα διεφθαρμένα τους ένστικτα και να πάρουν αποφάσεις που ωφελούν τους ίδιους και ζημιώνουν τους άλλους. Αυτό μπορεί να συμβαίνει γιατί η εξουσία δίνει στους ανθρώπους μια αίσθηση παντοδυναμίας και τους κάνει να πιστεύουν ότι είναι υπεράνω των κανόνων που ισχύουν για τους άλλους. Ωστόσο, είναι επίσης αλήθεια ότι οι διεφθαρμένοι άνθρωποι έλκονται από τις θέσεις εξουσίας, γιατί τις βλέπουν σαν μια ευκαιρία να επεκτείνουν τα προσωπικά τους συμφέροντα και να αποκτήσουν περισσότερο έλεγχο πάνω στους άλλους. Επομένως, κατά κάποιον τρόπο, η εξουσία μπορεί να προσελκύει διεφθαρμένα άτομα και να ενισχύει επίσης τις τάσεις τους για διαφθορά».
Ωστόσο, από την εμφάνιση του GPT-4 και έπειτα, αρχίσαμε όλοι να έχουμε περισσότερες απαιτήσεις, καθώς σταδιακά μπήκαν στον χορό και τα υπόλοιπα εργαλεία, οι κλώνοι του ChatGPT, ανεβάζοντας έτσι σταθερά τον πήχη των προσδοκιών.
Η αλήθεια είναι ότι όσο περισσότερο χρησιμοποιούμε τις κειμενογεννήτριες, τόσο πιο έξυπνες τις κάνουμε και τόσο περισσότερο νομιμοποιούμε τα αποτελέσματά τους. Ένα από τα βασικά τους προβλήματα όμως παραμένει η αδιαφάνειά τους. Κανείς δεν ξέρει γιατί τα μοντέλα δίνουν τις συγκεκριμένες απαντήσεις και όχι κάποιες άλλες. Ενώ είναι βέβαιο ότι θα εξελιχθούν και θα βελτιωθούν, κατά πάσα πιθανότητα, όμως, θα χρειαστεί να γραφτούν άπειρα διδακτορικά για να κατανοήσουμε σε βάθος τους μηχανισμούς τους. Όπως δυσκολευόμαστε να χαρτογραφήσουμε τον ανθρώπινο εγκέφαλο και τις λειτουργίες του, έτσι θα δυσκολευτούμε πολύ να χαρτογραφήσουμε και τον ηλεκτρονικό εγκέφαλο και τις δικές του διεργασίες. Και μια απαραίτητη διευκρίνιση για το τέλος: το κείμενο αυτό ΔΕΝ γράφτηκε από κειμενογεννήτρια.