Πόσο αξιόπιστο είναι το ChatGPT;

H Γιούλη Κούτρικα, διευθύντρια Ερευνών στο Ινστιτούτο «Αθηνά», μάς εξηγεί σε ποιο στάδιο της τεχνητής νοημοσύνης βρισκόμαστε, τι εμπόδια εμφανίζονται στον δρόμο της και τι αλλαγές να περιμένουμε στο άμεσο μέλλον

7' 47" χρόνος ανάγνωσης
Ακούστε το άρθρο

Ξεχάστε τον τρόπο με τον οποίο αναζητούσατε ως χθες πληροφορίες στο διαδίκτυο. Σύντομα, αυτά που θα θέλετε να μάθετε, θα έρχονται με τη μορφή απαντήσεων που θα έχει συνθέσει μια τεχνητή νοημοσύνη. Ήδη, όσοι χρησιμοποιούν τα εργαλεία της παραγωγικής ΤΝ, το έχουν αντιληφθεί: ζούμε στην εποχή των chatbots.

Συνηθίζουμε εσχάτως να λέμε ότι η τεχνητή νοημοσύνη (ΤΝ) συνιστά μια τεχνολογική επανάσταση που θα επηρεάσει τα πάντα. Το πρώτο πεδίο στο οποίο ήδη τα αλλάζει όλα, είναι το πεδίο της γνώσης. Τα πρώτα μαζικά καταναλωτικά προϊόντα τεχνητής νοημοσύνης, τα επονομαζόμενα Μεγάλα Γλωσσικά Μοντέλα (ΜΓΜ) έχουν εδώ και ενάμιση περίπου χρόνο κλονίσει ό,τι γνωρίζαμε σε σχέση με την αναζήτηση πληροφοριών, κάνοντας τον καθένα να σαστίζει μπροστά τους. Κάποιοι τα εμπιστεύονται τυφλά, άλλοι τα εχθρεύονται, κανείς ωστόσο δεν μπορεί να τα περιφρονήσει, καθώς ήρθαν για να μείνουν.

Το ChatGPT της OpenAI, που είναι το πιο γνωστό μοντέλο, είναι πλέον διάσημο για την ικανότητά του να παρέχει εντυπωσιακές απαντήσεις σε ένα τεράστιο εύρος ερωτήσεων που του θέτουν οι άνθρωποι. Από κοντά και η Google, με το Gemini AI, παρέχει στους χρήστες της τη δυνατότητα να θέτουν ερωτήσεις στην τεχνητή νοημοσύνη, και να παίρνουν αξιοπρόσεκτα αποτελέσματα. Ίσως, να μην έχει πέσει ακόμα στην αντίληψή μας, αλλά βρισκόμαστε σ’ ένα μεταβατικό στάδιο, όπου η τεχνητή νοημοσύνη δεν αλλάζει απλά το διαδίκτυο, ή την πληροφόρηση που λαμβάνουμε απ’ αυτό, αλλά αλλάζει και την ίδια την απόκτηση γνώσης.

Η Γιούλη Κούτρικα, διευθύντρια ερευνών στο Ερευνητικό Κέντρο «Αθηνά», είναι η πλέον αρμόδια να μας μιλήσει για αυτές τις σοβαρές αλλαγές, καθώς το κέντρο διεξάγει εδώ και χρόνια μια μεγάλη έρευνα πάνω στα διαλογικά μοντέλα. «Ο στόχος της έρευνάς μας», λέει η επιστήμονας, η οποία έχει αναπτύξει πλούσιο ερευνητικό έργο στις ΗΠΑ και στην ημεδαπή, «είναι η ανάπτυξη συστημάτων τα οποία επιτρέπουν την πρόσβαση του ανθρώπου σε δεδομένα κάνοντας διάλογο με το σύστημα. Στόχος μας είναι το σύστημα να απαντά με τρόπο αξιόπιστο, επαληθεύσιμο και αποδοτικό, τρία στοιχεία στα οποία τα υπάρχοντα ΜΓΜ υστερούν».

Είναι πράγματι το μέλλον της μηχανής αναζήτησης τα ΜΓΜ;

Οι μηχανές αναζήτησης λαμβάνοντας μια ερώτηση από εμάς, ανατρέχουν στο Διαδίκτυο και επιστρέφουν σελίδες με σειρά σχετικότητας. Κάθε αποτέλεσμα συνοδεύεται από ένα απόσπασμα από τη σελίδα που αναδεικνύει τη σχετικότητά της στο ερώτημά μας κάνοντας εύκολη την αξιολόγηση των αποτελεσμάτων και της εγκυρότητας των πηγών. Το ChatGPT καλωσορίστηκε ως μία νέα μηχανή αναζήτησης. Τα ΜΓΜ είναι μαθηματικά μοντέλα με πολλαπλά επίπεδα συναρτήσεων όπου το ένα επίπεδο εκπαιδεύει το επόμενο. Τροφοδοτώντας τα κείμενα, μαθαίνουν συσχετίσεις μεταξύ χαρακτήρων, λέξεων, προτάσεων. Δίνοντάς τους μία ερώτηση (κείμενο), προβλέπουν το πιθανότερο κείμενο στην έξοδό τους.

Αν ρωτήσουμε ποιος είναι ο πρόεδρος των ΗΠΑ, το μοντέλο έμαθε ότι ο Τζο Μπάιντεν είναι η πιθανότερη πρόταση για να συμπληρώσει την είσοδό του και επιστρέφει αυτό σαν απάντηση. Έχοντας εκπαιδευτεί σε τεράστιους όγκους κειμένου, μπορεί να κάνει αυτό το «κόλπο» για πληθώρα εισόδων! Τα ΜΓΜ είναι μηχανές παραγωγής περιεχομένου. Οι μηχανές αναζήτησης είναι αξιόπιστα ευρετήρια πληροφοριών. Κατανοώντας αυτή τη διαφορά, μπορούμε να θέσουμε σωστές προσδοκίες για τα ΜΓΜ.

Ρωτώντας το ChatGPT για την ταινία «Τα παιδιά του χειμώνα», η πρώτη απάντηση είχε 13 γραμμές, η δεύτερη 17 γραμμές. Καμία δεν αναφέρει τις πηγές της (το μοντέλο δεν τις ξέρει!). Ποια απάντηση είναι σωστή, πιο έγκυρη; Πόσο μπορούμε να τις εμπιστευτούμε; Τα ΜΓΜ επηρεάζουν την πληροφόρησή μας και σε άλλο επίπεδο. Χρησιμοποιούνται για παραγωγή άρθρων, κριτικών, ιστοσελίδων, παραγκωνίζοντας τους δημιουργούς (δημοσιογράφους, συγγραφείς, bloggers, κοκ). Επιπρόσθετα, πώς διακρίνεται το πρωτότυπο και έγκυρο περιεχόμενο στο Διαδίκτυο από το τεχνητό περιεχόμενο των ΜΓΜ;

Παρόλο που το ChatGPT κάνει το διάλογο ανθρώπου-μηχανής να μοιάζει με κάτι απλό, απ’ ό,τι καταλαβαίνουμε, τα πράγματα δεν είναι καθόλου έτσι. Ποια είναι τα κύρια προβλήματα που προκύπτουν όταν δημιουργείς ένα τέτοιο μοντέλο και το θέτεις μαζικά προς χρήση;

Ποτέ δεν είμαστε 100% σίγουροι για την αξιοπιστία ενός ΜΓΜ. Όσα δεδομένα κι αν χρησιμοποιηθούν, όσες δοκιμές κι αν γίνουν, είναι δύσκολο να προβλέψεις κάθε πιθανή είσοδο. Το παράδειγμα της ΤΝ της Google που συστήνει κόλλα στην πίτσα για να κολλάει το τυρί, είναι ένα από τα πολλά γνωστά, απρόβλεπτα, λάθη. Ένα ΜΓΜ σε μαζική χρήση επηρεάζει εκατομμύρια χρήστες διαφορετικών ηλικιών και υποβάθρων. Μία λάθος απάντηση δεν είναι πάντα οφθαλμοφανής, και το αντίκτυπό της μπορεί να είναι μεγαλύτερο από μία κακή πρόταση ταινίας από το Netflix. Απαιτείται υπευθυνότητα από τους δημιουργούς ΜΓΜ. Τα όρια χρήσης τους πρέπει να είναι σαφή. Επίσης, είναι επιτακτική η επιμόρφωση των ανθρώπων σχετικά με την ΤΝ ώστε να τη χρησιμοποιούν υπεύθυνα και ηθικά. Μία έρευνα στην Αμερική (όπου γίνονται άλματα στην ΤΝ) έδειξε ότι το 84% των Αμερικανών είναι «αναλφάβητοι» στην ΤΝ.

Να μείνουμε στο θέμα της αξιοπιστίας. Θα μπορούσε ένα μοντέλο σαν το ChatGPT να αξιοποιηθεί για πιο ειδικούς σκοπούς; Πόσο αξιόπιστο είναι, όταν αποδεδειγμένα γνωρίζουμε ότι έχει τις λεγόμενες «παραισθήσεις»; Εκεί που διακυβεύονται πολλά, π.χ. στις ιατρικές διαγνώσεις, πώς θα πρέπει να δημιουργούνται αυτά τα μοντέλα;

Ένα μοντέλο κάνει λάθη, επινοεί απαντήσεις («παραισθήσεις»), και αναπαράγει προκαταλήψεις. Φανταστείτε λοιπόν ένα γιατρό που ρωτάει για τη χρήση δύο φαρμάκων και το μοντέλο απαντά λανθασμένα ότι ο συνδυασμός είναι ασφαλής. Η έρευνα που κάνουμε στο «Αθηνά» πάνω στα διαλογικά συστήματα, εστιάζει στην αξιοπιστία και την ακρίβεια των απαντήσεων του συστήματος. Για τον σκοπό αυτό, τα μοντέλα μας μεταφράζουν την ερώτηση του χρήστη σε κώδικα που υπολογίζει την απάντηση απευθείας στα δεδομένα.

Αναγνωρίζοντας τα όρια των μοντέλων, φτιάχνουμε συστήματα όπου διαφορετικά μοντέλα συνεργάζονται. Για παράδειγμα, ένα μοντέλο παρέχει μία πιο κατανοητή περιγραφή των δεδομένων, ενώ ένα άλλο βοηθάει το σύστημα να εστιάσει σε σχετικά δεδομένα για μία ερώτηση. Ο ρόλος του ανθρώπου στην επαλήθευση των αποτελεσμάτων είναι σημαντικός.

Καθώς για κάθε ερώτηση, το σύστημά μας «χτίζει» τον τρόπο υπολογισμού της απάντησης από τα δεδομένα, μπορούμε να τον εξηγήσουμε στον χρήστη. Αν κερδηθεί το στοίχημα της αξιοπιστίας, η πρόσβαση σε εξειδικευμένα δεδομένα θα είναι διαφορετική. Μεγάλη έμφαση στην αξιοπιστία των ΜΓΜ δίνει και η Ε.Ε.. Στο νέο ευρωπαϊκό έργο ARMADA, στοχεύουμε στην αξιόπιστη διαλογική ανάλυση ιατρικών, επιχειρησιακών και εκπαιδευτικών δεδομένων.

Μπορείτε να μας μιλήσετε για κάποιες απ’ τις εφαρμογές που έχουν βασιστεί στην έρευνα του Ερευνητικού Κέντρου «Αθηνά»;

Φτιάξαμε διαλογικά συστήματα για βιολόγους (με το Swiss Institute of Bioinformatics) και αστροφυσικούς (με το Max-Planck Institute for Extraterrestrial Physics). Τώρα, αναπτύσσουμε μία διαλογική πλατφόρμα αναζήτησης επιστημονικών άρθρων. Ταυτόχρονα, ένα φιλόδοξο έργο με την Nestle έχει στόχο να ανοίξει νέους ορίζοντες στην επιχειρησιακή ανάλυση με χρήση φυσικής γλώσσας.

Η αλήθεια είναι ότι όσο κι αν ψάξει κανείς δύσκολα θα καταλάβει πώς κατέληξε η τεχνητή νοημοσύνη να σου δώσει μια συγκεκριμένη απάντηση. Για το λόγο αυτό, τα μοντέλα αυτά ονομάζονται και «μαύρα κουτιά». Πόσο κοντά είμαστε στο να ανοίξουμε αυτά τα αδιαφανή μοντέλα, και να εξηγήσουμε τις αποφάσεις τους;

Μπορούμε να εξηγήσουμε γιατί ένας αλγόριθμος που προτείνει ταινίες συνδυάζοντας τα χαρακτηριστικά των ταινιών, προτείνει σε κάποιον το MatchPoint, αφού του αρέσει ο Γούντι Άλλεν. Σε ένα ΜΓΜ, δεν έχουμε προκαθορίσει ποια χαρακτηριστικά θα χρησιμοποιήσει για να μάθει. Το μοντέλο μαθαίνει έμμεσα μέσα από δισεκατομμύρια παραμέτρους. Για να παρακάμψουμε ότι είναι μαύρα κουτιά, επιχειρούμε να επαληθεύσουμε ή να επεξηγήσουμε την απάντησή τους με βάση τα δεδομένα.

Μπορεί να υπάρξει πλήρως αμερόληπτο διαλογικό μοντέλο; Στις ΗΠΑ υπάρχει μεγάλη διαμάχη σχετικά με την woke και την αντι-woke ΑΙ. Ο Ίλον Μασκ έχει χαρακτηρίσει το δικό του, αντι-woke ΜΓΜ, το Grok, αμερόληπτο. Γίνεται να υπάρξει κάτι τέτοιο;

Ένα ΜΓΜ μαθαίνει προκαταλήψεις και ανακρίβειες από τα δεδομένα. Για παράδειγμα: το CoPilot της Bing επιστρέφει «γιατρός» και «επιστήμονας» ως επαγγέλματα για άντρες, και «νοσοκόμα» και «βοηθός γιατρού» για γυναίκες. Από την άλλη, η ΤΝ της Google παρήγαγε ανακριβείς απαντήσεις, όπως εικόνες να δείχνουν γυναίκα πάπα, προκειμένου να εξισορροπήσει προκαταλήψεις. Δουλεύοντας σε δίκαιους αλγορίθμους, γνωρίζουμε ότι είναι δύσκολο να περιγράψεις στον αλγόριθμο τι είναι δίκαιο, ενώ η αμεροληψία ανταγωνίζεται την ακρίβεια των απαντήσεων.

Τίθεται επίσης κι ένα μεγάλο ζήτημα με την ιδιωτικότητα, αλλά και με τα πνευματικά δικαιώματα. Ως σήμερα, η μηχανή αναζήτησης σε παραπέμπει στις ιστοσελίδες των πηγών. Αν αύριο καταπίνει αυτές τις πηγές χωρίς καν να τους κάνει μνεία, αυτό θα σημαίνει στυγνή καταπάτηση των πνευματικών τους δικαιωμάτων. Νομίζω ότι εκτός από τη νομική πλευρά, εδώ τίθεται κι ένα ηθικό ζήτημα.

Σαφέστατα. Οι Νew Υork Times μήνυσαν την OpenAI καθώς άρθρα, πνευματική ιδιοκτησία της εφημερίδας, χρησιμοποιήθηκαν για να εκπαιδεύσουν το ChatGPT. Όμως, αλγόριθμοι συχνά χρησιμοποιούν μεγάλες δημόσιες βάσεις πληροφοριών (όπως η Wikipedia). Τι έχει αλλάξει; Οι εταιρείες τεχνολογίας, προκειμένου να τροφοδοτήσουν τα μοντέλα τους με δεδομένα, αποκρύπτουν τις πηγές τους και αγνοούν τις πολιτικές περί πνευματικών δικαιωμάτων. Δεύτερον, ένας αλγόριθμος που εκπαιδεύεται για να εξάγει, για παράδειγμα, έννοιες από τη Wikipedia, επικεντρώνεται σε ένα εξειδικευμένο πρόβλημα. Όμως, όταν ένα μοντέλο, έχοντας «ρουφήξει» κείμενα, παράγει κείμενο εγείρει το ζήτημα της λογοκλοπής. Ιδίως, όταν οι απαντήσεις του δεν αναφέρουν τις πηγές τους, όπως κάνει το ChatGPT με τους New York Times. Επίσης, ανταγωνίζεται την ανθρώπινη δημιουργικότητα. Γι’ αυτό το λόγο έγινε η απεργία των σεναριογράφων του Χόλυγουντ: ενάντια στην χρήση ΜΓΜ για παραγωγή φθηνών σεναρίων. Τέλος, καθώς οι εταιρείες αναζητούν δεδομένα για τα μοντέλα τους, διακυβεύεται η ιδιωτικότητα. Η Google εποφθαλμιά ιδιωτικά δεδομένα των χρηστών της, ενώ το νέο ChatGPT ακούει και μαθαίνει από σένα!

Τι ρόλο μπορεί να παίξει μια περιφερειακή χώρα όπως η δική μας στην έρευνα για το μέλλον της τεχνητής νοημοσύνης;

Το ερώτημα είναι διαφορετικό. Παλιότερα, διεθνώς, τα ερευνητικά κέντρα, εργαστήρια και πανεπιστήμια είχαν τον πρώτο λόγο στην έρευνα. Τώρα, μεγάλες εταιρείες οδηγούν τις εξελίξεις. Τόσο γρήγορα, που πρόσφατα μέλη της OpenAI αποχώρησαν λέγοντας ότι η εταιρεία προχωράει αγνοώντας την ασφάλεια. Ας κρατήσουμε αυτό ως τροφή για σκέψη.

comment-below Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή
MHT