Το ΑΙ του Μασκ θα απαντά σε όλα «χωρίς ταμπού» και «πολιτική ορθότητα»

Το ΑΙ του Μασκ θα απαντά σε όλα «χωρίς ταμπού» και «πολιτική ορθότητα»

Σε αντίθεση με τις άλλες γλωσσικές εφαρμογές τεχνητής νοημοσύνης, το Grok που λάνσαρε ο Ελον Μασκ «έχει σχεδιασθεί για να απαντά ακόμη και σε πικάντικες ερωτήσεις, με χιούμορ και επαναστατική διάθεση»

1' 40" χρόνος ανάγνωσης
Ακούστε το άρθρο

Ο πολυδισεκατομμυριούχος Ελον Μασκ ίδρυσε προ μηνών, τον περασμένο Μάρτιο για την ακρίβεια, μια νέα εταιρεία ονόματι xAI· και με τη σειρά της αυτή η εταιρεία ανακοίνωσε προ ημερών ότι λανσάρει, προς πειραματική χρήση προσώρας, ένα νέο γλωσσικό εργαλείο τεχνητής νοημοσύνης (AI) ονόματι Grok.

Ο Μασκ ζήλεψε τη δόξα εφαρμογών «παραγωγικής» τεχνητής νοημοσύνης όπως είναι για παράδειγμα το ChatGPT της OpenAI και σπεύδει να εισβάλει (και) σε αυτό το πεδίο, θα μπορούσε να σχολιάσει κανείς.

Το Grok ωστόσο διαφέρει από τις άλλες AI εφαρμογές. Τουλάχιστον αυτό υποστηρίζει, στην προσπάθειά της να το διαφημίσει, η xAI του Μασκ.   

Το Grok «έχει σχεδιασθεί για να απαντά σε ερωτήσεις με μια νότα χιουμοριστικής εξυπνάδας και επαναστατικότητας, για αυτό μην το χρησιμοποιείτε αν μισείτε το χιούμορ. Θα απαντήσει, επίσης, και σε πικάντικες ερωτήσεις που απορρίπτονται από τα περισσότερα άλλα συστήματα AI», αναφέρει στην ιστοσελίδα της η εταιρεία.

Σύμφωνα με την xAI, το Grok αναπτύχθηκε μέσα σε ένα διάστημα μόλις δύο μηνών και βασίζεται σε ένα γλωσσικό μοντέλο που ονομάζεται Grok-1 και έχει 33 δισεκατομμύρια παραμέτρους.

Η πλευρά του Ελον Μασκ ωστόσο δεν έχει δώσει, προς το παρόν, περισσότερες διευκρινίσεις αναφορικά με τη σημασία των όρων «πικάντικο» («spicy») ή «επαναστατικό» («rebellious») που χρησιμοποιεί για να προμοτάρει το Grok.  

Οι άλλες παρόμοιου τύπου εφαρμογές AI που ήδη υπάρχουν σήμερα, αρνούνται να δημιουργήσουν σεξουαλικά άσεμνο, βίαιο ή παράνομο περιεχόμενο και έχουν σχεδιασθεί κατά τέτοιο τρόπο ώστε να αποφεύγουν εκφράσεις που θα μπορούσαν να θεωρηθούν προσβλητικές, κακόβουλες ή μεροληπτικές. Με άλλα λόγια, υπακούν σε μια σειρά από ασφαλιστικές δικλείδες οι οποίες δεν όμως σαφές εάν υπάρχουν και στον κόσμο του Grok της xAI.  

«Χωρίς τέτοιου τύπου προστατευτικές δικλείδες ωστόσο, η ανησυχία που γεννάται είναι μήπως αυτό το μοντέλο τεχνητής νοημοσύνης θα μπορούσε να βοηθήσει, για παράδειγμα, τρομοκράτες να φτιάξουν βόμβες ή να οδηγήσει στη δημιουργία προϊόντων που κάνουν διακρίσεις σε βάρος των χρηστών με βάση χαρακτηριστικά όπως είναι η φυλή, το φύλο ή η ηλικία», σχολιάζει ο Γουίλ Νάιτ σε άρθρο του στον ιστοχώρο του περιοδικού Wired.

Με πληροφορίες από Wired

Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή
MHT