«Ημουν νευρικός και ανήσυχος για την ανάπτυξη της τεχνητής νοημοσύνης στην OpenAI»

«Ημουν νευρικός και ανήσυχος για την ανάπτυξη της τεχνητής νοημοσύνης στην OpenAI»

Ο Ντάνιελ Ζίγκλερ, μηχανικός μηχανών μάθησης, περιγράφει τις ανησυχίες του για την ανάπτυξη της τεχνητής νοημοσύνης «από μέσα», τους φόβους για το μέλλον αλλά και την αναγκαιότητα της διαφάνειας, του νομικού πλαισίου και της εποπτείας εταιρειών αυτού του πεδίου. Το χρονικό των αναταράξεων της OpenAI και οι προβλέψεις των ειδικών που μίλησαν στην «Κ»

ημουν-νευρικός-και-ανήσυχος-για-την-α-563083126

«Ημουν νευρικός και ανήσυχος για την ανάπτυξη της τεχνητής νοημοσύνης στην OpenAI ακόμα και όταν δεν ήταν οι συνθήκες όπως οι σημερινές, με το ράλι για την εξέλιξη του πεδίου».

Ο πρώην εργαζόμενος της εταιρείας της οποίας ηγείται ο Σαμ Αλτμαν, Ντάνιελ Ζίγκλερ, περιγράφει, μιλώντας στην «Κ», όσα τον απασχολούσαν κατά τη διάρκεια των ετών που εργαζόταν εκεί. Ο ίδιος, μαζί με άλλα δέκα άτομα, πρώην και νυν στελέχη της OpenAI αλλά και άλλων κολοσσών, υπέγραψαν και δημοσίευσαν πριν από λίγες ημέρες μία επιστολή, με τον τίτλο «Right to Warn» (Δικαίωμα Προειδοποίησης).

Στην επιστολή αυτή, καταγγέλλουν την έλλειψη λογοδοσίας στις εταιρείες τεχνητής νοημοσύνης και απαιτούν ισχυρότερη προστασία για όσους προβαίνουν σε αποκαλύψεις όσων διαμείβονται στο εσωτερικό τους. «Στοχεύουμε στην επιβολή ενός συνόλου αρχών για την ανάπτυξη της ΑΙ· θέλουμε να βρούμε από κοινού με την κοινωνία των πολιτών και τις ρυθμιστικές αρχές τρόπους να ελέγχονται οι εταιρείες αυτού του τομέα», μας λέει ο 29χρονος Ντάνιελ Ζίγκλερ, ο οποίος εργάστηκε επί τρία και πλέον χρόνια στην OpenAI ως μηχανικός μηχανικής μάθησης.

Ημουν νευρικός και ανήσυχος για την ανάπτυξη της τεχνητής νοημοσύνης στην OpenAI ακόμα και όταν δεν ήταν οι συνθήκες όπως οι σημερινές, με το ράλι για την εξέλιξη του πεδίου. Ενιωθα ότι έπρεπε να λάβω δύσκολες αποφάσεις όσο εργαζόμουν πάνω σε αυτό το πεδίο.

Ο ίδιος λέει στην «Κ» ότι ακόμα και την περίοδο λίγο μετά το 2018 –κατά την οποία η τεχνητή νοημοσύνη δεν μας απασχολούσε ιδιαιτέρως ως πρόβλημα αλλά ως η νέα εποχή που επέκειτο– είχε να διαχειριστεί ηθικά την ευθύνη που αναλάμβανε ως μηχανικός στην OpenAI και στην ανάπτυξη του GPT 3, στο πλαίσιο της AGI (της γενικής τεχνητής νοημοσύνης), τότε που αυτή η τεχνολογία ήταν ακόμη στα σπάργανά της. Βέβαια, την ίδια περίοδο, η εταιρεία της οποίας ηγείται ο Σαμ Αλτμαν ήταν μη κερδοσκοπική, η οποία μετασχηματίστηκε σε περιορισμένα κερδοσκοπική το 2019.

«Ημουν νευρικός και ανήσυχος για την ανάπτυξη της τεχνητής νοημοσύνης στην OpenAI»-1
Ο Σαμ Αλτμαν, διευθύνων σύμβουλος της OpenAI. (©AP Photo/Stephen Brashear)

«Ενιωθα ότι έπρεπε να λάβω δύσκολες αποφάσεις όσο εργαζόμουν πάνω σε αυτό το πεδίο. Είχαμε, από τη μία, την επένδυση στην οποία οφείλαμε να προβούμε για την έρευνα σχετικά με την ασφάλεια των εργαλείων της ΑΙ, σε αντίθεση, από την άλλη, με το πόσο γρήγορα θα έπρεπε να προχωρήσουμε για να παραχθεί το τελικό προϊόν», θυμάται ο Ντάνιελ Ζίγκλερ.

Η έρευνα για την ασφάλεια των εργαλείων τεχνητής νοημοσύνης μοιάζει να μειώνει ταχύτητα – όπως πάντα, προέχει η παραγωγή.

Ο πρώην εργαζόμενος της εταιρείας συμπληρώνει ότι δεν πρέπει να εμπιστευόμαστε με κλειστά τα μάτια τις εταιρείες που επενδύουν στην ανάπτυξη της τεχνητής νοημοσύνης. «Πολίτες και κυβερνήσεις πρέπει να έχουν πλήρη εποπτεία για το πώς λειτουργούν οι αντίστοιχες εταιρείες. Ακόμα κι αν είναι ιδιωτικές, ακόμα κι αν ανταγωνίζονται μεταξύ τους για την παραγωγή και την ασφάλεια, έχουν τεράστια δύναμη και επιρροή στον μετασχηματισμό της κοινωνίας. Αυτού του είδους η έρευνα, όμως, μοιάζει να μειώνει ταχύτητα – όπως πάντα, προέχει η παραγωγή», τονίζει ο Ντάνιελ Ζίγκλερ στη συνομιλία μας.

Ταχύτητα, όμως, δεν προλαβαίνουν να αναπτύξουν ούτε οι κυβερνήσεις και τα κοινοβούλια ανά τον κόσμο, διότι η τεχνητή νοημοσύνη τρέχει με ιλιγγιώδεις ρυθμούς και αποτυγχάνει να συντονιστεί με τη διαφάνεια, αφενός, και τις ηθικές αρχές, αφετέρου, που μοιάζουν αναγκαίες σήμερα. «Οι κυβερνήσεις έχουν μείνει πίσω και γι’ αυτό είναι απαραίτητο να ξεκινήσει η δημόσια συζήτηση. Οφείλουμε να ελέγχουμε αν η τεχνητή νοημοσύνη είναι συμβατή με τις αξίες των κοινωνιών. Λένε ότι η ΑΙ αναπτύσσεται για να έχει τις ίδιες δυνατότητες με τον άνθρωπο. Εμείς λέμε ότι οφείλει να είναι καλύτερη από αυτόν», μας λέει ο Ντάνιελ Ζίγκλερ.

Λένε ότι η ΑΙ αναπτύσσεται για να έχει τις ίδιες δυνατότητες με τον άνθρωπο. Εμείς λέμε ότι οφείλει να είναι καλύτερη από αυτόν.

Αυτή η διατύπωση δεν μπορούσε να πέσει στο κενό. Τι σημαίνει να είναι καλύτερη από τον άνθρωπο; «Να μη διαιωνίζει στερεότυπα και διάφορους τύπους ρατσισμών, για παράδειγμα», περιγράφει στην «Κ» ο Ντάνιελ Ζίγκλερ. «Υπήρχαν, από τα χρόνια όπου ήμουν και εγώ στην OpenAI, τα πρώτα σημάδια ότι κάτι τέτοιο δεν θα μπορούσε να συμβεί εύκολα. Κι αυτό, διότι τα μεγάλα γλωσσικά μοντέλα (σ.σ. η υπολογιστική τεχνολογία που έχει τη δυνατότητα να ανταποκρίνεται σε φυσική γλώσσα) είναι πανεύκολο να τα “σπάσεις”. Εμείς αυτό που θέλαμε σε εκείνη τη δουλειά ήταν, ας πούμε, να μπορούμε να αποτρέπουμε τους ανθρώπους από το να κατασκευάζουν “βόμβες”. Να μην προσδίδουμε επικίνδυνες δυνατότητες σε αυτά τα εργαλεία».

Ο Ντάνιελ Ζίγκλερ επισημαίνει πως, παρότι πολλά ζητήματα γύρω από την ανάπτυξη της τεχνητής νοημοσύνης φαίνονται ακίνδυνα, «εντούτοις, δεν είναι. Γίνονται πολλά πράγματα πίσω από κλειστές πόρτες. Οι προγραμματιστές και οι μηχανικοί είναι αναγκαίο να αναπτύσσουν αξιολογικά τεστ για τα εργαλεία που δημιουργούν, για τις επισφαλείς τους ικανότητες».

Οι αποκαλύψεις εκ των έσω

«Ημουν νευρικός και ανήσυχος για την ανάπτυξη της τεχνητής νοημοσύνης στην OpenAI»-2
©REUTERS/Dado Ruvic/Illustration/File Photo

Αυτές ακριβώς τις επικίνδυνες δυνατότητες τονίζουν με κάθε δυνατό τρόπο και σε όλους τους τόνους οι πρώην εργαζόμενοι της εταιρείας. Το τελευταίο διάστημα, μάλιστα, δεν ήταν ιδιαιτέρως… ευχάριστο για την OpenAI, διότι ολοένας και περισσότεροι άνθρωποι δημοσίως δηλώνουν όσα έχουν βιώσει και φοβηθεί όσο γίνονταν μάρτυρες της ανάπτυξης αυτών των προϊόντων της ΑΙ.

Ο Σαμ Αλτμαν, παρότι δεν ήταν ορατός στην καθημερινότητα της δουλειάς, είχε όλον απολύτως τον έλεγχο της εταιρείας.

Μόνο τον τελευταίο μήνα, σημειώθηκαν επτά περιστατικά αποκαλύψεων και έντονων, δημόσιων διαφωνιών από ανθρώπους που γνωρίζουν πρόσωπα και πράγματα από μέσα. Ολα αυτά έρχονται έπειτα από συμβάντα όπως η… τετραήμερη εκπαραθύρωση του Σαμ Αλτμαν, λόγω απόφασης του διοικητικού της συμβουλίου. Ταυτόχρονα, μεγάλη αίσθηση είχε προκαλέσει δημοσίευμα δύο πρώην εργαζομένων της OpenAI στον Economist. Μέχρι και η Σκάρλετ Γιοχάνσον διαμαρτύρηθηκε προ εβδομάδων επειδή η OpenAI αντέγραψε τη φωνή της στο πιο πρόσφατο εργαλείο της εταιρείας, το GPT 4, το οποίο απαντά με ανθρώπινη φωνή.

OpenAI: Το χρονικό των αναταράξεων

Νοέμβριος 2023: Στις 17 Νοεμβρίου, ο Σαμ Αλτμαν απομακρύνθηκε από τη θέση του διευθύνοντος συμβούλου όταν το Δ.Σ. (αποτελούμενο από τους Ελεν Τόνερ, Ιλια Σούτσκεβερ, Ανταμ Ντ’Αντζελο και Τάσα Μακ Κόλεϊ) ανέφερε έλλειψη εμπιστοσύνης προς αυτόν. Την επομένη άρχισαν οι διαπραγματεύσεις για την επιστροφή του. Ακούστηκε ότι ο Σαμ Αλτμαν θα αναλάμβανε στελεχιακή θέση στη Microsoft, σοβαρό επενδυτή της OpenAI. Υπάλληλοι απείλησαν ότι θα εγκαταλείψουν την εταιρεία για τη Microsoft αν δεν επιστρέψει ο Σαμ Αλτμαν. Οι επενδυτές ανησύχησαν. Στις 21 Νοεμβρίου ο CEO επέστρεψε στη θέση του.

17 Μαΐου 2024: Ο ανώτερος ερευνητής ασφαλείας Τζαν Λέικι επικρίνει την OpenAI επειδή δίνει προτεραιότητα στην παραγωγή των προϊόντων έναντι της ασφάλειάς τους.

17 Μαΐου 2024: Η OpenAI δέχεται επικρίσεις για φίμωση πρώην εργαζομένων με περιοριστικές συμφωνίες.

20 Μαΐου 2024: Η Σκάρλετ Γιοχάνσον κατηγορεί την OpenAI ότι μιμήθηκε τη φωνή της χωρίς η ίδια να δώσει συγκατάθεση: «Είμαι σοκαρισμένη και θυμωμένη, ενώ μου φαινόταν αδύνατον» ότι ο Σαμ Αλτμαν θα χρησιμοποιούσε μια φωνή τόσο παρόμοια με τη δική της χωρίς τη συγκατάθεσή της. Η ηθοποιός ανέφερε ότι την είχαν προσεγγίσει επανειλημμένως, εκείνη αρνείτο. Μάλιστα, την προσέγγισαν ξανά δύο μέρες πριν από την κυκλοφορία του demo του GPT 4, ζητώντας της να το ξανασκεφτεί.

22 Μαΐου 2024: Η ερευνήτρια πολιτικής της τεχνητής νοημοσύνης, Γκρέτσεν Κρούγκερ, εξηγεί τους λόγους της παραίτησής της: «Πρέπει να κάνουμε περισσότερα για να βελτιώσουμε τα θεμελιώδη ζητήματα, όπως οι διαδικασίες λήψης αποφάσεων. Ευθύνη· διαφάνεια· τεκμηρίωση· επιβολή αρχών και αξιών· προσοχή στη χρήση της τεχνολογίας· μετριασμό των επιπτώσεων στην ανισότητα, τα δικαιώματα και το περιβάλλον».

26 Μαΐου 2024: Πρώην μέλη του διοικητικού συμβουλίου κατηγορούν τον Sam Altman για ψέματα: Η Ελεν Τόνερ και η Τάσα Μακ Κόλεϊ δημοσίευσαν άρθρο στον Economist όπου κατηγόρησαν τον Σαμ Αλτμαν, πέραν των ψεμάτων, για «ψυχολογική κακοποίηση» ορισμένων εργαζομένων, που εξέφραζαν στο διοικητικό συμβούλιο τις ανησυχίες τους.

4 Ιουνίου 2024: 11 νυν και πρώην υπάλληλοι υπογράφουν μια επιστολή επικρίνοντας προηγμένες εταιρείες τεχνητής νοημοσύνης όπως η OpenAI και η Google DeepMind για την καλλιέργεια μιας απερίσκεπτης κουλτούρας: «Οι εταιρείες τεχνητής νοημοσύνης έχουν ισχυρά οικονομικά κίνητρα και γι’ αυτό θέλουν να αποφύγουν την αποτελεσματική εποπτεία». Οι συντάκτες της επιστολής εμφανίζονται δύσπιστοι ότι οι «α λα καρτ εταιρικές δομές» επαρκούν για να αντιμετωπίσουν το ζήτημα της ασφάλειας των μοντέλων. Αναφέρουν, μάλιστα, ότι –ελλείψει αποτελεσματικής κυβερνητικής ρύθμισης– οι υπάλληλοι των εταιρειών είναι οι μόνοι ικανοί να ζητήσουν από αυτές τις εταιρείες να λογοδοτήσουν όταν παρουσιάζουν επικίνδυνη συμπεριφορά. Η ικανότητα των εργαζομένων να το κάνουν αυτό παρεμποδίζεται από την ευρεία χρήση των συμφωνιών εμπιστευτικότητας στον κλάδο, λένε.

4 Ιουνίου 2024: Ο πρώην ερευνητής ασφάλειας της OpenAI, Λίοπολντ Ασενμπρενερ, δηλώνει ότι απολύθηκε επειδή εξέφρασε στο διοικητικό συμβούλιο της εταιρείας τις ανησυχίες του για την ασφάλεια των προϊόντων της.

5 Ιουνίου 2025: Nvidia, Microsoft και OpenAI μπαίνουν στο στόχαστρο του υπουργείου Δικαιοσύνης και της Ομοσπονδιακής Επιτροπής Εμπορίου των ΗΠΑ, με υπόθεση εργασίας το μονοπώλιο και τον αθέμιτο ανταγωνισμό στα πεδία ενασχόλησής τους.

(με πληροφορίες από New York Times, Time)

Οι άνθρωποι, όμως, που εργάζονται σε εταιρείες όπως η OpenAI και θέλουν να εκφράσουν δημοσίως τις αντιρρήσεις και τις ανησυχίες τους, πέραν του ότι δεσμεύονται από δρακόντειες συμβάσεις εμπιστευτικότητας, φοβούνται ότι θα έρθουν αντιμέτωποι με πολυπλόκαμες, πολυδάπανες και συναισθηματικά επιβαρυντικές δίκες. Γι’ αυτόν τον λόγο, εξάλλου, οι νυν εργαζόμενοι της OpenAI που υπέγραψαν την επιστολή «Right to Warn» το έκαναν με την προϋπόθεση της ανωνυμίας, διότι δεν προβλέπονται μέτρα προστασίας.

Από τις πληροφορίες που έχουμε συγκεντρώσει, πάντως, ο Σαμ Αλτμαν φαίνεται πως «παρότι δεν ήταν ορατός στην καθημερινότητα της δουλειάς, είχε όλον απολύτως τον έλεγχο της εταιρείας. Παράλληλα, όμως, επένδυε πολύ χρόνο στην κατ’ ιδίαν συνομιλία με τους εργαζομένους του. Ηταν περισσότερο οραματιστής παρά εκείνος που θα ασχολείτο με τη μικρο-διαχείριση των ζητημάτων που ανέκυπταν».

Κατά την πρόσληψη μας έβαζαν να υπογράφουμε ένα τρομερά αναλυτικό συμφωνητικό, το οποίο περιελάμβανε ρήτρα μη συκοφαντίας προκειμένου να διατηρηθούν οι μετοχές, που σου προσφέρουν στο οικονομικό πακέτο όταν σε καλωσορίζουν στην εταιρεία, και μετά την αποχώρησή σου.

Εν γένει, εξ όσων συνάγεται, το εργασιακό περιβάλλον ήταν μάλλον ευχάριστο και, κατά κανόνα, ουδείς προσπαθούσε να μεταπείσει οποιονδήποτε επιθυμούσε να αποχωρήσει. Ωστόσο, με ορισμένους εργαζομένους τα πράγματα ήταν λιγάκι πιο περίπλοκα, με τη διοίκηση να καταβάλλει προσπάθειες να τους αλλάξει γνώμη.

«Είναι πολύ σύνηθες στις ΗΠΑ να υπογράφουμε σύμβαση “εκούσιας απασχόλησης”. Με αυτή, δεν έχουν το δικαίωμα να αποτρέψουν την αποχώρησή σου από την OpenAI. Παρά ταύτα, κατά την πρόσληψη μας έβαζαν να υπογράφουμε ένα τρομερά αναλυτικό συμφωνητικό, το οποίο περιελάμβανε ρήτρα μη συκοφαντίας προκειμένου να διατηρηθούν οι μετοχές, που σου προσφέρουν στο οικονομικό πακέτο όταν σε καλωσορίζουν στην εταιρεία, και μετά την αποχώρησή σου. Ευτυχώς, όμως, αυτό έχει αλλάξει», όπως μας μεταφέρεται.

Η απάντηση της OpenAI

Θέτοντας τα παραπάνω ζητήματα υπ’ όψιν της OpenAI, εκπρόσωπος της εταιρείας δήλωσε στην «Κ» ότι προτίθενται, στο ζήτημα της διαφάνειας, να «συνεχίσουμε να συνεργαζόμαστε με τις κυβερνήσεις, την κοινωνία των πολιτών και άλλες κοινότητες σε όλο τον κόσμο», σημειώνοντας ότι η συζήτηση που έχει ανοίξει είναι ζωτικής σημασίας, δεδομένης της ιδιαιτερότητας αυτής της τεχνολογίας.

Ο «ζωτικής σημασίας» διάλογος δεν πρέπει καμία περίπτωση να θέσει –για λόγους διαφάνειας– σε κίνδυνο την ασφάλεια της τεχνολογίας, λέει η εταιρεία, επικαλούμενη λόγους εθνικής ασφαλείας.

Οσον αφορά το πλαίσιο του διαλόγου, εντούτοις, η ίδια πηγή μάς τόνισε ότι αυτός δεν πρέπει σε καμία περίπτωση να θέσει –για λόγους διαφάνειας– σε κίνδυνο την ασφάλεια και την εμπιστευτικότητα της τεχνολογίας που κατασκευάζει η εταιρεία, επικαλούμενη λόγους εθνικής ασφαλείας, χωρίς να σχολιάσει περαιτέρω.

Αναφορικά, πάντως, με την ασφάλεια των προϊόντων, έχει συσταθεί εντός της OpenAI, όπως μας ενημέρωσαν, Επιτροπή Ασφάλειας ως συμβουλευτικό όργανο του διοικητικού συμβουλίου, ενώ προσφέρεται, όπως μας λένε, ανώνυμη γραμμή επικοινωνίας των υπαλλήλων σχετικά με ζητήματα που τους απασχολούν στην εταιρεία.

«ΑΙ: Ο νέος ορυκτός πλούτος του 21ου αιώνα»

«Ημουν νευρικός και ανήσυχος για την ανάπτυξη της τεχνητής νοημοσύνης στην OpenAI»-3
©Shutterstock

Χρειάζεται νομικό πλαίσιο· είναι ανάγκη να τεστάρονται από ειδικούς· είναι καλοδεχούμενος έλεγχος των μονοπωλίων· να μην έχουμε τυφλή εμπιστοσύνη στις μηχανές· πρόκειται για στρατηγικό υπερόπλο. Αυτές είναι οι απαντήσεις των ειδικών της τεχνητής νοημοσύνης με τους οποίους συνομίλησε η «Κ», θέτοντάς τους τα ζητήματα που εθίγησαν νωρίτερα.

Ο Ιωάννης Ιγγλεζάκης, καθηγητής του Δικαίου της Πληροφορίας στο ΑΠΘ, υποστηρίζει ότι «μπορεί αυτά τα εργαλεία να μας πείθουν ότι μιλούν με τη φυσική τους γλώσσα –καθώς περνούν, κι αυτό είναι τρομερό επίτευγμα, το Test Turing, δηλαδή απαντούν προσομοιάζοντας την ανθρώπινη έκφραση–, ωστόσο η μεγάλη μου ανησυχία είναι όταν νομίζουμε ότι οι πληροφορίες που λαμβάνουμε εξαντλούνται σε αυτό που θα μας πει ένα εργαλείο».

Μπορεί αυτά τα εργαλεία να μας πείθουν ότι μιλούν με τη φυσική τους γλώσσα, ωστόσο η μεγάλη μου ανησυχία είναι όταν νομίζουμε ότι οι πληροφορίες που λαμβάνουμε εξαντλούνται σε αυτό που θα μας πει ένα εργαλείο. (Ι. Ιγγλεζάκης)

Ο ίδιος θεωρεί ότι αυτό συμβαίνει επειδή μέχρι ώρας οι πληροφορίες που δίνει ένα σύστημα όπως το ChatGPT είναι πολύ γενικές, αφού ορισμένα ζητήματα τα γνωρίζουν μόνον οι ειδικοί και τέτοια εργαλεία δεν μπορούν να συλλέξουν όλα τα στοιχεία μέσα από τον ψηφιακό κόσμο. Αυτού του τύπου η πληροφόρηση έχει όρια, όπως επισημαίνει ο Ιωάννης Ιγγλεζάκης, παρότι «είναι δημιουργικός ο τρόπος που συνθέτει την πληροφορία ένα σύστημα τεχνητής νοημοσύνης. Δεν είναι, όμως, δημιουργικό το περιεχόμενο».

Πάντως, ο καθηγητής Νομικής του ΑΠΘ δηλώνει ότι στην Ελλάδα διαθέτουμε ατελές νομικό πλαίσιο για το πού μπορεί να χρησιμοποιηθεί η τεχνητή νοημοσύνη πέραν της προσωπικής μας χρήσης.

Οι ΗΠΑ, όπως και ο υπόλοιπος δυτικός κόσμος, έχουν ένα κρίσιμο δίλημμα ανάμεσα στον περιορισμό της ανάπτυξης της τεχνητής νοημοσύνης, ώστε να προστατεύσουν τις αρχές και τις αξίες τους, και στο αν θα μείνουν πίσω σε σχέση με την Κίνα. (Ν. Παναγιώτου)

Σε αυτό το πλαίσιο, ο Νίκος Παναγιώτου, αναπληρωτής καθηγητής Διεθνούς και Διαδικτυακής Δημοσιογραφίας στο ΑΠΘ, συμπληρώνει ότι δεν πρέπει σε καμία περίπτωση να έχουμε τυφλή εμπιστοσύνη σε αντίστοιχα εργαλεία. «Με ανησυχεί που οι αρχές δεν μπορούν να παρακολουθήσουν την ταχύτατη εξέλιξη της τεχνητής νοημοσύνης. Κι αυτό, διότι το ράλι για την ανάπτυξη της ΑΙ έχει μετατραπεί σε γεωπολιτικό ανταγωνισμό μεταξύ Δύσης και Κίνας. Οι ΗΠΑ, όπως και ο υπόλοιπος δυτικός κόσμος, έχουν ένα κρίσιμο δίλημμα ανάμεσα στον περιορισμό της ανάπτυξης της τεχνητής νοημοσύνης, ώστε να προστατεύσουν τις αρχές και τις αξίες τους, και στο αν θα μείνουν πίσω σε σχέση με την Κίνα. Οι ΗΠΑ έχουν χάσει την απόλυτη κυριαρχία που είχαν στις αρχές του 2000 με την Google και τα μέσα κοινωνικής δικτύωσης. Τώρα προπορεύεται το Πεκίνο στον κρίσιμο τομέα της ΑΙ, που αποτελεί υπερόπλο: και για τον… κανονικό πόλεμο αλλά και για τον κυβερνοπόλεμο ή τον πόλεμο της πληροφορίας και της παραπληροφόρησης».

«Η ΑΙ είναι ο νέος ορυκτός πλούτος του 21ου αιώνα», καταλήγει ο Νίκος Παναγιώτου.

Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή
MHT