O «νονός» της AI προτείνει τη θέσπιση καθολικού βασικού εισοδήματος

O «νονός» της AI προτείνει τη θέσπιση καθολικού βασικού εισοδήματος

Θεωρεί ότι είναι αναγκαίο λόγω των ανισοτήτων που θα δημιουργηθούν, ενώ επανέλαβε την ανησυχία του για «ανθρώπινη εξαφάνιση»

2' 36" χρόνος ανάγνωσης

Την επιβολή καθολικού βασικού εισοδήματος ως «ανάχωμα» στην ανισότητα που θα φέρει η τεχνητή νοημοσύνη προκρίνει ο «πατέρας» της ΑΙ. Ο καθηγητής Τζέφρι Χίντον, ο πρωτοπόρος των νευρωνικών δικτύων που αποτελούν τη θεωρητική βάση της σημερινής έκρηξης στην τεχνητή νοημοσύνη, είναι πεπεισμένος ότι χρειάζεται μια μεταρρύθμιση ώστε να παρέχονται σταθερά ποσά σε κάθε πολίτη και αυτό γιατί «ανησυχεί πολύ ότι η τεχνητή νοημοσύνη θα εξαφανίσει πολλές καθημερινές δουλειές». «Με συμβουλεύτηκαν άνθρωποι στην Ντάουνινγκ Στριτ και τους είπα ότι το καθολικό βασικό εισόδημα είναι μια καλή ιδέα», είπε μεταξύ άλλων στο BBC Newsnight. Η τεχνητή νοημοσύνη, τόνισε, θα αυξήσει την παραγωγικότητα και τον πλούτο, τα χρήματα ωστόσο θα πάνε στους πλούσιους «και όχι στους ανθρώπους που θα χάσουν τις δουλειές τους και αυτό θα είναι πολύ κακό για την κοινωνία στο σύνολό της». Η έννοια του καθολικού βασικού εισοδήματος σημαίνει ότι η κυβέρνηση καταβάλλει σε όλα τα άτομα έναν καθορισμένο μισθό ανεξάρτητα από τα μέσα τους. Οι επικριτές της ιδέας λένε ότι κάτι τέτοιο θα ήταν εξαιρετικά δαπανηρό, θα απομάκρυνε τα κονδύλια από τις δημόσιες υπηρεσίες, ενώ δεν θα βοηθούσε απαραίτητα στην ανακούφιση της φτώχειας.

Ο καθηγητής Χίντον μέχρι πέρυσι εργαζόταν στην Google, εγκατέλειψε όμως τον τεχνολογικό γίγαντα για να μπορεί να μιλάει πιο ελεύθερα για τους κινδύνους από τη μη ελεγχόμενη τεχνητή νοημοσύνη. Εκτοτε επανέλαβε την ανησυχία του ότι εμφανίστηκαν απειλές σε επίπεδο ανθρώπινης εξαφάνισης. «Υποθέτω ότι σε 5 με 20 χρόνια από τώρα υπάρχει πιθανότητα να πρέπει να αντιμετωπίσουμε το πρόβλημα της τεχνητής νοημοσύνης που θα προσπαθεί να αναλάβει δράση», προειδοποίησε. Και πρόσθεσε: «Θα μπορούσαμε να έχουμε «δημιουργήσει μια μορφή νοημοσύνης που είναι απλώς καλύτερη από τη βιολογική νοημοσύνη… Αυτό είναι πολύ ανησυχητικό για εμάς. Η τεχνητή νοημοσύνη θα μπορούσε να «εξελιχθεί», είπε, «για να αποκτήσει το κίνητρο να κάνει περισσότερα μόνη της», με αποτέλεσμα να μπορεί αυτόνομα «να αναπτύξει έναν υποστόχο που δεν θα είναι άλλος από το να αποκτήσει τον έλεγχο».

Ο «νονός» της ΑΙ είπε επίσης ότι υπάρχουν ήδη ενδείξεις μεγάλων γλωσσικών μοντέλων –ένας τύπος αλγορίθμου τεχνητής νοημοσύνης που χρησιμοποιείται για τη δημιουργία κειμένου– που επιλέγουν να είναι παραπλανητικά. Σημείο καμπής οι πρόσφατες εφαρμογές της τεχνητής νοημοσύνης για τη δημιουργία χιλιάδων στρατιωτικών στόχων. «Αυτό που με απασχολεί περισσότερο είναι το πότε μπορούν να λάβουν αυτόνομα την απόφαση να σκοτώσουν ανθρώπους», διεμήνυσε.

Στην περίπτωση αυτή, όπως σημείωσε, θα χρειαζόταν κάτι παρόμοιο με τις Συμβάσεις της Γενεύης, τις διεθνείς συνθήκες που θεσπίζουν νομικά πρότυπα για την ανθρωπιστική μεταχείριση στον πόλεμο. Ερωτηθείς εάν η Δύση έχει επιδοθεί σε έναν αγώνα τύπου Manhattan Project (πρόγραμμα παραγωγής πυρηνικών όπλων που αναπτύχθηκε περί το τέλος του Β΄ Παγκοσμίου Πολέμου) με απολυταρχίες όπως η Ρωσία και η Κίνα σχετικά με τη στρατιωτική χρήση της τεχνητής νοημοσύνης, ο καθηγητής Χίντον απάντησε: «Ο Πούτιν είπε πριν από κάποια χρόνια ότι όποιος ελέγχει την τεχνητή νοημοσύνη ελέγχει τον κόσμο. Οπότε φαντάζομαι ότι η Ρωσία εργάζεται πολύ σκληρά. Ευτυχώς, η Δύση είναι πιθανώς πολύ μπροστά στην έρευνα. Πιθανότατα είμαστε ακόμα λίγο πιο μπροστά από την Κίνα αν και διοχετεύει περισσότερους πόρους. Και έτσι όσον αφορά τις στρατιωτικές χρήσεις νομίζω ότι θα υπάρξει ένας αγώνας». Η καλύτερη λύση, κατέληξε, θα ήταν η απαγόρευση των στρατιωτικών χρήσεων της τεχνητής νοημοσύνης.

Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή
MHT