Με την τεχνολογία να έχει εισχωρήσει σε κάθε πτυχή της ζωής, μεταμορφώνοντας τον κόσμο σε ένα τεράστιο δίκτυο δεδομένων, η ιατρική επιστήμη δεν αποτελεί εξαίρεση. Ενας από τους τομείς, που δεν έχουν τύχει έντονης δημοσιότητας, είναι αυτός της προβλεπτικής αναλυτικής, που υπόσχεται να αποκρυπτογραφήσει το μυστήριο της ανθρώπινης υγείας, προβλέποντας την εκδήλωση –αλλά και την πορεία– ασθενειών.
Πίσω από αυτήν την υπόσχεση κρύβονται σκιές, ηθικά διλήμματα και μία σειρά από προκλήσεις. Ανταποκρινόμενη στον ήχο από αυτό το καμπανάκι, η Εθνική Επιτροπή Βιοηθικής και Τεχνοηθικής έθεσε το θέμα επί τάπητος, εκδίδοντας μία «Κοινή Γνώμη» μαζί με το αντίστοιχο τμήμα της Κύπρου.
Ο προεδρεύων της ΕΕΒΤ, Χαράλαμπος Τσέκερης, μιλώντας στην «Κ» τόνισε ότι «η έμπνευση αντλήθηκε από ένα άρθρο στο περιοδικό Nature πριν από ένα χρόνο, το οποίο αναφερόταν στη δυνατότητα της ΑΙ να προβλέπει γεγονότα ζωής στον τομέα της υγείας».
Η προβλεπτική αναλυτική χρησιμοποιεί δεδομένα, ιστορικά και πραγματικού χρόνου, για να υπολογίσει την πιθανότητα εκδήλωσης μελλοντικών συμβάντων, όπως η εκδήλωση ή η εξέλιξη ενός νοσήματος, τα αποτελέσματα μιας θεραπείας ή ακόμη και την πιθανότητα εισαγωγής ή επανεισαγωγής ασθενών στο νοσοκομείο.
Η τεχνολογία αυτή αξιοποιεί τη συνεχή άντληση και ανάλυση δεδομένων από το γονιδίωμα ενός ατόμου, το γενετικό του προφίλ, τον ηλεκτρονικό του φάκελο, καθώς και από πλήθος άλλων πηγών, όπως ιατρικές συσκευές, στατιστικά στοιχεία, ακόμη και δεδομένα από ασφαλιστικές εταιρείες.
«Χάρη στην αυξημένη υπολογιστική ισχύ και την πρόοδο στους αλγόριθμους και τις μεθόδους μηχανικής μάθησης, τα δεδομένα αυτά μπορούμε πλέον να τα αναλύουμε πολύ γρηγορότερα και με περισσότερη ακρίβεια», λέει ο κ. Τσέκερης, τονίζοντας πως «έτσι μπορούμε να εφαρμόσουμε τέτοιου είδους προβλέψεις».
Τα οφέλη
Ο κ. Τσέκερης αναφέρθηκε στα πρακτικά οφέλη που προκύπτουν τόσο για τον ασθενή όσο και για το σύστημα υγείας. «Ανατρέχοντας στο 2019, λίγο πριν την πανδημία του κορωνοϊού, υπήρξαν δύο συστήματα τεχνητής νοημοσύνης, το Deep Blue στον Καναδά και ένα άλλο στο Παιδιατρικό Νοσοκομείο της Βοστόνης, τα οποία αναλύοντας δεδομένα είχαν προβλέψει την πιθανότητα πανδημίας πριν αυτή γίνει γνωστή».
Σημειώνει δε ότι τέτοιες προβλέψεις δεν περιορίζονται στις πανδημίες, αλλά μπορούν να βοηθήσουν στη διάγνωση ασθενειών, στην ανάπτυξη καλύτερων θεραπευτικών προσεγγίσεων, ακόμη και στη στήριξη της υγιούς γήρανσης. «Αναλύοντας μαζικά δεδομένα, θα μπορούμε να προβλέπουμε την πιθανότητα εκδήλωσης είτε πανδημιών είτε ασθενειών σε ατομικό επίπεδο».
Με έναν συγκεκριμένο τρόπο, εάν γνωρίζουμε τον τρόπο ζωής ενός ατόμου, το γενετικό του προφίλ και άλλες συνθήκες διαβίωσης, «οι αλγόριθμοι μπορούν να μιλήσουν πιθανοκρατικά για το πότε μπορεί να εμφανιστεί μια ασθένεια ή για το πώς θα εξελιχθεί μια χρόνια πάθηση», επισημαίνει.
Ηθικές προκλήσεις
Η χρήση της προβλεπτικής αναλυτικής στον τομέα της υγείας φέρνει και πλήθος ηθικών ζητημάτων. «Το θέμα της πρόβλεψης είναι ηθικό κατά βάση», τονίζει ο κ. Τσέκερης. «Η πρόβλεψη ήταν πάντα επιθυμία της επιστήμης, αλλά ζούμε σε μια εποχή της πρόβλεψης και ταυτόχρονα σε μια εποχή διάψευσης των προβλέψεων. Είναι πολύ δύσκολο σε μια εποχή με μεγάλη ταχύτητα, με πολλαπλές κρίσεις, να προβλέπουμε και σε ατομικό και συλλογικό επίπεδο».
Ενα βασικό ζήτημα είναι η προστασία της ιδιωτικότητας των ασθενών. «Το να μπορεί κάποιος να προβλέπει γεγονότα ζωής, όπως πότε μπορεί να εκδηλωθεί μια σοβαρή νόσος, μπορεί να συνεπάγεται την παραβίαση της ιδιωτικής ζωής, ειδικά αν ο ασθενής δεν το επιθυμεί».
Οπως υπογραμμίζει, είναι αναγκαίο αυτά τα μοντέλα να λειτουργούν βάσει ηθικών αρχών, όπως η διαφάνεια και η επεξηγησιμότητα, ώστε να προστατεύεται η ιδιωτικότητα.
Οι «αρπακτικές» προβλέψεις και τα δεδομένα του εγκεφάλου
Ο Χαράλαμπος Τσέκερης εκφράζει έντονη ανησυχία για τον ανεξέλεγκτο τρόπο με τον οποίο αντλούνται τα δεδομένα.
«Ζούμε σε μια “άγρια Δύση” ψηφιακών εφαρμογών», σημειώνει χαρακτηριστικά, ενώ τονίζει ότι «ακόμη και απλές εφαρμογές κινητών τηλεφώνων αντλούν δεδομένα υγείας», τα οποία –όπως λέει– ενδέχεται να πωλούνται σε ασφαλιστικές εταιρείες χωρίς τη συγκατάθεση των χρηστών.
«Αυτά τα δεδομένα χρησιμοποιούνται για αρπακτικές ή επιθετικές προβλέψεις (predatory predictions) από εμπορικές ή ασφαλιστικές εταιρείες», επισημαίνει.
Ενας τέτοιος ανεξέλεγκτος τρόπος χρήσης των δεδομένων, σε συνδυασμό με την αύξηση του κινδύνου για χακάρισμα (bio-hacking), ενισχύει την ανασφάλεια γύρω από την ιδιωτική ζωή.
Παράλληλα, θέτει και την ανάγκη της προστασίας των δεδομένων του εγκέφαλου, «τη νευροηθική», καθώς «αυτός ο ιερός χώρος που ονομάζεται σκέψη μπορεί να είναι προσβάσιμος από εφαρμογές τεχνικής νοημοσύνης».
«Δεν μιλάω για μακροπρόθεσμη σκέψη, αλλά για μία σκέψη σε κοντινό χρονικό ορίζοντα, καθώς όλες αυτές οι εφαρμογές πολλαπλασιάζονται χωρίς αυστηρά ρυθμιστικά πλαίσια. Δηλαδή, χρειάζεται, όπως σας είπα, ένας σχεδιασμός πρωτοκόλλων που δεν θα οδηγεί σε αλγοριθμικές μεροληψίες και αδικίες, μία διαρκής επικαιροποίηση και επίβλεψη των πρωτοκόλλων, καθώς και αυστηροποίηση του αντίκτυπου αυτών των συστημάτων τεχνητής νοημοσύνης».
Προχωρώντας στα ζητήματα κατανόησης της τεχνολογίας, ο κ. Τσέκερης διαπιστώνει ότι ενώ «αυξάνεται πολύ η τεχνολογική πρόοδος», η κατανόηση για αυτήν μειώνεται.
«Εχουμε μια αναντιστοιχία τεχνοπροόδου και τεχνοκατανόησης. Αυτή η αναντιστοιχία είναι προς όφελος όσων ελέγχουν την τεχνολογία και εις βάρος των πολλών, που θα πρέπει να έχουν πρόσβαση σε αυτή».
Το δικαίωμα στο ανοιχτό μέλλον
Στις προτάσεις της «Κοινής Γνώμης» που δημοσίευσαν οι δύο επιτροπές, περιλαμβάνεται η θεμελίωση δύο βασικών δικαιωμάτων: το δικαίωμα στο ανοιχτό μέλλον και το δικαίωμα στην άγνοια.
Οπως εξηγεί ο κ. Τσέκερης, «όλοι έχουμε δικαίωμα σε ένα μέλλον που θα είναι ανοιχτό, μη γραμμικό και μη προβλέψιμο». Επιπλέον, το δικαίωμα στην άγνοια αφορά την επιθυμία του κάθε ατόμου να μη γνωρίζει πιθανά δυσμενή δεδομένα για το μέλλον της υγείας του.
Οι εφαρμογές αυτές μπορούν να αφαιρέσουν το δικαίωμα στο ανοιχτό μέλλον και την άγνοια, οδηγώντας μας σε έναν τεχνολογικό ντετερμινισμό που θα κλονίσει την εμπιστοσύνη του ανθρώπου στις νέες τεχνολογίες.
Ο ίδιος υπογραμμίζει ότι η προστασία αυτών των δικαιωμάτων είναι κρίσιμη για να μη θεωρηθεί η τεχνολογία «όχημα περιορισμού της ελευθερίας».
Η επόμενη ημέρα μετά τη νίκη Τραμπ
Καταλήγοντας, ο κ. Τσέκερης τονίζει τη διεθνή διάσταση της πρόκλησης. «Οι τεχνολογικές εξελίξεις είναι ραγδαίες και φωτίζουν το γεγονός ότι δεν επαρκεί η ηθική αυτοδέσμευση των τεχνολογικών κολοσσών», αναφέρει, προσθέτοντας πως «χρειάζεται μια κανονιστική ρύθμιση από τα πάνω που θα εφαρμόζει ηθικές αρχές, διότι οι τεχνολογικές και κοινωνικές ανισότητες αυξάνονται».
Οπως σημειώνει, ορισμένες πρωτοβουλίες που ανέλαβε η διακυβέρνηση Μπάιντεν στις ΗΠΑ είχαν ως στόχο τη δημιουργία ενός διεθνούς ρυθμιστικού πλαισίου για την ΑΙ, όμως η συνέχιση αυτών των προσπαθειών ενδέχεται να αποδειχθεί αβέβαιη μετά τη νίκη Τραμπ.
«Είναι ένα σταυροδρόμι στο οποίο βρισκόμαστε σήμερα», παρατηρεί, τονίζοντας πως η διεθνής κοινότητα πρέπει να κινητοποιηθεί.
Διερωτάται δε ποια θα είναι η επόμενη ημέρα μετά την αλλαγή στον Λευκό Οίκο, «εάν θα συνεχιστεί η τάση για ρύθμιση της τεχνικής νοημοσύνης σε παγκόσμιο επίπεδο και υποχρεωτικότητα στην εφαρμογή κανόνων, ή αν θα υποχωρήσει αυτή η τάση με αποτέλεσμα να προσβάλλονται ή να αλλοιώνονται βασικές ηθικές αρχές και αξίες, αλλά να θίγεται και η φιλελεύθερη δημοκρατία σε μεγάλο βαθμό και η περιβαλλοντική βιωσιμότητα».
«Χωρίς μια παγκόσμια διακυβέρνηση, υπάρχει ο κίνδυνος η πρόοδος της τεχνολογίας να συνοδευτεί από διασπορά μη βιώσιμων κινδύνων για την ανθρωπότητα, για το περιβάλλον, τη δημοκρατία, την ισότητα και την ελευθερία», υπογραμμίζει.
Και προσθέτει πως «είμαστε σε ένα κρίσιμο ιστορικό σταυροδρόμι. Απαιτείται επαγρύπνηση από την επιστημονική κοινότητα και αφύπνιση των δυνάμεων της κοινωνίας για να προστατευτούν τα θεμελιώδη δικαιώματα της δημοκρατίας που πλέον δεν είναι αυτονόητα».