Europol: «Καμπανάκι» για τις εικόνες σεξουαλικής κακοποίησης παιδιών μέσω AI

Europol: «Καμπανάκι» για τις εικόνες σεξουαλικής κακοποίησης παιδιών μέσω AI

«Ο όγκος των αυτόματα κατασκευασμένων εικόνων αποτελεί πλέον ένα σημαντικό και αυξανόμενο μέρος του υλικού σεξουαλικής παιδικής πορνογραφίας στο διαδίκτυο», υπογραμμίζει η ευρωπαϊκή αστυνομική υπηρεσία

1' 21" χρόνος ανάγνωσης
Ακούστε το άρθρο

Αυξάνονται ολοένα και περισσότερο οι εικόνες σεξουαλικής κακοποίησης παιδιών που δημιουργούνται με τη χρήση εφαρμογών Τεχνητής Νοημοσύνης, καθιστώντας ολοένα και πιο δύσκολο τον εντοπισμό των θυμάτων και των δραστών, όπως προειδοποίησε η Europol.

«Ο όγκος των αυτόματα κατασκευασμένων εικόνων σεξουαλικού υλικού αποτελεί πλέον ένα σημαντικό και αυξανόμενο μέρος του υλικού σεξουαλικής παιδικής πορνογραφίας στο διαδίκτυο» και «αναμένεται να εξαπλωθεί περαιτέρω στο εγγύς μέλλον», υπογραμμίζει σε έκθεσή της η ευρωπαϊκή αστυνομική υπηρεσία.

Ακόμη και σε περιπτώσεις όπου το περιεχόμενο είναι εξ ολοκλήρου δημιούργημα Τεχνητής Νοημοσύνης και δεν απεικονίζονται πραγματικά θύματα, το υλικό παιδικής πορνογραφίας που δημιουργείται εξακολουθεί να συμβάλλει στην εξαντικειμενοποίηση και σεξουαλικοποίηση παιδιών, τονίζει η Europol.

Η χρήση εφαρμογών AI για τη δημιουργία ή την τροποποίηση υλικού σεξουαλικής παιδικής πορνογραφίας αυξάνει επίσης «την ποσότητα του παράνομου υλικού που κυκλοφορεί και περιπλέκει την αναγνώριση των θυμάτων καθώς και των δραστών».

Η έλευση εφαρμογών Τεχνητής Νοημοσύνης προκαλεί αυξανόμενη ανησυχία σχετικά με τη χρήση των εφαρμογών αυτών για κακόβουλους σκοπούς, ιδιαίτερα μέσω της δημιουργίας «deepfakes», εικόνων και βίντεο που δημιουργούνται στον υπολογιστή, συχνά ρεαλιστικών, που βασίζονται σε ένα πραγματικό μοντέλο.

Περισσότερα από 300 εκατομμύρια παιδιά πέφτουν θύματα διαδικτυακής σεξουαλικής εκμετάλλευσης και κακοποίησης κάθε χρόνο, δήλωσαν ερευνητές από το Πανεπιστήμιο του Εδιμβούργου τον περασμένο Μάιο.

Τα αδικήματα κυμαίνονται από εκβιασμό που στοχεύει εφήβους μετά τη μετάδοση στο διαδίκτυο σεξουαλικού χαρακτήρα φωτογραφιών και βίντεο («sextorsion»), μέχρι τη χρήση της Τεχνητής Νοημοσύνης για τη δημιουργία πλαστών βίντεο και εικόνων.

Εκτός από τη δημιουργία σκληρά άσεμνων εικόνων ανηλίκων, οι εγκληματίες χρησιμοποιούν τις δυνατότητες της AI για μια σειρά από εγκλήματα που κυμαίνονται από διαδικτυακή απάτη έως κυβερνοεπιθέσεις, αναφέρει επίσης το 37σελιδο έγγραφο της Europol.

Πηγή: ΑΠΕ-ΜΠΕ

Λάβετε μέρος στη συζήτηση 0 Εγγραφείτε για να διαβάσετε τα σχόλια ή
βρείτε τη συνδρομή που σας ταιριάζει για να σχολιάσετε.
Για να σχολιάσετε, επιλέξτε τη συνδρομή που σας ταιριάζει. Παρακαλούμε σχολιάστε με σεβασμό προς την δημοσιογραφική ομάδα και την κοινότητα της «Κ».
Σχολιάζοντας συμφωνείτε με τους όρους χρήσης.
Εγγραφή Συνδρομή
MHT