Εκατομμύρια χρήστες σε όλο τον κόσμο αξιοποιούν πλέον εργαλεία τεχνητής νοημοσύνης για να δημιουργούν deepfake γυμνά σε κανάλια του Telegram, τροφοδοτώντας ένα νέο, μαζικό κύμα ψηφιακής κακοποίησης σε βάρος γυναικών.

Έρευνα εντόπισε τουλάχιστον 150 κανάλια στο Telegram, με χρήστες από το Ηνωμένο Βασίλειο, τη Βραζιλία, την Κίνα, τη Νιγηρία, τη Ρωσία και την Ινδία, όπου διακινούνται deepfake γυμνά και σεξουαλικά βίντεο γυναικών. Κάποια κανάλια προσφέρουν «απογυμνωμένες» φωτογραφίες και βίντεο επί πληρωμή: ο χρήστης ανεβάζει τη φωτογραφία μιας γυναίκας και η τεχνητή νοημοσύνη παράγει βίντεο όπου φαίνεται να εκτελεί σεξουαλικές πράξεις. Άλλα λειτουργούν ως αδιάκοπη ροή εικόνων, με στόχο διάσημες, influencers αλλά και εντελώς άγνωστες γυναίκες, δημιουργώντας ένα βιομηχανικό σύστημα ψηφιακής βίας.

Σε ρωσόφωνο κανάλι που διαφημίζει διαρροές «blogger» και «celebrities», bot deepfake υπόσχεται «νευρωνικό δίκτυο που δεν ξέρει τη λέξη “όχι”», ενθαρρύνοντας τους χρήστες να «κάνουν τα πάντα μαζί της, όσα δεν μπορούν στην πραγματική ζωή». Σε κινεζόφωνο κανάλι με σχεδόν 25.000 συνδρομητές, άνδρες μοιράζονται βίντεο όπου η «πρώτη τους αγάπη» ή «η καλύτερη φίλη της φίλης τους» γδύνεται μέσω AI, χωρίς καμία συναίνεση. Παρόμοια δίκτυα καναλιών που στοχεύουν τη Νιγηρία συνδυάζουν deepfake με εκατοντάδες κλεμμένες γυμνές και προσωπικές φωτογραφίες.

Το Telegram, το οποίο επιτρέπει τη δημιουργία καναλιών με απεριόριστο κοινό, απαγορεύει βάσει όρων χρήσης την ανάρτηση «παράνομου πορνογραφικού περιεχομένου» σε δημόσια κανάλια και bots. Σύμφωνα με τα διαθέσιμα δεδομένα της ανεξάρτητης πλατφόρμας Telemetr.io, η εταιρεία έχει κλείσει έναν αριθμό τέτοιων καναλιών, ωστόσο νέα, σχεδόν πανομοιότυπα κανάλια συνεχίζουν να εμφανίζονται και να παραμένουν ενεργά. Η πλατφόρμα δηλώνει ότι deepfake πορνογραφία και τα εργαλεία δημιουργίας της απαγορεύονται ρητά και ότι το 2025 αφαιρέθηκαν πάνω από 952.000 κομμάτια επιλήψιμου περιεχομένου, με χρήση εργαλείων AI και αναφορών χρηστών.

Deepfake, nudification apps και νομικό κενό

Το φαινόμενο των deepfake στο Telegram εξελίσσεται παράλληλα με την εξάπλωση «nudification apps» στα επίσημα app stores. Έκθεση του Tech Transparency Project εντόπισε δεκάδες εφαρμογές που «γδύνουν» γυναίκες μέσω AI, διαθέσιμες σε Google Play και Apple App Store, με συνολικά 705 εκατομμύρια λήψεις. Η Apple ανακοίνωσε ότι έχει αφαιρέσει 28 από τις 47 εφαρμογές που εντοπίστηκαν, ενώ η Google υποστήριξε ότι «οι περισσότερες» έχουν ανασταλεί και ότι η έρευνα συνεχίζεται.

Την ίδια στιγμή, ο θόρυβος γύρω από το deepfake κορυφώθηκε όταν το Grok, το chatbot τεχνητής νοημοσύνης της πλατφόρμας X του Ίλον Μασκ, χρησιμοποιήθηκε για τη δημιουργία χιλιάδων σεξουαλικοποιημένων εικόνων γυναικών με μαγιό ή ελάχιστα ρούχα, χωρίς συναίνεση. Η κατακραυγή οδήγησε την εταιρεία xAI να ανακοινώσει ότι το Grok δεν θα επιτρέπεται πλέον να επεξεργάζεται φωτογραφίες πραγματικών ανθρώπων σε τέτοιο περιεχόμενο, ενώ ο βρετανικός ρυθμιστικός φορέας Ofcom ξεκίνησε επίσημη έρευνα για την πλατφόρμα X. Παράλληλα, αν και η Meta έκλεισε ιταλική ομάδα στο Facebook όπου άνδρες μοιράζονταν προσωπικές φωτογραφίες γυναικών, δημοσιογραφική έρευνα αποκάλυψε χιλιάδες διαφημίσεις για εργαλεία AI «nudifier» που συνέχισαν να προβάλλονται στις πλατφόρμες της.

Οι ειδικοί προειδοποιούν ότι η έκρηξη των εργαλείων AI έχει πολλαπλασιάσει τη διαδικτυακή βία κατά των γυναικών, επιτρέποντας σε σχεδόν οποιονδήποτε να δημιουργεί και να διακινεί κακοποιητικό υλικό. Σε πολλές χώρες, ιδίως στον παγκόσμιο Νότο, τα νομικά εργαλεία για την προστασία των θυμάτων είναι ελάχιστα: λιγότερο από το 40% των κρατών διαθέτουν νόμους κατά του cyber-harassment ή cyberstalking, ενώ ο ΟΗΕ εκτιμά ότι 1,8 δισ. γυναίκες και κορίτσια παραμένουν χωρίς νομική προστασία από διαδικτυακή παρενόχληση και άλλες μορφές τεχνολογικά διευκολυνόμενης κακοποίησης.

Deepfake: Ψυχική εξόντωση και ανεπανόρθωτη ζημιά

Η έλλειψη ρύθμισης συνδυάζεται με φτώχεια και χαμηλή ψηφιακή παιδεία, καθιστώντας γυναίκες και κορίτσια σε χώρες χαμηλού εισοδήματος ιδιαίτερα ευάλωτες. Οργανώσεις όπως η TechHer στη Νιγηρία αναφέρουν περιστατικά όπου γυναίκες που δανείζονται χρήματα από εφαρμογές δανεισμού εκβιάζονται από άνδρες που αξιοποιούν εργαλεία AI για να παράγουν ή να απειλήσουν με deepfake γυμνά. Οι συνέπειες στην πραγματική ζωή είναι συντριπτικές: ψυχικά προβλήματα, κοινωνική απομόνωση, απώλεια εργασίας, πειθαρχικές διώξεις στο σχολείο και στο επαγγελματικό περιβάλλον, όπως γράφει ο Guardian.

Δικηγόροι που εκπροσωπούν θύματα deepfake, όπως στην Κένυα, μιλούν για νεαρές γυναίκες που είδαν τη ζωή τους να καταστρέφεται επειδή ψεύτικες εικόνες τους κυκλοφόρησαν χωρίς συναίνεση. Κάποιες έχασαν ευκαιρίες εργασίας, άλλες οδηγήθηκαν σε πειθαρχικές διαδικασίες, ενώ πολλές αντιμετώπισαν απόρριψη από τις ίδιες τους τις οικογένειες. Ακτιβίστριες περιγράφουν την εμπειρία ως απώλεια αξιοπρέπειας και ταυτότητας που δεν ανακτάται ποτέ: ακόμη κι αν ο δράστης παραδεχτεί ότι πρόκειται για deepfake, είναι αδύνατο να γνωρίζει κανείς πόσοι άνθρωποι είδαν ή διέδωσαν ήδη το υλικό.