Η χρήση της τεχνολογίας deepfake έχει αυξηθεί τα τελευταία χρόνια και ποτέ ξανά στο παρελθόν δεν είναι ευκολότερο να φτιάξεις ένα ψεύτικο βίντεο ή μια ψεύτικη εικόνα.

Χρειάζονται απλώς μερικές φωτογραφίες του προσώπου κάποιου. Εάν δε το βίντεο συνοδεύεται και από ήχο, τότε χρειάζεται απλώς να ηχογραφηθεί η φωνή του ατόμου, ώστε στη συνέχεια η τεχνητή νοημοσύνη να την αναπαράγει με οποιοδήποτε κείμενο της δοθεί.

Και πλέον κανείς δεν μπορεί να πιστεύει ούτε στα αυτιά, ούτε και στα μάτια του. Ορισμένα παραδείγματα:

Κάποιοι το κάνουν για διασκέδαση, καθώς εφαρμογές αλλαγής προσώπων σε ένα βίντεο ή μια εικόνα και πολλαπλά φίλτρα είναι διαθέσιμα στα μέσα κοινωνικής δικτύωσης. Υπάρχουν όμως και πολλές κακόβουλες χρήσεις, πιο «επαγγελματικές», για δημιουργία πλαστών βίντεο ώστε να πληγεί και να διαπομπευθεί ένα πρόσωπο, ένας πολιτικός ή να πραγματοποιηθεί μια απάτη.

Οι γυναίκες είναι μια από τις πιο στοχοποιημένες κατηγορίες πολιτών, καθώς τα πρόσωπά τους χρησιμοποιούνται συχνά για deepfake βίντεο πορνογραφίας, τα οποία διακινούνται στη συνέχεια μέσω του διαδικτύου.

Και στην Ελλάδα οι υποθέσεις διαδέχονται η μία την άλλη. Τα ψεύτικα βίντεο και οι εικόνες χρησιμοποιούνται είτε για εκβιασμό, είτε για εξαπάτηση, είτε για διαπόμπευση. Αρκετά από τα θύματα είναι ανήλικα κορίτσια και συχνά οι δράστες είναι επίσης ανήλικοι. Τα νέα προγράμματα τεχνητής νοημοσύνης μπορούν να δημιουργούν ψεύτικες εικόνες και βίντεο με τις ακριβείς αναλογίες του θύματος, παρουσιάζοντας ένα εξαιρετικά αληθοφανές γυμνό σώμα.

Σε μια έρευνα που πραγματοποιήθηκε από την Deeptrace, μια εταιρεία που ειδικεύεται στην τεχνητή νοημοσύνη, αναφέρεται πως η πορνογραφία αποτελούσε το 96% των deepfake βίντεο και ασφαλώς η συντριπτική πλειονότητα δημιουργήθηκε χωρίς τη συγκατάθεση του εικονιζόμενου ατόμου.

«Είναι απάνθρωπο και γνωρίζουμε πως ένα τέτοιο βίντεο θα μπορούσε να επηρεάσει βαθιά ένα άτομο. Θα μπορούσε να επηρεάσει τις διαπροσωπικές σχέσεις του και τη ψυχική του υγεία», δήλωσε η Νοέλ Μαρτίν, ακτιβίστρια ερευνήτρια στο University of Western Australia, η οποία έχει αντιμετωπίσει καταχρήσεις που βασίζονται στην εικόνα εδώ και χρόνια.

Το φαινόμενο των deepfakes παρατηρήθηκε για πρώτη φορά το 2017 σε εξειδικευμένα φόρουμ, όπως το Reddit, με διάσημες γυναίκες να στοχοποιούνται λόγω του μεγάλου αριθμού εικόνων τους που ήταν διαθέσιμες στο διαδίκτυο.

«Το πιο ανησυχητικό είναι πως πολλοί πιστεύουν ότι αυτό είναι αστείο ή πιστεύουν πως δεν είναι και τόσο σοβαρό επειδή σε κάποιες περιπτώσεις τα αποτελέσματα δεν είναι τόσο ρεαλιστικά. Δεν καταλαβαίνουν ότι για τα θύματα αυτό είναι πραγματικά επώδυνο και τρομακτικό», ανέφερε στο Euronews Next, ο Χένρι Άντερ, ειδικός στη γενετική τεχνητή νοημοσύνη.

Και καθώς η τεχνολογία εξελίσσεται και γίνεται ευρύτερα διαθέσιμη, η κατάσταση γίνεται ακόμη πιο δύσκολη. Όλο και περισσότερες γυναίκες πέφτουν θύματα και εκφράζονται σοβαρές ανησυχίες για τις κοινωνικές και ψυχολογικές επιπτώσεις.

«Είναι τρομακτικό και σοκαριστικό να βλέπεις τον εαυτό σου να απεικονίζεται με τρόπο που ποτέ δεν συναίνεσες», υπογραμμίζει η Νοέλ Μάρτιν. «Πραγματικά, το ανθρώπινο μάτι δεν πρόκειται στο μέλλον να είναι αξιόπιστο για τον εντοπισμό των ψεύτικων βίντεο και εικόνων. Αυτό συμβαίνει ακόμη και σήμερα, αλλά όσο προχωράμε στο μέλλον τα αποτελέσματα θα βελτιώνονται σε ποιότητα», είπε ο Χένρι Άντερ.

Τι πρέπει να κάνει κάποιος εάν πέσει θύμα deepfake

Γενικά θα πρέπει να αποφεύγεται η δημοσιοποίηση και η παροχή σε τρίτους προσωπικών και ευαίσθητων φωτογραφιών ή βίντεο. Ιδιαίτερα με άγνωστα άτομα.

► Αναφορά του περιεχομένου εάν διακινείται μέσω πλατφόρμας ώστε να αφαιρεθεί άμεσα. Μια συμβουλή είναι να κρατηθούν ορισμένα αποδεικτικά στοιχεία της εγκληματικής πράξης

► Καταγγελία στις αρμόδιες αστυνομικές υπηρεσίες (Διεύθυνση Δίωξης Ηλεκτρονικού Εγκλήματος) και κατάθεση μήνυσης κατά του δράστη εάν είναι δυνατόν

► Μην απαντήσετε σε απειλές ή αιτήματα του δράστη για καταβολή χρηματικού ποσού

► Ζητήστε ψυχολογική υποστήριξη και επικοινωνήστε το πρόβλημα στους δικούς σας ανθρώπους

Μπορείτε να επικοινωνήσετε με τη Διεύθυνση Δίωξης Ηλεκτρονικού Εγκλήματος με τους ακόλουθους τρόπους: