Σε ιστορικά υψηλά επίπεδα έχουν φτάσει οι εικόνες και τα βίντεο παιδικής σεξουαλικής κακοποίησης που δημιουργούνται με τη χρήση τεχνητής νοημοσύνης, σύμφωνα με νέα στοιχεία που εντείνουν τις ανησυχίες για την εγκληματική αξιοποίηση της τεχνολογίας. Το Ίδρυμα Παρακολούθησης του Διαδικτύου (Internet Watch Foundation – IWF), η μεγαλύτερη ευρωπαϊκή γραμμή καταγγελιών για τον εντοπισμό και την απομάκρυνση τέτοιου υλικού, ανακοίνωσε την Τρίτη ότι καταγράφηκε αύξηση 260 φορές στα βίντεο παιδικής κακοποίησης που παράγονται με τεχνητή νοημοσύνη στο διαδίκτυο τον τελευταίο χρόνο, παράλληλα με αύξηση του πιο ακραίου περιεχομένου.
Η βρετανική εποπτική αρχή εντόπισε 8.029 ρεαλιστικές απεικονίσεις παιδικής σεξουαλικής κακοποίησης το 2025, αριθμός αυξημένος κατά 14% σε σχέση με το προηγούμενο έτος. Τα ευρήματα αποκαλύπτουν πως η πρόοδος στη γενετική τεχνητή νοημοσύνη επιτρέπει στους δράστες να παράγουν μεγάλους όγκους όλο και πιο βίαιου και ρεαλιστικού υλικού, με ελάχιστες τεχνικές γνώσεις. Η εξέλιξη αυτή εντείνει την πίεση προς κυβερνήσεις και ρυθμιστικές αρχές να επικαιροποιήσουν τη νομοθεσία για την ασφάλεια στο διαδίκτυο και να επιβάλουν αυστηρότερες υποχρεώσεις στις εταιρείες τεχνητής νοημοσύνης, των οποίων τα προϊόντα παραμένουν σε μεγάλο βαθμό ανεξέλεγκτα και ευρέως διαθέσιμα.
Από τα περισσότερα από 3.000 βίντεο που δημιουργήθηκαν με τεχνητή νοημοσύνη και επαληθεύτηκαν από αναλυτές, έναντι μόλις 13 το 2024, το 65%, κατατάχθηκε στην κατηγορία Α, τη σοβαρότερη νομική κατηγορία σύμφωνα με τη νομοθεσία του Ηνωμένου Βασιλείου, η οποία περιλαμβάνει εγκλήματα όπως ο βιασμός, τα σεξουαλικά βασανιστήρια και η κτηνοβασία, όπως αναφέρουν οι Financial Times. Αντίθετα, το IWF ανέφερε ότι το 43% των μη τεχνητής νοημοσύνης εγκληματικών βίντεο που εντοπίστηκαν το 2025 ανήκε στην ίδια κατηγορία, στοιχείο που υποδηλώνει ότι η τεχνητή νοημοσύνη ενδέχεται να χρησιμοποιείται για τη δημιουργία πιο βίαιου περιεχομένου.
«Ενώ η τεχνητή νοημοσύνη μπορεί να προσφέρει πολλά θετικά, είναι τρομακτικό να σκεφτεί κανείς ότι η δύναμή της μπορεί να χρησιμοποιηθεί για να καταστρέψει τη ζωή ενός παιδιού. Αυτό το υλικό είναι επικίνδυνο», δήλωσε η Κέρι Σμιθ, διευθύνουσα σύμβουλος του IWF. Η ίδια υπογράμμισε την ανάγκη οι εταιρείες τεχνητής νοημοσύνης να υιοθετήσουν προσέγγιση «ασφάλεια εκ κατασκευής», με ενσωματωμένους μηχανισμούς αποτροπής κατάχρησης ήδη από το στάδιο ανάπτυξης των προϊόντων.
Το ζήτημα της παιδικής κακοποίησης μέσω υλικού που παράγεται από τεχνητή νοημοσύνη ήρθε στο προσκήνιο τον Ιανουάριο, όταν το chatbot τεχνητής νοημοσύνης Grok του Έλον Μασκ δημιούργησε σεξουαλικοποιημένες εικόνες παιδιών, οι οποίες διαμοιράστηκαν στην πλατφόρμα κοινωνικής δικτύωσης X. Η υπόθεση προκάλεσε απειλές για πρόστιμα και απαγορεύσεις από κυβερνήσεις και ρυθμιστικές αρχές στην Ευρωπαϊκή Ένωση, το Ηνωμένο Βασίλειο και τη Γαλλία. Ο Έλον Μασκ δήλωσε ότι «όποιος χρησιμοποιεί το Grok για τη δημιουργία παράνομου περιεχομένου θα υποστεί τις ίδιες συνέπειες σαν να ανεβάζει παράνομο υλικό».
Ως αποτέλεσμα της αύξησης των σεξουαλικών εικόνων που δημιουργήθηκαν μέσω του Grok, συμπεριλαμβανομένων και εικόνων παιδιών, η κυβέρνηση του Ηνωμένου Βασιλείου ανακοίνωσε ότι θα επιδιώξει να αποκτήσει εξουσίες για να «κινηθεί γρήγορα» και να καλύψει νομικό κενό, εντάσσοντας τα chatbots τεχνητής νοημοσύνης στη νομοθεσία για την ασφάλεια στο διαδίκτυο, μαζί με πλατφόρμες κοινωνικής δικτύωσης όπως το Instagram και το TikTok.
Οι αναλυτές του IWF διαπίστωσαν επίσης ότι συζητήσεις στο «σκοτεινό διαδίκτυο» μεταξύ δραστών περιλάμβαναν τη χρήση κρυφών καμερών για τη συλλογή υλικού με πραγματικά παιδιά, το οποίο στη συνέχεια θα μπορούσε να μετατραπεί σε βίντεο κακοποίησης μέσω τεχνητής νοημοσύνης. Παράλληλα, φαίνεται πως οι δράστες ανταγωνίζονται μεταξύ τους για τη δημιουργία πιο ακραίων σεναρίων μέσω AI.
Η έκθεση κατέδειξε ακόμη ότι οι παιδόφιλοι αναμένουν την επόμενη γενιά τεχνολογιών τεχνητής νοημοσύνης, όπως οι αυτόνομοι πράκτορες, οι οποίοι χρησιμοποιούνται ήδη για την εκτέλεση εργασιών, όπως ο προγραμματισμός, σε επιχειρησιακά περιβάλλοντα. «Είναι απολύτως εμφανές από τις ανησυχητικές συζητήσεις στο σκοτεινό διαδίκτυο ότι οι καινοτομίες στην τεχνητή νοημοσύνη αντιμετωπίζονται με ενθουσιασμό από χρήστες υλικού παιδικής σεξουαλικής κακοποίησης», ανέφερε ανώτερος αναλυτής που δεν κατονομάζεται για λόγους ασφαλείας. «Γνωρίζουμε ότι αυτό επηρεάζει τα θύματα και τους επιζώντες, καθώς η δημιουργία και διανομή του έχει εξίσου σοβαρές συνέπειες όπως και οι παραδοσιακές μορφές παιδικής κακοποίησης».