Η τεχνητή νοημοσύνη δεν δίνει ζωή μόνο σε ηλεκτρονικές συσκευές, λύνοντας τα χέρια των ανθρώπων, αλλά παρέχει και ένα πλήθος επιλογών, όπως τη δημιουργία φανταστικών εικόνων, με την πληκτρολόγηση ορισμένων εντολών. Πλέον, οι δυνατότητες της διευρύνονται και αναπτύσσονται προγράμματα, ώστε να παράγει στιγμιαία βίντεο, που μοιάζουν να περιέχουν αληθινό περιεχόμενο.

Βαδίζοντας στα χνάρια της επιτυχίας του ChatGPT, εφαρμογές όπως το Generative A.I. και η εταιρεία Runway, προσφέρουν την επιλογή να δημιουργεί ένα βίντεο, με οποιοδήποτε περιεχόμενο επιθυμεί ο χρήστης.

Ο αρθρογράφος των New York Times, Cade Metz, παραθέτει τον τρόπο με τον οποίο λειτουργούν και καταγράφει τους κινδύνους που ελλοχεύουν από την πρόσβαση σε τέτοιου είδους εργαλεία.

Με το πάτημα ενός κουμπιού…

Όπως αναφέρει το αμερικανικό δημοσίευμα, για να δημιουργήσει κάποιος ένα βίντεο μέσω τεχνητής νοημοσύνης, το μόνο που χρειάζεται είναι να παρέχει τις σωστές εντολές στην εφαρμογή. Δηλαδή, πρέπει να περιγράψει την εικόνα, γιατί με αυτό τον τρόπο δημιουργεί στο σύστημα μια λίστα χαρακτηριστικών που μπορεί να περιλαμβάνονται.

Έπειτα, ένα νευρωνικό δίκτυο, που ονομάζεται μοντέλο διάχυσης, δημιουργεί την εικόνα και τα εικονοστοιχεία που χρειάζονται για τα βασικά χαρακτηριστικά. Έτσι, μετατρέπει τα pixel σε μια συνεκτική εικόνα.

Ωστόσο, η εντολή πρέπει να είναι απλή και ταυτόχρονα κατανοητή. Σε αντίθετη περίπτωση, δημιουργείται μια περίεργη εικόνα, που είναι παραμορφωμένη, καθώς το σύστημα συγχωνεύει έμψυχα όντα με άψυχα αντικείμενα.

Παραδείγματος χάριν, αν κάποιος θέλει μια εικόνα στην οποία ένας σκύλος κοιτάει ένα κινητό τηλέφωνο, πρέπει να πληκτρολογήσει «σκύλος που κοιτάει smartphone» και όχι «σκύλος με smartphone» ή «σκύλος που παίζει με smartphone».

«Ένα βίντεο είναι απλώς μια σειρά από καρέ – στατικές εικόνες – που συνδυάζονται με τρόπο που δίνει την ψευδαίσθηση της κίνησης. Το κόλπο έγκειται στην εκπαίδευση ενός μοντέλου που κατανοεί τη σχέση και τη συνέπεια μεταξύ κάθε καρέ», λέει χαρακτηριστικά ο διευθύνων σύμβουλος της Runway, Cris Valenzuela.

Οι κίνδυνοι που προκύπτουν

Η τεχνολογία της τεχνητής νοημοσύνης αναπτύσσεται ραγδαία και με βάση τους ειδικούς δεν υπάρχουν οι απαραίτητες δικλείδες ασφαλείας για να αποτραπεί η λάθος χρήση της. Έτσι, στη περίπτωση που δημιουργούνται ψεύτικα βίντεο, αρκετοί θεωρούν πως μπορεί να χρησιμοποιηθούν για παραπληροφόρηση, προπαγάνδα και εκδίκηση.

Χαρακτηριστική περίπτωση, ήταν τα deep fake βίντεο πριν ορισμένα χρόνια, όπου έμπαινε το πρόσωπο και η φωνή κάποιου σε ένα άλλο στιγμιότυπο και έμοιαζε αληθινό. Όταν κυκλοφόρησε αυτή η τεχνολογία, αμέσως χρησιμοποιήθηκε για πολιτικούς λόγους και όχι μόνο. Σε ορισμένες περιπτώσεις, θύματα ήταν καθημερινοί άνθρωποι και κυρίως γυναίκες, όπου πρώην σύντροφοι τους έβαζαν τα πρόσωπα τους σε σκηνές ερωτικού περιεχομένου, ώστε να πάρουν εκδίκηση για την απόρριψη που βίωσαν.

Μέχρι στιγμής, στη παραγωγή βίντεο με τεχνητή νοημοσύνη, υπάρχουν μερικές δικλείδες ασφαλείας, η οποίες όμως δεν εγγυώνται σίγουρα αποτελέσματα. Συγκεκριμένα, είναι η σύντομη διάρκεια του βίντεο -περίπου 4 δευτερόλεπτα-, η κακή ανάλυση και το γεγονός ότι λίγοι άνθρωποι μπορούν να παράγουν ένα ωραίο αποτέλεσμα.

«Σε αυτό το σημείο, θα εμπιστευτώ ένα βίντεο μόνο αν είναι υψηλής ανάλυσης», λέει ο Phillip Isola, καθηγητής στο Τεχνολογικό Ινστιτούτο της Μασαχουσέτης που ειδικεύεται στην A.I. και προσθέτει πως «αυτό θα αλλάξει πολύ γρήγορα».

Εντούτοις, η πραγματικότητα έχει αποδείξει πως ο άνθρωπος δεν λειτουργεί πάντα με την λογική και μερικές φορές πιστεύει ως αληθινό, κάτι που φαίνεται ότι είναι ψεύτικο. Και το ερώτημα που εγείρεται, είναι τι θα συμβεί, όταν θα είναι δύσκολο κάποιος να ξεχωρίσει την αλήθεια από το ψέμα.