Η OpenAI εισάγει σημαντικές αλλαγές στο ChatGPT, παρουσιάζοντας ένα νέο σύστημα ασφαλούς δρομολόγησης και γονικούς ελέγχους. Οι κινήσεις αυτές έρχονται ως απάντηση σε περιστατικά όπου το chatbot κατηγορήθηκε ότι ενίσχυσε επικίνδυνες συνομιλίες, οδηγώντας ακόμη και σε τραγικά αποτελέσματα.
Αν και τα μέτρα ασφαλείας έχουν στόχο την προστασία εφήβων και την υπεύθυνη διαχείριση ευαίσθητων θεμάτων, η κοινότητα παραμένει διχασμένη.
Τα νέα χαρακτηριστικά ασφαλείας παρουσιάζονται ως απάντηση σε σειρά περιστατικών, όπου ορισμένα μοντέλα του ChatGPT φέρονται να ενίσχυσαν παραληρητικές σκέψεις χρηστών αντί να εκτρέψουν επικίνδυνες συνομιλίες. Η OpenAI βρίσκεται ήδη αντιμέτωπη με αγωγή για αδικαιολόγητο θάνατο, μετά την αυτοκτονία ενός εφήβου που είχε αλληλεπιδράσει για μήνες με το chatbot.
Το νέο σύστημα δρομολόγησης έχει στόχο να ανιχνεύει συνομιλίες με ευαίσθητο συναισθηματικό περιεχόμενο και να μεταφέρει αυτόματα τη ροή στο GPT-5, το οποίο η OpenAI θεωρεί το πιο κατάλληλο μοντέλο για περιπτώσεις υψηλού κινδύνου. Σε αντίθεση με τις παλαιότερες εκδόσεις, τα GPT-5 μοντέλα έχουν εκπαιδευτεί με το χαρακτηριστικό «ασφαλείς ολοκληρώσεις», που τους επιτρέπει να δίνουν προσεκτικές και ασφαλείς απαντήσεις σε κρίσιμα ερωτήματα, αντί να αποφεύγουν εντελώς τη συμμετοχή.
Αυτό έρχεται σε αντίθεση με τα προηγούμενα μοντέλα συνομιλίας της εταιρείας, τα οποία έχουν σχεδιαστεί για να είναι ευχάριστα και να απαντούν γρήγορα σε ερωτήσεις. Το GPT-4o έχει τεθεί υπό ιδιαίτερη εξέταση λόγω της υπερβολικά κολακευτικής και ευχάριστης φύσης του, η οποία έχει τροφοδοτήσει περιστατικά παραληρητικών ιδεών που προκαλούνται από την τεχνητή νοημοσύνη και έχει προσελκύσει μια μεγάλη βάση αφοσιωμένων χρηστών. Όταν η OpenAI κυκλοφόρησε το GPT-5 ως προεπιλογή τον Αύγουστο, πολλοί χρήστες αντέδρασαν και ζήτησαν πρόσβαση στο GPT-4o.
Διχασμός για τα νέα μέτρα ασφαλείας του ChatGPT: Προστασία ή υπερβολικός έλεγχος;

Παρότι αρκετοί ειδικοί και χρήστες υποδέχθηκαν θετικά τα νέα χαρακτηριστικά ασφαλείας, δεν έλειψαν και οι επικρίσεις. Κάποιοι θεωρούν ότι η OpenAI εφαρμόζει υπερβολικά αυστηρά μέτρα, αντιμετωπίζοντας τους ενήλικες σαν ανήλικους και περιορίζοντας έτσι την ποιότητα της εμπειρίας. Η εταιρεία αναγνωρίζει τις προκλήσεις και δηλώνει ότι χρειάζεται χρόνος για βελτιώσεις.
Σύμφωνα με το techcrunch.com και η εφαρμογή των γονικών ελέγχων στο ChatGPT έλαβε παρόμοια επίπεδα επαίνων και περιφρόνησης, με ορισμένους να επαινούν το γεγονός ότι δίνεται στους γονείς η δυνατότητα να παρακολουθούν τη χρήση της τεχνητής νοημοσύνης από τα παιδιά τους, και άλλους να φοβούνται ότι αυτό ανοίγει το δρόμο για την OpenAI να αντιμετωπίζει τους ενήλικες σαν παιδιά.
Οι έλεγχοι επιτρέπουν στους γονείς να προσαρμόσουν την εμπειρία των εφήβων τους, ορίζοντας ώρες ησυχίας, απενεργοποιώντας τη λειτουργία φωνής και τη μνήμη, καταργώντας τη δημιουργία εικόνων και αποχωρώντας από την εκπαίδευση μοντέλων. Οι λογαριασμοί εφήβων θα έχουν επίσης πρόσθετη προστασία περιεχομένου -όπως μειωμένο γραφικό περιεχόμενο και ακραία ιδανικά ομορφιάς- και ένα σύστημα ανίχνευσης που αναγνωρίζει πιθανά σημάδια ότι ένας έφηβος μπορεί να σκέφτεται να αυτοτραυματιστεί.
«Εάν τα συστήματά μας εντοπίσουν πιθανό κίνδυνο, μια μικρή ομάδα ειδικά εκπαιδευμένων ατόμων εξετάζει την κατάσταση», σύμφωνα με το blog της OpenAI. «Εάν υπάρχουν ενδείξεις οξείας δυσφορίας, θα επικοινωνήσουμε με τους γονείς μέσω email, SMS και push alert στο τηλέφωνό τους, εκτός εάν έχουν επιλέξει να μην λαμβάνουν ειδοποιήσεις».
Η OpenAI αναγνώρισε ότι το σύστημα δεν θα είναι τέλειο και μπορεί μερικές φορές να ενεργοποιεί συναγερμούς όταν δεν υπάρχει πραγματικός κίνδυνος, «αλλά πιστεύουμε ότι είναι καλύτερο να ενεργούμε και να ειδοποιούμε τους γονείς ώστε να μπορούν να παρέμβουν, παρά να παραμένουμε σιωπηλοί». Η εταιρεία τεχνητής νοημοσύνης δήλωσε ότι εργάζεται, επίσης, σε τρόπους επικοινωνίας με τις αρχές επιβολής του νόμου ή τις υπηρεσίες έκτακτης ανάγκης, εάν εντοπίσει άμεση απειλή για τη ζωή κάποιου και δεν μπορεί να επικοινωνήσει με τους γονείς του.