Η τεχνητή νοημοσύνη χρησιμοποιείται εδώ και δεκαετίες για να έχει μια καλύτερη ποιότητα ζωής ο άνθρωπος και πλέον δεν αποτελεί μόνο μέρος άβουλων ηλεκτρονικών συσκευών, αλλά λειτουργεί και μέσω bot για λόγους επικοινωνίας.

Χαρακτηριστικά, ο Γερμανός καθηγητής Jonas Thiel έκανε ένα «πείραμα» και συνομίλησε για ώρες με chatbots στην ιστοσελίδα Character.AI, τα οποία έχουν τη δυνατότητα να αντιγράφουν τον χαρακτήρα και το ύφος ιστορικών προσωπικοτήτων, όπως ο Καρλ Μαρξ.

Οι απαντήσεις που έλαβε ταιριάζουν με όσα θα μπορούσε να έλεγαν σήμερα οι ιστορικές προσωπικότητες που έχουν φύγει από τη ζωή, όμως δημιουργήθηκε ένα τεράστιο ερώτημα, με βάση τους New York Times. Τα chatbots λένε μεν όσα γνωρίζουν, είναι όμως ειλικρινή; Κι αν όχι, θα μπορούσαν να γίνουν;

Ο αρθρογράφος του αμερικανικού δημοσιεύματος, Cade Metz, συγκέντρωσε τις απόψεις ειδικών, οι οποίοι περιγράφουν την κατάσταση που επικρατεί με την τεχνητή νοημοσύνη που χρησιμοποιείται στην επικοινωνία, αλλά και τους κινδύνους που ελλοχεύουν.

Προκαταλήψεις και κωλύματα

Η τεχνητή νοημοσύνη έχει χρησιμοποιηθεί εδώ και καιρό, με στόχο τη συγκέντρωση και ταξινόμηση πληροφοριών, αλλά και για λεκτική αλληλεπίδραση με τους ανθρώπους, όπως οι φωνητικές εντολές στο GPS. Παρόλα αυτά, ένα σοβαρό πρόβλημα που έχει προκύψει, είναι ότι μπορεί να επεξεργάζεται μεν γρήγορα τεράστιο όγκο πληροφοριών και να προσαρμόζεται αναλόγως, αλλά δεν μπορεί να ξεχωρίσει ή καλύτερα να αντιληφθεί την ειλικρίνεια, πόσο μάλλον να παρακάμψει αρνητικές σκέψεις που περιλαμβάνονται στα στοιχεία που συλλέγει.

Παραδείγματος χάριν, στις ΗΠΑ το ηλεκτρονικό σύστημα που χρησιμοποιούνταν σε μερικές Πολιτείες για την εύρεση εγκληματιών, έκρινε κάποιον ένοχο με βάση τα φυλετικά χαρακτηριστικά που είχαν ως πρότυπα αστυνομικοί στο παρελθόν και όχι με βάση τις συνθήκες που επικρατούσαν.

Έτσι, σε ορισμένες περιπτώσεις θεωρούσε ως δράστες άτομα που κοινωνικά δεν ήταν αποδεκτά -πχ Αφροαμερικανοί και μετανάστες-, ακόμα και σε περιπτώσεις που οι ένοχοι αποδείχτηκε πως ήταν λευκά άτομα και Αμερικανοί.

Σύμφωνα λοιπόν, με τη Μάργκαρετ Μίτσελ, πρώην A.I. ερευνήτρια στη Microsoft και την Google, «χωρίς πρόσθετα προστατευτικά κιγκλιδώματα, η τεχνητή νοημοσύνη θα καταλήξει να αντανακλά όλες τις προκαταλήψεις και τις τοξικές πληροφορίες που υπάρχουν ήδη στον Ιστό».

Τεχνολογική ανάπτυξη

Οι επιστήμονες λοιπόν, χωρίζονται σε δύο ομάδες, σχετικά με τα μέτρα που πρέπει να ληφθούν, ώστε να αντιμετωπιστούν τα κενά της τεχνητής νοημοσύνης. Αρχικά, ορισμένοι υποστηρίζουν ότι αυτές οι δυσλειτουργίες δεν θα μπορέσουν να διορθωθούν ποτέ, οπότε ο άνθρωπος πρέπει να τις συνηθίσει και να τις ξεχωρίζει.

Ειδικά στο A.I. που χρησιμοποιείται για επικοινωνία που γίνεται για ψυχαγωγικούς σκοπούς, ο συνδημιουργός της ιστοσελίδας Character.AI, Noam Shazeer που είναι πρώην μηχανικός της Google, τονίζει πως «αυτά τα συστήματα δεν έχουν σχεδιαστεί για την αλήθεια. Είναι σχεδιασμένα για εύλογη συζήτηση».

Αντιθέτως, άτομα όπως ο Richard Socher, πρώην επικεφαλής τεχνητής νοημοσύνης στη Salesforce που τώρα διευθύνει μια start-up που ονομάζεται You.com, θεωρεί ότι αν το A.I. καταφέρει να αναλύσει όλα τα γλωσσικά μοντέλα, τότε θα είναι σε θέση να μπορεί να είναι τόσο πιο ειλικρινές, όσο και πιο κοντά στην αλήθεια.

Μέχρι στιγμής όμως, όλοι οι ερευνητές ξεκαθαρίζουν ότι χρειάζεται περισσότερος χρόνος για να επιτευχθούν τα επιθυμητά αποτέλεσμα, καθώς η τεχνητή νοημοσύνη για λόγους επικοινωνίας, ακόμα αναπτύσσεται, παρά τα θετικά δείγματα που έχει δώσει.