Η OpenAI παρουσίασε πρόσφατα το ChatGPT Health, μια νέα λειτουργία εντός του ChatGPT σχεδιασμένη να υποστηρίζει ερωτήματα υγείας και ευεξίας. Η λειτουργία – που ακόμη δεν είναι διαθέσιμη στην Ελλάδα – έρχεται ως αποτέλεσμα του γεγονότος πως το δημοφιλές chatbot τεχνητής νοημοσύνης λαμβάνει καθημερινά εκατομμύρια ερωτήσεις σχετικές με την υγεία.
Τα δεδομένα καταδεικνύουν το αυξανόμενο δημόσιο ενδιαφέρον για ιατρικές πληροφορίες που υποστηρίζονται από AI και το ChatGPT Health στοχεύει να παρέχει στους χρήστες μια πιο εστιασμένη εμπειρία σε θέματα ευεξίας και ιατρικές ερωτήσεις.
Ωστόσο, μαζί με την ευκολία πρόσβασης σε πληροφορίες υγείας, προκύπτουν σοβαρά ζητήματα ορθότητας και υπεύθυνης χρήσης. Μιλώντας στο Medical News Today, ο David Liebovitz, ειδικός στην τεχνητή νοημοσύνη στην κλινική ιατρική στο Πανεπιστήμιο Northwestern, επισημαίνει το πώς το ChatGPT Health μπορεί να επηρεάσει τη σχέση ασθενούς-γιατρού, αλλά και πώς οι επαγγελματίες υγείας μπορούν να καθοδηγήσουν με ασφάλεια την κατάλληλη χρήση των εργαλείων AI.
Πώς μπορεί να ωφελήσει γιατρούς και ασθενείς
Όπως εξηγεί ο Liebovitz, το ChatGPT Health μπορεί να βοηθήσει τους ασθενείς να προσέρχονται καλύτερα προετοιμασμένοι στο ραντεβού τους. Μπορεί, για παράδειγμα, να συνοψίσει τάσεις σε εργαστηριακές εξετάσεις, να οργανώσει ερωτήσεις και να εντοπίσει πιθανά κενά στη φροντίδα. Αυτό είναι σαφώς προτιμότερο από αποσπασματικά αποτελέσματα αναζήτησης στο Google και προφανώς από την πλήρη έλλειψη προετοιμασίας.
Για τους επαγγελματίες υγείας, αυτό μπορεί να σημαίνει πιο ουσιαστικό χρόνο επίσκεψης και ευκολότερη λήψη κοινών αποφάσεων. Ο βασικός κίνδυνος, όμως, είναι η υπερβολική εμπιστοσύνη. Οι ασθενείς μπορεί να θεωρήσουν ότι η πληροφορία που παράγει η ΑΙ ισοδυναμεί με ιατρική κρίση ή με πλήρη κλινική αξιολόγηση. Αυτό απαιτεί από τους γιατρούς νέες δεξιότητες: να ελέγχουν όσα φέρνει ο ασθενής, να διορθώνουν λανθασμένες πληροφορίες και να ξεδιαλύνουν το πλαίσιο σε πιθανή σύγχυση.
Πώς να θέσουν όρια οι γιατροί
Ο Liebovitz τονίζει ότι οι γιατροί δεν πρέπει να απορρίπτουν τη χρήση του εργαλείου. Αντίθετα, προτείνει να αναγνωρίζουν τη χρησιμότητά του, θέτοντας όμως σαφή όρια. Ένα ενδεικτικό πλαίσιο είναι να εξηγούν ότι βοηθά στην οργάνωση ερωτήσεων και στην κατανόηση βασικών εννοιών, αλλά δεν μπορεί να αξιολογήσει πράγματα όπως η φυσική εξέταση, ο τόνος της συζήτησης ή η προηγούμενη ανταπόκριση σε θεραπείες.
Αν ο ασθενής φέρει λανθασμένες πληροφορίες, αυτό πρέπει να αντιμετωπίζεται ως ευκαιρία εκπαίδευσης και όχι ως στοιχείο προσβολής ή αφορμή για επικρίσεις. Το εργαλείο – σωστό ή λάθος – μπορεί να λειτουργήσει ως αφετηρία συζήτησης.
Πώς να επιτευχθεί σφαλής και υπεύθυνη χρήση από τους ασθενείς
Ο Liebovitz συνοψίζει τη σωστή χρήση σε τρεις βασικές αρχές:
► Προετοιμασία, όχι διάγνωση. Το εργαλείο είναι κατάλληλο για οργάνωση ερωτήσεων, κατανόηση όρων και παρακολούθηση μοτίβων, όχι για συμπεράσματα σχετικά με διάγνωση, πρόγνωση ή επιλογή θεραπείας.
► Πάντα επαλήθευση. Οτιδήποτε αναφέρει ένα εργαλείο AI πρέπει να θεωρείται απλή υπόδειξη και να επιβεβαιώνεται από την ιατρική ομάδα.
► Κατανόηση των ζητημάτων ιδιωτικότητας. Οι ασθενείς θα πρέπει να γνωρίζουν πως δεδομένα υγείας που μοιράζονται με το ChatGPT δεν προστατεύονται από τη νομοθεσία. Δεν υπάρχει νομικό απόρρητο, όπως στη σχέση ασθενούς–γιατρού.
Οι πιο συχνές παρεξηγήσεις
Η μεγαλύτερη παρεξήγηση, σύμφωνα με τον Liebovitz, είναι ότι οι απαντήσεις της ΑΙ ισοδυναμούν με ιατρική γνώμη. Τα μεγάλα γλωσσικά μοντέλα παράγουν πιθανό κείμενο, δεν επαληθεύουν την αλήθεια ούτε σταθμίζουν το κλινικό πλαίσιο. Μπορούν να δημιουργήσουν μια στρεβλή εικόνα και να εμφανίζουν λάθος απαντήσεις ως σωστές και μάλιστα ως «αυθεντίες».
Πώς αλλάζει η σχέση γιατρού–ασθενούς στο μέλλον
Κοιτώντας πέντε χρόνια μπροστά, ο Liebovitz εκτιμά ότι η ΑΙ θα γίνει ένα σταθερό εργαλείο στον τομέα της υγείας, τόσο στο προσκήνιο όσο και στο παρασκήνιο. Θα βοηθά στη διαχείριση εγγράφων, στην ανάδειξη κρίσιμων στοιχείων ιστορικού και στον εντοπισμό πιθανών προβλημάτων.
Για τους ασθενείς, εργαλεία όπως το ChatGPT Health μπορεί να λειτουργούν ως ένας μόνιμος «βοηθός υγείας». Παρ’ όλα αυτά, ο πυρήνας της σχέσης με τον γιατρό – η εμπιστοσύνη, η κρίση και η κοινή λήψη αποφάσεων – δεν μπορεί να αυτοματοποιηθεί.
Γιατί έχει σημασία το λανσάρισμα τώρα
Όπως σημειώνει ο Liebovitz, το ChatGPT Health ουσιαστικά θεσμοθετεί κάτι που ήδη συμβαίνει άτυπα. Εκατομμύρια άνθρωποι χρησιμοποιούσαν το ChatGPT για ερωτήσεις υγείας, ακόμη και ανεβάζοντας εξετάσεις. Τώρα, η OpenAI δημιουργεί μια υποδομή με συνδέσεις με ιατρικά αρχεία και σαφέστερα όρια χρήσης. Αυτό αλλάζει την ισορροπία πληροφόρησης που χαρακτήριζε τη σχέση ασθενούς – παρόχου υγείας για δεκαετίες.
Η διαφορά με το Google και οι πιθανοί κίνδυνοι
Το βασικό πλεονέκτημα είναι η σύνθεση και η προσωποποίηση. Αντί για δεκάδες συνδέσμους με πιθανές αντικρουόμενες αναφορές, ο χρήστης λαμβάνει μια ενιαία εξήγηση, προσαρμοσμένη στα δικά του δεδομένα.
Τα μειονεκτήματα παραμένουν σημαντικά: πιθανές «παραισθήσεις» ΑΙ (δηλαδή λανθασμένες απαντήσεις που θεωρούνται από το πρόγραμμα ως σωστές και αναπαράγοντες διαρκώς), αναξιόπιστες παραπομπές, έλλειψη φυσικής εξέτασης και απουσία λογοδοσίας. Επιπλέον, ο Liebovitz προειδοποιεί και για την ψυχική υγεία, καθώς έχουν καταγραφεί περιπτώσεις όπου chatbots ενίσχυσαν επικίνδυνες σκέψεις αντί να τις αντιμετωπίσουν σωστά.
Το συμπέρασμα είναι σαφές: το ChatGPT Health, αλλά και αντίστοιχα προγράμματα ΑΙ άλλων εταιρειών που πιθανόν να εμφανιστούν στο μέλλον, μπορούν να αποτελέσουν χρήσιμο εργαλείο υποστήριξης και προετοιμασίας, αλλά όχι υποκατάστατο της ιατρικής κρίσης. Η αξία του εξαρτάται από το πώς χρησιμοποιείται και από το αν οι χρήστες κατανοούν ξεκάθαρα τα όριά του.