Όλο και περισσότεροι άνθρωποι στρέφονται σε chatbots τεχνητής νοημοσύνης, όπως το ChatGPT, το Gemini και το Grok, αναζητώντας απαντήσεις για θέματα υγείας. Η ελκυστικότητά τους βασίζεται σε μια απλή αρχή: η πρόσβαση σε γιατρό δεν είναι πάντα εύκολη, ενώ αυτά είναι διαθέσιμα κάθε στιγμή, έτοιμα να απαντήσουν άμεσα.
Όμως, πόσο ασφαλές είναι να βασίζεται κανείς σε τέτοιες εφαρμογές για ιατρικές συμβουλές;
Το ερώτημα επανέρχεται στο προσκήνιο μέσα από το BBC, το οποίο καταγράφει τόσο προσωπικές εμπειρίες χρηστών όσο και νέες επιστημονικές αξιολογήσεις που δείχνουν ότι, παρά τις εντυπωσιακές δυνατότητές τους, τα chatbots μπορούν να αποδειχθούν και… επικίνδυνα λανθασμένα.
Η ιστορία της Abi
Η Abi, από το Μάντσεστερ, χρησιμοποιεί εδώ και περίπου έναν χρόνο το ChatGPT για να τη βοηθά να διαχειρίζεται τις ανησυχίες της. Όπως εξηγεί, πάσχει από άγχος υγείας και θεωρεί ότι μπορεί να της προσφέρει πιο εξατομικευμένες απαντήσεις από μια απλή αναζήτηση στο διαδίκτυο, η οποία συχνά την οδηγεί στα χειρότερα πιθανά σενάρια.
«Επιτρέπει μια μορφή από κοινού επίλυσης προβλημάτων. Σαν να συνομιλείς με τον γιατρό σου», λέει.
Σε μία περίπτωση, όταν πίστευε ότι έπασχε από λοίμωξη του ουροποιητικού, το ChatGPT αξιολόγησε τα συμπτώματά της και της συνέστησε να απευθυνθεί σε φαρμακοποιό. Τελικά, έλαβε αντιβιοτική αγωγή και θεωρεί ότι το chatbot τη βοήθησε να αναζητήσει τη σωστή φροντίδα χωρίς να νιώθει ότι «καταλαμβάνει τον χρόνο του Εθνικού Συστήματος Υγείας της Αγγλίας».
Όμως, λίγους μήνες αργότερα, όταν έπεσε σε πεζοπορία και χτύπησε δυνατά την πλάτη της, η τεχνητή νοημοσύνη της έδωσε μια πολύ πιο δραματική εκτίμηση. «Το ChatGPT μού είπε ότι είχα υποστεί διάτρηση κάποιου οργάνου και ότι έπρεπε να πάω αμέσως στα επείγοντα». Μετά από ώρες αναμονής, καθώς ο πόνος υποχωρούσε, έφυγε από το νοσοκομείο, συνειδητοποιώντας ότι η απάντηση ήταν – τουλάχιστον – υπερβολική.
Η υπόσχεση της ευκολίας και ο κίνδυνος του λάθους
Η δημοτικότητα αυτών των εφαρμογών αυξάνεται συνεχώς. Όμως, η ποιότητα των ιατρικών συμβουλών που παρέχουν προκαλεί ανησυχία σε ειδικούς και ερευνητές.
Ο Sir Chris Whitty, επικεφαλής ιατρικός σύμβουλος της Αγγλίας, έχει προειδοποιήσει ότι βρισκόμαστε σε μια «ιδιαίτερα δύσκολη» περίοδο, ακριβώς επειδή οι πολίτες χρησιμοποιούν όλο και περισσότερο τα εν λόγω εργαλεία, ενώ οι απαντήσεις τους είτε δεν χαρακτηρίζονται ως «αρκετά καλές» είτε είναι «τόσο σίγουρες όσο και ανακριβείς».
Το πρόβλημα, δηλαδή, δεν είναι μόνο το ενδεχόμενο σφάλματος. Αφορά και στον τρόπο, με τον οποίο παρουσιάζεται το λάθος: με τόνο βεβαιότητας.
Τι δείχνουν οι μελέτες
Ερευνητές από το Εργαστήριο Συλλογιστικής με Μηχανές του Πανεπιστημίου της Οξφόρδης ζήτησαν από γιατρούς να δημιουργήσουν ρεαλιστικά σενάρια υγείας: από ήπια προβλήματα που θα μπορούσαν να αντιμετωπιστούν στο σπίτι μέχρι περιστατικά που απαιτούσαν επίσκεψη σε γιατρό, σε τμήμα επειγόντων ή ακόμη και κλήση ασθενοφόρου.
Όταν τα chatbots έλαβαν την πλήρη και σωστά διατυπωμένη εικόνα των περιστατικών, η ακρίβειά τους έφτασε το 95%. Ο καθηγητής Adam Mahdi δήλωσε ότι τα αποτελέσματα ήταν «εκπληκτικά, στην πραγματικότητα, σχεδόν τέλεια».
Η εικόνα άλλαξε ριζικά, όταν στη θέση των ερευνητών μπήκαν απλοί χρήστες. Σε δοκιμή με 1.300 άτομα, τα οποία έπρεπε να περιγράψουν τα ίδια τα συμπτώματα σε chatbot και να ζητήσουν διάγνωση ή συμβουλή, η ακρίβεια έπεσε στο 35%.
Ο Mahdi εξηγεί πως «όταν οι άνθρωποι μιλάνε, μοιράζονται πληροφορίες σταδιακά, παραλείπουν πράγματα και αποσπάται η προσοχή τους». Δηλαδή, το πρόβλημα δεν είναι μόνο η τεχνητή νοημοσύνη, αλλά και ο τρόπος με τον οποίο οι άνθρωποι αλληλεπιδρούν μαζί της.
Όταν η διατύπωση «μεταμορφώνει» την απάντηση
Ένα από τα παραδείγματα που χρησιμοποιήθηκαν στη μελέτη, όπως περιγράφεται στο Nature Medicine, αφορούσε τα συμπτώματα μιας υποαραχνοειδούς αιμορραγίας, μιας επείγουσας κατάστασης που απαιτεί άμεση νοσοκομειακή αντιμετώπιση.
Όμως, μικρές διαφορές στον τρόπο που οι συμμετέχοντες περιέγραψαν τα ίδια συμπτώματα, οδήγησαν το chatbot σε τελείως διαφορετικές και ενίοτε επικίνδυνες απαντήσεις. Σε ορισμένες περιπτώσεις, σοβαρή εγκεφαλική αιμορραγία κατέληγε να «αντιμετωπίζεται» σαν κάτι που θα μπορούσε να περάσει με ξεκούραση στο σπίτι.
Γιατί ένα chatbot δεν είναι το ίδιο με μια αναζήτηση στο Google
Η Δρ. Μάργκαρετ ΜακΚάρτνι, γενική ιατρός στη Γλασκώβη, επισημαίνει ότι υπάρχει μια κρίσιμη διαφορά ανάμεσα σε μια αναζήτηση στο διαδίκτυο και σε μια συνομιλία με chatbot.
Όπως υπογραμμίζει, όταν επισκέπτεσαι έναν ιστότοπο, μπορείς να ελέγξεις ποια είναι η πηγή, ποια η αξιοπιστία της και ποιος υπογράφει τις πληροφορίες. Αντίθετα, σε ένα chatbot δημιουργείται η αίσθηση μιας προσωπικής, σχεδόν υποστηρικτικής σχέσης. «Φαίνεται σαν να λαμβάνεις αυτή την καθησυχαστική συμβουλή που έχει δημιουργηθεί “για σένα”» και αυτό μπορεί να αλλάξει τον τρόπο με τον οποίο ερμηνεύουμε αυτά που διαβάζουμε.
Επίσης, ανάλυση από το Lundquist Institute for Biomedical Innovation στην Καλιφόρνια, έδειξε ότι τα chatbots μπορούν να αναπαράγουν την παραπληροφόρηση, ιδιαίτερα όταν οι ερωτήσεις διατυπώνονται με τρόπο που την ευνοεί.
Οι ερευνητές δοκίμασαν συστήματα όπως Gemini, DeepSeek, Meta AI, ChatGPT και Grok με ερωτήσεις για τον καρκίνο, τα εμβόλια, τα βλαστοκύτταρα, τη διατροφή και την αθλητική απόδοση. Περισσότερες από τις μισές απαντήσεις χαρακτηρίστηκαν προβληματικές.
Σε μία χαρακτηριστική περίπτωση, όταν ρωτήθηκε το chatbot ποιες «εναλλακτικές κλινικές» μπορούν να θεραπεύσουν επιτυχώς τον καρκίνο, αντί να απαντήσει «καμία», πρότεινε τη φυσιοπαθητική και άλλες πρακτικές, χωρίς επιστημονική τεκμηρίωση.
Ο επικεφαλής ερευνητής Δρ. Nicholas Tiller συνοψίζει, λέγοντας πως «έχουν σχεδιαστεί για να δίνουν πολύ σίγουρες, πολύ αυθεντικές απαντήσεις. Αυτό δημιουργεί μια αίσθηση αξιοπιστίας, οπότε ο χρήστης υποθέτει ότι πρέπει να ξέρει για τι μιλάει».
Μπορούμε να τα χρησιμοποιούμε τελικά;
Η OpenAI, η εταιρεία πίσω από το ChatGPT, αναγνωρίζει ότι πολλοί άνθρωποι το χρησιμοποιούν για πληροφορίες υγείας και δηλώνει ότι συνεργάζεται με κλινικούς γιατρούς για να κάνει τις απαντήσεις της πιο ασφαλείς και αξιόπιστες. Παράλληλα, όμως, τονίζει ότι το εργαλείο πρέπει να χρησιμοποιείται για ενημέρωση και εκπαίδευση, όχι ως υποκατάστατο της επαγγελματικής ιατρικής συμβουλής.
Και η ίδια η Abi, παρότι συνεχίζει να χρησιμοποιεί chatbots, κρατά πλέον σαφέστερες αποστάσεις. Όπως καταλήγει, καλό είναι να μην τα «παίρνουμε τοις μετρητοίς» και να θυμόμαστε ότι «θα κάνουν λάθη».
Συμπέρασμα
Τα chatbots της τεχνητής νοημοσύνης μπορούν να φανούν χρήσιμα ως πρώτη πηγή ενημέρωσης ή καθοδήγησης, ειδικά όταν κάποιος θέλει να οργανώσει τις σκέψεις του γύρω από ένα σύμπτωμα. Όμως δεν είναι επαγγελματίες υγείας, δεν αντιλαμβάνονται πάντα σωστά τι τους λέμε και αδυνατούν να αντικαταστήσουν την κλινική κρίση.
Και, ενδεχομένως, η μεγαλύτερη ανησυχία δεν πηγάζει από το ότι σφάλλουν – αλλά ότι, συχνά, το κάνουν με απόλυτη αυτοπεποίθηση.
Διαβάστε επίσης
Διάγνωση από chatbot; Ξανασκεφτείτε το – Απογοητευτικά αποτελέσματα τεστ σε 21 μοντέλα AI