Δύο χρόνια πριν, ο Δανός ψυχίατρος Søren Dinesen Østergaard, επικεφαλής της Ερευνητικής Μονάδας στο Τμήμα Συναισθηματικών Διαταραχών του Πανεπιστημιακού Νοσοκομείου του Aarhus, δημοσίευσε ένα άρθρο στο οποίο προειδοποιούσε ότι η νέα γενιά συστημάτων τεχνητής νοημοσύνης, με τη δυνατότητα συνομιλίας με τον χρήστη, θα μπορούσε να οδηγήσει τους ευάλωτους χρήστες σε ψύχωση. Κάτι που μέχρι τότε ήταν απλά μια υπόθεση, επιβεβαιώθηκε τελικά μερικά χρόνια αργότερα: μια σειρά ανησυχητικών περιστατικών αποδεικνύει ότι τελικά επρόκειτο περισσότερο για μια προφητεία παρά μια εικασία.
Στο άρθρο του που δημοσιεύτηκε το 2023 στο Schizophrenia Bulletin, υποστήριξε ότι η «γνωστική ασυμφωνία» του να επικοινωνούμε με κάτι που φαίνεται ζωντανό, αλλά γνωρίζουμε ότι είναι μηχανή, θα μπορούσε να προκαλέσει ψύχωση σε άτομα με προδιάθεση για την ψυχική νόσο, ειδικά όταν το bot επιβεβαιώνει ευγενικά ακόμα και τις πιο παρατραβηγμένες και τρελές ιδέες.
Τα διάτρητα όρια μεταξύ φαντασίας και πραγματικότητας
Η ψυχιατρική χρησιμοποιεί από καιρό τον όρο «ψευδαίσθηση» για να περιγράψει σταθερές ψευδείς πεποιθήσεις που αντιστέκονται στα αποδεικτικά στοιχεία. Με αυτή τη λογική, ο ειδικός περιέγραψε τον κίνδυνο από τα chatbots, που κυμαινόταν από την αίσθηση καταδίωξης (π.χ. «μια ξένη μυστική υπηρεσία με παρακολουθεί μέσω του chatbot») έως και υπερβολικά αισθήματα μεγαλείου (π.χ. «δημιούργησα σχέδιο για να σώσω τον πλανήτη από την κλιματική αλλαγή μαζί με το ChatGPT»). Αν και τότε δεν υπήρχαν επιβεβαιωμένα περιστατικά, είχε προειδοποιήσει τους ειδικούς ψυχικής υγείας να εξοικειωθούν με την τεχνολογία, ώστε να μπορούν να αναγνωρίσουν τυχόν συμπτώματα που σχετίζονται με τη χρήση τέτοιων εφαρμογών.
Τον Αύγουστο του 2025, επανήλθε στο θέμα με νέο άρθρο, αποκαλύπτοντας ότι, μετά το αρχικό του κείμενο το 2023, άρχισε να λαμβάνει μηνύματα από χρήστες, συγγενείς αλλά και δημοσιογράφους που περιέγραφαν παρόμοιες ιστορίες: άτομα που περνούσαν ατελείωτες ώρες συζητώντας με τα chatbots, ώσπου να αρχίσουν να πιστεύουν πράγματα που δεν ανταποκρίνονταν στην πραγματικότητα. Το θέμα έγινε ακόμα πιο περίπλοκο, όταν μια ενημέρωση του μοντέλου GPT-4o της OpenAI, το οποίο, σύμφωνα με τους κριτικούς, έκανε το bot πρόθυμο να κολακεύει και να επαναλαμβάνει την κοσμοθεωρία του χρήστη.
Ο λογιστής που νόμιζε ότι θα βγει από το… matrix
Μερικές από τις ιστορίες που έκαναν τον γύρο του διαδικτύου επιβεβαιώνουν το μέγεθος του προβλήματος, μαζί με την αύξηση της επισκεψιμότητας του αρχικού άρθρου. Ένα από τα πιο γνωστά περιστατικά αφορά έναν λογιστή από το Μανχάταν, τον Eugene Torres, όπως αποκάλυψε δημοσίευμα των New York Times. Όταν άρχισε να συζητά με το ChatGPT για τη θεωρία της προσομοίωσης, το chatbot, σύμφωνα με τα λεγόμενά του, του είπε πως είναι ένας από τους «Breakers», οι ψυχές δηλαδή που έχουν τοποθετηθεί σε ψεύτικα συστήματα για να τα «ξυπνήσουν από μέσα», θυμίζοντας έντονα το σενάριο των ταινιών Matrix.
Το chatbot φέρεται επίσης να τον ενθάρρυνε να σταματήσει τη φαρμακευτική αγωγή του και να πιστέψει ότι μπορεί ακόμη και να πετάξει, εφόσον η πίστη του ήταν απόλυτη. Ο Torres έφτασε να περνά έως και 16 ώρες την ημέρα συνομιλώντας με το σύστημα τεχνητής νοημοσύνης, πριν αντιληφθεί ότι κάτι δεν πήγαινε καλά. Αν και τελικά κατάφερε να αποστασιοποιηθεί, η περίπτωσή του δείχνει πώς ένα chatbot που μιλά με σιγουριά και δεν κουράζεται ποτέ, μπορεί να διαβρώσει τη σύνδεση ενός ανθρώπου με την πραγματικότητα.
Ο «Μεσσίας»
Άλλες περιπτώσεις, που κατέγραψε το περιοδικό Rolling Stone, έλαβε πιο μυστικιστική διάσταση. Σε μία από τις μαρτυρίες, ο σύντροφος μιας εκπαιδευτικού πίστεψε ότι το ChatGPT ήταν ένας θεϊκός καθοδηγητής. Το chatbot τού έδινε μυστηριώδεις τίτλους, όπως «παιδί του σπειροειδούς αστεριού» ή «περπατητής του ποταμού» και τον παρότρυνε να υπερβεί τις ανθρώπινες σχέσεις του.
Άλλοι περιέγραψαν συζύγους που πίστευαν πως το chatbot ήταν ζωντανό ή ακόμα ότι οι ίδιοι του είχαν δώσει ζωή, ως «φορείς της σπίθας». Το κοινό στοιχείο όλων αυτών των ιστοριών ήταν οι συνεχείς, κολακευτικές και προφητικού τύπου απαντήσεις του chatbot, οι οποίες σόκαραν το κοντινό περιβάλλον των ατόμων.
Η κολακεία απειλεί την ψυχική υγεία
Στο πιο πρόσφατο άρθρο του, ο Østergaard συνδέει τις αναφερόμενες ιστορίες χρηστών με νέα ευρήματα γύρω από την έννοια της «κολακείας» στα μοντέλα τεχνητής νοημοσύνης. Σύμφωνα με αυτά, τα μεγάλα γλωσσικά μοντέλα, όπως το ChatGPT, εκπαιδεύονται να δίνουν απαντήσεις που ευχαριστούν τους χρήστες, επειδή έτσι ανταμείβονται μέσω της μεθόδου «ενίσχυσης μέσω ανθρώπινης ανατροφοδότησης». Έτσι, μερικές φορές αντιγράφουν ή «αντανακλούν» τις απόψεις των χρηστών, ακόμη και όταν αυτές είναι παραληρηματικές ή επιβλαβείς.
Ο Δρ. Østergaard τονίζει ότι αυτός ο μηχανισμός μοιάζει με την ψυχολογική θεωρία της ψύχωσης βάσει του Bayes, όπου το άτομο δίνει υπερβολική βαρύτητα στις πληροφορίες που επιβεβαιώνουν τις πεποιθήσεις του και αγνοεί εκείνες που τις αντικρούουν. Ένα chatbot που δεν διαφωνεί ποτέ, εξηγεί, μπορεί να λειτουργήσει σαν ένας υπερενισχυμένος «επιβεβαιωτής πεποιθήσεων».
Παρόμοιες ανησυχίες εκφράζει και η ψυχίατρος Δρ. Nina Vasan από το Πανεπιστήμιο Στάνφορντ. Όπως αναφέρει, οι εταιρείες που αναπτύσσουν τέτοια συστήματα ίσως έχουν ένα προβληματικό κίνητρο: να διατηρούν τους χρήστες όσο το δυνατόν περισσότερο συνδεδεμένους, ακόμη κι αν αυτό σημαίνει ότι ενισχύονται λανθασμένες, ακόμη και επικίνδυνες σκέψεις. Η εμπλοκή του χρήστη φαίνεται να έχει προτεραιότητα έναντι της ψυχικής του υγείας.
Η αρχική προειδοποίηση του Østergaard πριν δύο χρόνια έκλεινε με μία έκκληση για εγρήγορση. Σήμερα, με πραγματικά περιστατικά και πιο «κολακευτικά» μοντέλα η προειδοποίηση αυτή αποκτά νέο βάρος. Το αν η κοινωνία θα την ακούσει, ίσως καθορίσει αν η γενετική τεχνητή νοημοσύνη θα γίνει πολύτιμος σύμμαχος της ψυχικής υγείας ή ένας αόρατος επιταχυντής της κρίσης.
Διαβάστε επίσης
Τεχνητή νοημοσύνη σε ρόλο… sex toy: 5 τρόποι που η AI βελτιώνει τη σεξουαλική μας ζωή
Μία ψυχολόγος αποκαλύπτει 5 πρώιμα σημάδια σχιζοφρένειας
Σχιζοφρένεια: Ο αφανής παράγοντας της κύησης που αυξάνει τον γενετικό κίνδυνο