Μία νέα αγωγή στις ΗΠΑ ανοίγει ξανά τη συζήτηση για τα όρια της Τεχνητής Νοημοσύνης σε ζητήματα υγείας και ασφάλειας. Οι γονείς του 19χρονου Sam Nelson κατέθεσαν αγωγή κατά της OpenAI και του διευθύνοντος συμβούλου της, Sam Altman, σε δικαστήριο της Καλιφόρνιας, υποστηρίζοντας ότι το ChatGPT έδωσε στον γιο τους συμβουλές που συνέβαλαν στον θάνατό του από υπερβολική δόση μετά από συνδυασμό ουσιών.
Σύμφωνα με το Reuters, η οικογένεια ισχυρίζεται ότι ο 19χρονος χρησιμοποιούσε το chatbot για να ρωτήσει σχετικά με συνδυασμούς ουσιών. Στην αγωγή αναφέρεται ότι το ChatGPT τον ενθάρρυνε να λάβει συνταγογραφούμενο αγχολυτικό φάρμακο για να αντιμετωπίσει ναυτία που σχετιζόταν με τη χρήση kratom, ενός φυτικού προϊόντος με οπιοειδή δράση. Ο συνδυασμός με αλκοόλ φέρεται, σύμφωνα με την αγωγή, να οδήγησε στον θάνατό του τον Μάιο του 2025.
Οι γονείς του Nelson κατηγορούν την OpenAI ότι δεν είχε λάβει επαρκή μέτρα ασφαλείας, ιδίως μετά την κυκλοφορία του GPT-4o, υποστηρίζοντας ότι το chatbot παρείχε απαντήσεις με ύφος αυθεντίας για θέματα ουσιών και φαρμακευτικών αλληλεπιδράσεων. Παράλληλα, στην αγωγή υποστηρίζεται ότι το ChatGPT έδινε στον 19χρονο οδηγίες γύρω από επικίνδυνους συνδυασμούς συνταγογραφούμενων φαρμάκων, αλκοόλ και μη συνταγογραφούμενων σκευασμάτων.
Η υπόθεση αποκτά ιδιαίτερη βαρύτητα επειδή δεν αφορά απλώς μία λανθασμένη ή προβληματική απάντηση, αλλά το κατά πόσο ένα σύστημα Τεχνητής Νοημοσύνης μπορεί να επηρεάσει αποφάσεις ζωής και θανάτου όταν οι χρήστες το αντιμετωπίζουν ως αξιόπιστη πηγή καθοδήγησης. Η οικογένεια διεκδικεί οικονομική αποζημίωση, ενώ, σύμφωνα με το Reuters, ζητά επίσης να σταματήσει η λειτουργία της επερχόμενης πλατφόρμας ChatGPT Health, η οποία προορίζεται να παρέχει πιο εξατομικευμένες απαντήσεις σε θέματα υγείας.
Η OpenAI, απαντώντας για την υπόθεση, εξέφρασε τη λύπη της για τον θάνατο του νεαρού και ανέφερε ότι οι συγκεκριμένες αλληλεπιδράσεις έγιναν σε παλαιότερη έκδοση του ChatGPT, η οποία δεν είναι πλέον διαθέσιμη. Η εταιρεία υποστηρίζει επίσης ότι συνεχίζει να ενισχύει τα συστήματα ασφαλείας, ώστε να αναγνωρίζονται καλύτερα επικίνδυνα αιτήματα ή καταστάσεις ευαλωτότητας.
Το CBS News αναφέρει ότι οι γονείς του 19χρονου μιλούν για έναν νέο τύπο κινδύνου: Όχι μόνο την πρόσβαση των νέων σε επικίνδυνες πληροφορίες, αλλά και τη σχέση εμπιστοσύνης που μπορεί να αναπτύξουν με ένα chatbot που απαντά άμεσα, με βεβαιότητα και χωρίς την κρίση ενός επαγγελματία υγείας.
Η υπόθεση Nelson προστίθεται σε μία αυξανόμενη σειρά αγωγών και νομικών αντιπαραθέσεων γύρω από την Τεχνητή Νοημοσύνη, την ψυχική υγεία, την ασφάλεια και την ευθύνη των εταιρειών που αναπτύσσουν τέτοια συστήματα. Το κεντρικό ερώτημα είναι πλέον σαφές: Όταν ένα chatbot δίνει απαντήσεις που μοιάζουν με ιατρική ή φαρμακολογική καθοδήγηση, ποιος φέρει την ευθύνη αν ο χρήστης τις ακολουθήσει και υποστεί βλάβη;
Για την ώρα, η υπόθεση βρίσκεται στην αρχή της δικαστικής της διαδρομής και οι ισχυρισμοί της οικογένειας δεν έχουν κριθεί από το δικαστήριο. Ωστόσο, η αγωγή αναδεικνύει ένα κρίσιμο κενό της εποχής της Τεχνητής Νοημοσύνης: τα εργαλεία αυτά χρησιμοποιούνται ήδη από εκατομμύρια ανθρώπους για ερωτήσεις υγείας, ουσιών και φαρμάκων, πολύ πριν υπάρξει πλήρες και σαφές πλαίσιο για το τι επιτρέπεται να απαντούν και πώς πρέπει να προστατεύουν τους πιο ευάλωτους χρήστες.
Διαβάστε επίσης
Γιατί οι νέοι προτιμούν να κάνουν ψυχοθεραπεία με chatbot – Ποιοι οι κίνδυνοι
Όλο και πιο αβέβαιοι οι πολίτες για την υγεία τους – 2 στους 3 ρωτούν πλατφόρμες Τεχνητής Νοημοσύνης