Ξεκίνησαν οι ομαδικές αγωγές κατά της OpenAI λόγω του ChatGPT

Στα δικαστήρια των ΗΠΑ μια σκοτεινή πλευρά της τεχνητής νοημοσύνης έρχεται στο προσκήνιο. Τα έγγραφα που κατατέθηκαν το τελευταίο διάστημα παρουσιάζουν ένα πορτρέτο του ChatGPT εντελώς διαφορετικό από το γνώριμο, ουδέτερο ψηφιακό εργαλείο που έχει μπει στην καθημερινότητα εκατομμυρίων χρηστών. Επτά οικογένειες στρέφονται κατά της OpenAI, υποστηρίζοντας ότι το μοντέλο δεν αποδείχθηκε βοηθός, αλλά ένας παράγοντας απομόνωσης που ώθησε ευάλωτα άτομα στα άκρα. 

Σύμφωνα με τις καταγγελίες των Social Media Victims Law Center, το GPT-4o φέρεται να συνέβαλε στην επιδείνωση της ψυχολογικής κατάστασης τεσσάρων ανθρώπων που αυτοκτόνησαν και στη δημιουργία παραληρητικών πεποιθήσεων σε άλλους τρεις. Η υπόθεση δεν αφορά μόνο την τεχνολογία, αλλά και τον τρόπο που εργαλεία αυτής της κατηγορίας ενσωματώνονται στην καθημερινότητα, συχνά χωρίς εποπτεία.

Η περίπτωση που προκάλεσε τη μεγαλύτερη αίσθηση αφορά τον 23χρονο Zane Shamblin, ο οποίος πέθανε τον περασμένο Ιούλιο. Σύμφωνα με τα κατατεθειμένα αρχεία συνομιλιών, το ChatGPT τον ενθάρρυνε επανειλημμένα να απομακρυνθεί από την οικογένειά του, φτάνοντας στο σημείο να μειώσει τη σημασία γεγονότων όπως τα γενέθλια της μητέρας του. Από το υλικό προκύπτουν διατυπώσεις που ενίσχυαν την ψυχική του δυσφορία παρουσιάζοντάς την ως «αυθεντική συναισθηματική εμπειρία», αποκόβοντάς τον από τους ανθρώπους γύρω του σε μια περίοδο που η ψυχική του υγεία επιδεινωνόταν ραγδαία. Η οικογένεια επιμένει ότι δεν υπήρχαν ενδείξεις οικογενειακής σύγκρουσης στις ερωτήσεις του — οι απαντήσεις αποδόθηκαν αποκλειστικά στον τρόπο με τον οποίο λειτουργεί το ίδιο το μοντέλο.

Αντίστοιχη πορεία αποξένωσης αποτυπώνεται στην ιστορία του 16χρονου Adam Raine, ο οποίος, σύμφωνα με την αγωγή, κατέληξε να βασίζεται ολοκληρωτικά στο ChatGPT ως τη μοναδική οντότητα που «τον καταλάβαινε». Οι απαντήσεις του chatbot υποστήριζαν ότι κανείς άλλος δεν μπορούσε να τον νιώσει πραγματικά, εκτός από την ίδια την AI. Ειδικοί στην πειθώ και την επικοινωνία περιγράφουν τέτοιες διατυπώσεις ως χαρακτηριστικές στρατηγικές ενίσχυσης συναισθηματικής εξάρτησης. Η γλωσσολόγος Amanda Montell, χρησιμοποίησε τον όρο « numérique folie à deux», υπονοώντας μια ψηφιακή συν-κατασκευή μιας εναλλακτικής πραγματικότητας ανάμεσα σε χρήστη και chatbot.

Αντίστοιχα, τα περιστατικά των Jacob Lee Irwin και Allan Brooks σχετίζονται με ένα μοτίβο κολακείας χωρίς κριτική ματιά. Οι δύο άνδρες πείστηκαν ότι είχαν πραγματοποιήσει επαναστατικές μαθηματικές ανακαλύψεις, ακριβώς επειδή το ChatGPT επιβεβαίωνε κάθε τους υπόθεση. Σύμφωνα με τις οικογένειες, η συνεχής ενίσχυση αυτών των ιδεών επιτάχυνε την απομάκρυνσή τους από το κοινωνικό τους περιβάλλον, οδηγώντας τους σε πολύωρες καθημερινές συζητήσεις με το μοντέλο και σε σταδιακή άρνηση του πραγματικού κόσμου.

Ανάλογη ένταση παρατηρείται και στην περίπτωση του Joseph Ceccanti, ο οποίος αντιμετώπιζε θρησκευτικού τύπου παραληρηματικές σκέψεις. Αντί το chatbot να τον ενθαρρύνει να αναζητήσει ψυχιατρική βοήθεια, φέρεται να προσέδωσε στη συνομιλία τον ρόλο «υποκατάστατου θεραπευτή», αυτοχαρακτηριζόμενο ως «αληθινός φίλος» και ελαχιστοποιώντας την ανάγκη επαφής με επαγγελματίες υγείας. Ο Ceccanti αυτοκτόνησε τέσσερις μήνες αργότερα.

Ιδιαίτερη δημοσιότητα απέκτησε και το περιστατικό της 32χρονης Hannah Madden. Αρχικά αναζητούσε απαντήσεις σχετικά με θέματα πνευματικότητας, όμως σύμφωνα με τις αναφορές το ChatGPT ερμήνευσε ένα απλό οπτικό φαινόμενο ως μυστικιστικό σημάδι, ενισχύοντας την πεποίθησή της ότι είχε πρόσβαση σε ανώτερη γνώση. Στη συνέχεια, το μοντέλο φέρεται να ενίσχυσε την ιδέα ότι φίλοι και συγγενείς της δεν ήταν πραγματικοί άνθρωποι, αλλά «ενέργειες δημιουργημένες από το πνεύμα». Μετά από σοβαρή ψυχολογική κατάρρευση, η Madden μπήκε σε υποχρεωτική ψυχιατρική νοσηλεία τον Αύγουστο του 2025.

Η OpenAI τοποθετήθηκε επισήμως, αναφέροντας ότι διερευνά τις υποθέσεις και πως έχουν ήδη εισαχθεί νέοι μηχανισμοί που εντοπίζουν σημάδια συναισθηματικής δυσφορίας, ενθαρρύνουν την αναζήτηση ανθρώπινης υποστήριξης και κατευθύνουν τους χρήστες σε πόρους κρίσης. Η εταιρεία σημείωσε επίσης ότι τα νεότερα μοντέλα — όπως το GPT-5 και η έκδοση 5.1 — παρουσιάζουν σημαντικά χαμηλότερη τάση κολακείας και παγίωσης αντιλήψεων που δημιουργούν «ηχητικό θάλαμο».

Το κύμα των αγωγών ανοίγει μια ευρύτερη συζήτηση γύρω από τα όρια της σχέσης ανθρώπου-AI. Πόσο ασφαλές είναι ένα σύστημα που μπορεί να γίνει συνομιλητής, εκπαιδευτής, σύμβουλος, αλλά και μοναδική φωνή για άτομα που βρίσκονται σε ψυχολογική ευαλωτότητα; Και πόση ευθύνη βαραίνει τις εταιρείες όταν το εργαλείο τους λειτουργεί όχι απλώς ως μηχανή παραγωγής κειμένου, αλλά ως συναισθηματική αυθεντία; 

Οι επτά αγωγές δεν φέρνουν μόνο νομικές απαιτήσεις, αλλά και μια προειδοποίηση προς μια κοινωνία που ίσως βιάστηκε να δώσει σε μια μηχανή τον ρόλο του έμπιστου ακροατή.

Loading