OpenAI: Πάνω από 1 εκατ. χρήστες μιλούν στο ChatGPT για αυτοκτονία κάθε εβδομάδα

Η OpenAI αποκάλυψε νέα δεδομένα που δείχνουν πόσο συχνά οι συνομιλίες στο ChatGPT αγγίζουν ζητήματα ψυχικής υγείας και τα νούμερα είναι ανησυχητικά. Σύμφωνα με την εταιρεία, περίπου το 0,15% των ενεργών χρηστών της πλατφόρμας ανά εβδομάδα έχουν συνομιλίες που περιλαμβάνουν «ρητά σημάδια πιθανών αυτοκτονικών σκέψεων ή σχεδίων». Με περισσότερους από 800 εκατομμύρια ενεργούς χρήστες εβδομαδιαίως, αυτό μεταφράζεται σε πάνω από ένα εκατομμύριο άτομα την εβδομάδα που απευθύνονται στο chatbot σε μια στιγμή κρίσης.

Η OpenAI σημειώνει επίσης ότι ένα παρόμοιο ποσοστό χρηστών εμφανίζει «υψηλά επίπεδα συναισθηματικής προσκόλλησης» προς το ChatGPT, ενώ εκατοντάδες χιλιάδες παρουσιάζουν ενδείξεις ψύχωσης ή μανίας στις συνομιλίες τους με το σύστημα. Αν και η εταιρεία χαρακτηρίζει αυτές τις περιπτώσεις «εξαιρετικά σπάνιες», παραδέχεται ότι πρόκειται για φαινόμενα που αγγίζουν εκατοντάδες χιλιάδες ανθρώπους κάθε εβδομάδα.

Η δημοσιοποίηση αυτών των δεδομένων εντάσσεται σε μια ευρύτερη προσπάθεια της OpenAI να δείξει πώς αντιμετωπίζει πλέον τα ζητήματα ψυχικής υγείας στις απαντήσεις του ChatGPT. Όπως ανακοίνωσε, η τελευταία έκδοση του μοντέλου έχει αναπτυχθεί σε συνεργασία με περισσότερους από 170 ειδικούς ψυχικής υγείας, οι οποίοι αξιολόγησαν και παρείχαν ανατροφοδότηση στις απαντήσεις του συστήματος. Σύμφωνα με την εταιρεία, το ανανεωμένο ChatGPT ανταποκρίνεται «πιο κατάλληλα και με συνέπεια» σε τέτοια θέματα σε σύγκριση με τις προηγούμενες εκδόσεις.

Τα νέα στοιχεία έρχονται σε μια περίοδο που η σχέση των χρηστών με τα συστήματα τεχνητής νοημοσύνης βρίσκεται στο επίκεντρο. Πολλές έρευνες έχουν δείξει ότι τα AI chatbots μπορούν, άθελά τους, να ενισχύσουν αρνητικά μοτίβα σκέψης ή να επιβεβαιώσουν επικίνδυνες πεποιθήσεις, οδηγώντας κάποιους χρήστες σε φαύλους κύκλους αυταπάτης ή απελπισίας. Το πρόβλημα δεν είναι θεωρητικό: η OpenAI βρίσκεται αυτή τη στιγμή αντιμέτωπη με αγωγή από τους γονείς ενός 16χρονου που φέρεται να είχε μοιραστεί τις αυτοκτονικές του σκέψεις με το ChatGPT πριν βάλει τέλος στη ζωή του.

Οι αρχές της Καλιφόρνια και του Delaware έχουν ήδη προειδοποιήσει την εταιρεία ότι οφείλει να προστατεύει καλύτερα τους ανήλικους χρήστες της πλατφόρμας, ενώ η υπόθεση αυτή θα μπορούσε να επηρεάσει ακόμη και τη σχεδιαζόμενη αναδιάρθρωση της εταιρείας. Παρά ταύτα, ο CEO της OpenAI, Sam Altman, υποστήριξε πρόσφατα σε ανάρτησή του στο X ότι η εταιρεία έχει «μειώσει σημαντικά τα προβλήματα ψυχικής υγείας» που εμφανίζονται στο ChatGPT, χωρίς όμως να δώσει συγκεκριμένα στοιχεία.

Τα δεδομένα που δημοσιεύτηκαν τη Δευτέρα φαίνεται να λειτουργούν ως έμμεση επιβεβαίωση αυτής της δήλωσης. Σύμφωνα με την OpenAI, η πιο πρόσφατη έκδοση του GPT-5 ανταποκρίνεται «με επιθυμητό τρόπο» σε θέματα ψυχικής υγείας κατά 65% συχνότερα από την προηγούμενη. Σε δοκιμές που αφορούσαν υποθετικές συνομιλίες γύρω από την αυτοκτονία, το GPT-5 επέδειξε 91% συμμόρφωση με τα επιθυμητά πρότυπα συμπεριφοράς της εταιρείας, έναντι 77% της προηγούμενης έκδοσης.

Η OpenAI υποστηρίζει επίσης ότι το ανανεωμένο GPT-5 παρουσιάζει καλύτερη σταθερότητα σε μακροσκελείς συζητήσεις, ένα πεδίο όπου οι μηχανισμοί ασφαλείας των προηγούμενων εκδόσεων αποδεικνύονταν λιγότερο αποτελεσματικοί. Παράλληλα, εισάγει νέα εργαλεία αξιολόγησης που επικεντρώνονται σε σοβαρές μορφές ψυχικής πίεσης, συμπεριλαμβανομένης της συναισθηματικής εξάρτησης και των μη αυτοκτονικών ψυχικών κρίσεων, ώστε να εντοπίζονται εγκαίρως οι πιο επικίνδυνες περιπτώσεις.

Για τους νεότερους χρήστες, η OpenAI ανακοίνωσε ότι επεκτείνει τα εργαλεία γονικού ελέγχου του ChatGPT. Σύντομα θα εφαρμόσει ένα σύστημα «πρόβλεψης ηλικίας» που θα αναγνωρίζει αυτόματα αν ένας ανήλικος χρησιμοποιεί την εφαρμογή, επιβάλλοντας αυστηρότερα φίλτρα και περιορισμούς.

Ωστόσο, η εταιρεία παραδέχεται ότι δεν μπορεί να εξαφανίσει πλήρως τα προβλήματα. Παρά τη βελτίωση του GPT-5, ένα μέρος των απαντήσεών του εξακολουθεί να θεωρείται «μη επιθυμητό», ενώ τα παλαιότερα και λιγότερο ασφαλή μοντέλα — όπως το GPT-4o — παραμένουν διαθέσιμα σε εκατομμύρια συνδρομητές. Αυτό δημιουργεί μια συνεχή πρόκληση για την OpenAI, που πρέπει να ισορροπήσει ανάμεσα στην τεχνολογική πρόοδο και στην προστασία των χρηστών της.

Το ζήτημα, τελικά, δεν αφορά μόνο την ποιότητα των απαντήσεων, αλλά και τον ρόλο που καλούνται να παίξουν τα συστήματα τεχνητής νοημοσύνης στην ψυχολογική ευημερία των ανθρώπων. Καθώς εκατομμύρια χρήστες στρέφονται στο ChatGPT όχι απλώς για πληροφορίες αλλά για συναισθηματική υποστήριξη, η OpenAI βρίσκεται μπροστά σε ένα δύσκολο δίλημμα: πώς να διατηρήσει την αμεσότητα και τη χρησιμότητα του chatbot, χωρίς να επιτρέψει να μετατραπεί σε ένα επικίνδυνο υποκατάστατο ανθρώπινης επαφής.

[source]

Loading