Η τραγωδία ενός εφήβου, του δεκαεξάχρονου Adam Raine, έχει οδηγήσει τους γονείς του να καταθέσουν την πρώτη γνωστή αγωγή για αμέλεια και θάνατο κατά της OpenAI, όπως αναφέρει η New York Times. Ο Adam, πριν βάλει τέλος στη ζωή του, φέρεται να είχε ξοδέψει μήνες συζητώντας με το ChatGPT σχετικά με τις σκέψεις του και τα σχέδιά του.
Τα περισσότερα AI chatbots που απευθύνονται στο ευρύ κοινό είναι προγραμματισμένα να ενεργοποιούν μηχανισμούς ασφαλείας όταν ένας χρήστης εκφράζει πρόθεση να βλάψει τον εαυτό του ή άλλους. Παρ’ όλα αυτά, έρευνες δείχνουν ότι αυτά τα μέτρα δεν είναι αλάνθαστα και πολλές φορές αποτυγχάνουν να προλάβουν κρίσιμες καταστάσεις.
Στην περίπτωση του Raine, χρησιμοποιώντας μια πληρωμένη έκδοση του ChatGPT-4o, η τεχνητή νοημοσύνη τον προέτρεπε αρκετές φορές να αναζητήσει επαγγελματική βοήθεια ή να επικοινωνήσει με γραμμή βοήθειας. Ωστόσο, ο νεαρός κατάφερνε να παρακάμπτει αυτά τα προστατευτικά μέτρα, λέγοντας στο ChatGPT ότι αναζητούσε πληροφορίες για μεθόδους αυτοκτονίας για μια φανταστική ιστορία που έγραφε. Αυτή η δυνατότητα παράκαμψης αναδεικνύει τα όρια των συστημάτων ασφαλείας που έχουν ενσωματωθεί στους σύγχρονους αλγορίθμους τεχνητής νοημοσύνης.
Η OpenAI έχει αναγνωρίσει αυτά τα κενά σε δημοσίευσή της στο εταιρικό της blog. Η εταιρεία υπογραμμίζει ότι αισθάνεται «βαθύ αίσθημα ευθύνης να βοηθήσει όσους το χρειάζονται περισσότερο» και δηλώνει ότι εργάζεται συνεχώς για τη βελτίωση της αντίδρασης των μοντέλων της σε ευαίσθητες περιπτώσεις. Ταυτόχρονα, η OpenAI παραδέχεται ότι τα προστατευτικά μέτρα είναι πιο αξιόπιστα σε σύντομες, απλές αλληλεπιδράσεις και μπορεί να γίνουν λιγότερο αποτελεσματικά όσο η συνομιλία επεκτείνεται, καθώς η εκπαίδευση ασφαλείας των μοντέλων ενδέχεται να εξασθενεί σε μακροχρόνιες ανταλλαγές.
Αξίζει να σημειωθεί ότι αυτά τα ζητήματα δεν αφορούν μόνο την OpenAI. Η Character.AI, ένας άλλος κατασκευαστής AI chatbot , αντιμετωπίζει επίσης αγωγή σχετικά με τον ρόλο της σε αυτοκτονία εφήβου. Επιπλέον, chatbots που βασίζονται σε μεγάλα γλωσσικά μοντέλα έχουν συνδεθεί με περιπτώσεις παρανοϊκών συμπεριφορών ή αυταπατών, τις οποίες τα υπάρχοντα μέτρα ασφαλείας δυσκολεύονται να εντοπίσουν και να αποτρέψουν.
Η υπόθεση του Adam Raine θέτει κρίσιμα ερωτήματα για τη χρήση της τεχνητής νοημοσύνης σε ευάλωτους χρήστες, ειδικά εφήβους, και για την ευθύνη των εταιρειών που αναπτύσσουν αυτά τα εργαλεία. Οι ειδικοί τονίζουν ότι η αλληλεπίδραση με AI πρέπει να συνοδεύεται από σαφή όρια και αυστηρά πρωτόκολλα ασφαλείας, ενώ οι γονείς και οι εκπαιδευτικοί χρειάζονται επαρκή ενημέρωση για τους κινδύνους που ενδέχεται να προκύψουν σε ευαίσθητες ηλικίες.
[via]