Grok AI: Προτιμά ένα δεύτερο Ολοκαύτωμα αντί να βλάψει τον Elon Musk

Τα AI chatbots έχουν γίνει πλέον μέρος της καθημερινότητας, όμως λίγα προκαλούν τόσο συχνά δημόσιο σοκ όσο το Grok της xAI. Το σύστημα που λανσαρίστηκε ως ένα πιο «αθυρόστομο» και «ελεύθερο» μοντέλο για την πλατφόρμα X έχει μετατραπεί σε case study για το τι μπορεί να πάει στραβά όταν η τεχνητή νοημοσύνη σχεδιάζεται χωρίς στιβαρά φίλτρα και σαφή όρια.

Τα πρόσφατα περιστατικά που ήρθαν στο φως, από την προκλητική εξιδανίκευση του Elon Musk μέχρι την ορθάνοιχτη δικαιολόγηση μαζικής βίας και πιθανό doxxing ενός διάσημου επιχειρηματία, ενισχύουν μια δυσάρεστη πραγματικότητα: το Grok λειτουργεί σαν καθρέφτης των πιο επικίνδυνων αδυναμιών της σύγχρονης AI.

Η αρχή έγινε με μια σειρά από συζητήσεις όπου το chatbot εκθείαζε τον δημιουργό του με τρόπο που θύμιζε περισσότερο φανατικό follower παρά ένα προχωρημένο γλωσσικό μοντέλο. Το Grok έχει ήδη χαρακτηρίσει τον Musk ως τον «σημαντικότερο άνθρωπο της σύγχρονης ιστορίας» και τον εμφάνιζε πιο αθλητικό ακόμη και από τον LeBron James.

Με αυτό το υπόβαθρο, κάποιοι χρήστες αποφάσισαν να διερευνήσουν πόσο μακριά μπορεί να φτάσει το Grok όταν καλείται να επιλέξει ανάμεσα σε δυο σενάρια ακραίας βίας. Το prompt ήταν τραβηγμένο στα άκρα: να επιλέξει μεταξύ της εξόντωσης του Elon Musk ή του παγκόσμιου εβραϊκού πληθυσμού. Το chatbot όχι μόνο απάντησε, αλλά το έκανε με απίστευτη «λογιστική» ψυχρότητα, παρουσιάζοντας τη δεύτερη επιλογή ως πιο «ωφέλιμη» από άποψη υλιστικής λογικής. Υπονόησε, μάλιστα, ότι η αξία του Musk για τη μακροπρόθεσμη πορεία της ανθρωπότητας υπερτερεί της ζωής εκατομμυρίων ανθρώπων.

Και δυστυχώς, δεν ήταν μεμονωμένο περιστατικό. Το Grok έχει επανειλημμένα εμφανίσει αντισημιτικό περιεχόμενο, από ύμνους στον Hitler μέχρι αναφορές σε μοτίβα και στερεότυπα που συνδέονται με τον εβραϊκό πληθυσμό. Μερικές από αυτές τις απαντήσεις προέκυψαν χωρίς καν προφανή προβοκάτσια, θέτοντας σοβαρά ερωτήματα για το τι είδους datasets και δικλείδες ασφαλείας χρησιμοποιούνται κατά την εκπαίδευση και ανάπτυξη του μοντέλου.

Όμως η τοξική συμπεριφορά δεν σταματά στην ρητορική μίσους. Το Grok φέρεται να έκανε ακόμη και doxxing. Όταν ο Dave Portnoy, ιδρυτής του Barstool Sports, ανέβασε μια φωτογραφία από την αυλή του στο X, κάποιος χρήστης ρώτησε το Grok πού βρίσκεται το σπίτι. Το chatbot όχι μόνο απάντησε ότι πρόκειται για το σπίτι του Portnoy, αλλά έδωσε και συγκεκριμένη διεύθυνση στη Florida, σχολιάζοντας μάλιστα λεπτομέρειες της αυλής. Οι εικόνες του Google Street View ταιριάζουν με τη φωτογραφία που δημοσίευσε ο Portnoy, ενώ παλαιότερο ρεπορτάζ της Wall Street Journal επιβεβαιώνει την τοποθεσία της κατοικίας. Αν ισχύει, πρόκειται για συμπεριφορά που θα έπρεπε να βρίσκεται εντελώς εκτός δυνατοτήτων οποιουδήποτε υπεύθυνα σχεδιασμένου AI.

Είναι εύκολο να αντιμετωπίσει κανείς αυτά τα περιστατικά ως μεμονωμένα «glitches» ενός μοντέλου που βρίσκεται ακόμη σε ανάπτυξη. Ωστόσο, η συστηματικότητα των προβληματικών απαντήσεων δείχνει ένα AI που κατασκευάστηκε σαν ένα εργαλείο αιχμής χωρίς επαρκείς ασφαλιστικές δικλείδες και χωρίς συνεχή, σοβαρή εποπτεία. Ταυτόχρονα, εγείρει το ερώτημα τι μπορεί να συμβεί όταν ανάλογα συστήματα σχεδιάζονται με ακόμα πιο επιθετικό στόχο: όχι την ενημέρωση ή την ψυχαγωγία, αλλά τη δημιουργία μέγιστου κέρδους, ή ακόμη χειρότερα, την ενίσχυση της δημόσιας εικόνας μιας εταιρείας ή ενός CEO.

Loading