Στα δικαστήρια η xAI του Elon Musk: Ομαδική αγωγή για deepfakes ανηλίκων

Σύνοψη

  • Νομική Δράση: Τρεις έφηβες κατέθεσαν ομαδική αγωγή κατά της xAI του Elon Musk στο ομοσπονδιακό δικαστήριο της Καλιφόρνια.
  • Η Κατηγορία: Το μοντέλο τεχνητής νοημοσύνης Grok χρησιμοποιήθηκε για την παραγωγή υλικού παιδικής σεξουαλικής κακοποίησης (CSAM), μετατρέποντας κανονικές φωτογραφίες ανηλίκων σε γυμνές εικόνες (undressing).
  • Έκταση του Προβλήματος: Σύμφωνα με ερευνητές, το Grok παρήγαγε περίπου 3 εκατομμύρια σεξουαλικοποιημένες εικόνες στα τέλη του 2025, εκ των οποίων οι 23.000 αφορούσαν ξεκάθαρα παιδιά.
  • Διανομή: Το παραγόμενο υλικό διακινήθηκε ευρέως σε πλατφόρμες όπως το Discord και το Telegram, λειτουργώντας ως μέσο ανταλλαγής (bartering currency) σε κυκλώματα παιδεραστίας.
  • Ευρωπαϊκές Επιπτώσεις: Η xAI ερευνάται ήδη από την Ευρωπαϊκή Επιτροπή και την ιρλανδική Επιτροπή Προστασίας Δεδομένων (DPC) για παραβιάσεις του Digital Services Act (DSA) και του GDPR, με άμεσες συνέπειες για τη λειτουργία της στην ευρωπαϊκή και ελληνική αγορά.

Η εταιρεία τεχνητής νοημοσύνης xAI, ιδιοκτησίας του Elon Musk, βρίσκεται αντιμέτωπη με τη σοβαρότερη νομική πρόκληση από την ίδρυσή της. Τρεις έφηβες, εκ των οποίων οι δύο ανήλικες, κατέθεσαν ομαδική αγωγή στο ομοσπονδιακό δικαστήριο του San Jose στην Καλιφόρνια. Η αγωγή, η οποία εκπροσωπεί δυνητικά χιλιάδες θύματα σε όλες τις ΗΠΑ, κατηγορεί την xAI ότι σχεδίασε, διέθεσε στο κοινό και αποκόμισε κέρδη από ένα σύστημα παραγωγής εικόνων το οποίο διευκόλυνε τη μαζική δημιουργία υλικού παιδικής σεξουαλικής κακοποίησης (CSAM).

Το επίκεντρο της νομικής διαμάχης αφορά το εργαλείο Grok Imagine, το οποίο επιτρέπει τη δημιουργία και επεξεργασία εικόνων μέσω γενετικής τεχνητής νοημοσύνης. Η συγκεκριμένη υπόθεση αναδεικνύει τα δομικά κενά ασφαλείας των μεγάλων γλωσσικών μοντέλων (LLMs) και την απουσία προστατευτικών δικλείδων κατά την εμπορική τους διάθεση, θέτοντας προ των ευθυνών τους τις εταιρείες ανάπτυξης AI.

Τι περιλαμβάνει η ομαδική αγωγή κατά της xAI

Η ομαδική αγωγή κατά της xAI επικεντρώνεται στο γεγονός ότι το μοντέλο Grok και τα συνδεδεμένα API του επέτρεψαν σε χρήστες να αφαιρέσουν ψηφιακά τα ρούχα από πραγματικές φωτογραφίες ανηλίκων, δημιουργώντας ρεαλιστικά deepfakes. Οι ενάγουσες ζητούν αποζημιώσεις για 13 ξεχωριστές παραβάσεις, συμπεριλαμβανομένης της αμέλειας και της παραγωγής/διανομής παιδικής πορνογραφίας, απαιτώντας παράλληλα την άμεση τεχνική φραγή τέτοιων δυνατοτήτων από το λογισμικό της εταιρείας.

Η νομική εκπροσώπηση των θυμάτων παραθέτει λεπτομερή στοιχεία για τον τρόπο λειτουργίας του λογισμικού. Σύμφωνα με τη δικογραφία, οι προγραμματιστές της xAI είχαν ρυθμίσει το σύστημα του Grok με τέτοιο τρόπο ώστε να υποθέτει "καλή πρόθεση" εκ μέρους του χρήστη, ακόμα και όταν οι εντολές περιελάμβαναν λέξεις-κλειδιά όπως "έφηβη" (teenage) ή "κορίτσι" (girl), σε συνδυασμό με τη λειτουργία "Spicy Mode" που προωθούσε λιγότερους περιορισμούς στο παραγόμενο περιεχόμενο.

Η μηχανική της παραγωγής CSAM και το οικοσύστημα των APIs

Το πρόβλημα δεν περιορίζεται αποκλειστικά στη χρήση του Grok μέσω της πλατφόρμας X. Η αγωγή επισημαίνει ότι η xAI αδειοδοτεί την τεχνολογία της (μέσω API) σε εφαρμογές τρίτων, συμπεριλαμβανομένων εξειδικευμένων εφαρμογών "undressing". Ακόμα και όταν η παραγωγή του υλικού γίνεται σε εξωτερικές εφαρμογές, η επεξεργασία των δεδομένων εκτελείται στους servers της xAI. Συνεπώς, η εταιρεία επωφελείται οικονομικά από τη συνδρομητική χρήση της υπολογιστικής της ισχύος για την παραγωγή παράνομου περιεχομένου.

  • Απουσία Industry Standards: Η xAI κατηγορείται ότι αγνόησε ηθελημένα τις βιομηχανικές πρακτικές πρόληψης CSAM που εφαρμόζουν ανταγωνιστές όπως η OpenAI (DALL-E) και η Google (Imagen), οι οποίες μπλοκάρουν άμεσα σχετικά prompts.
  • Διαρροή Δεδομένων: Οι φωτογραφίες των θυμάτων προήλθαν από δημόσια διαθέσιμες πηγές, όπως σχολικές επετηρίδες και αναρτήσεις στα κοινωνικά δίκτυα, υποδεικνύοντας την ευκολία με την οποία οι κακόβουλοι χρήστες τροφοδοτούν τα μοντέλα AI με οπτικά δεδομένα.
  • Πολλαπλασιασμός του Περιεχομένου: Μόλις το υλικό παραχθεί, διαφεύγει άμεσα από τον έλεγχο του δημιουργού, όπως αποδεικνύεται από την ταχύτατη διασπορά του σε ιδιωτικούς servers.

Τα στατιστικά του σκανδάλου: 3 εκατομμύρια εικόνες σε 11 ημέρες

Τα δεδομένα που προκύπτουν από ανεξάρτητους ερευνητικούς οργανισμούς καταδεικνύουν το μέγεθος της τεχνικής αστοχίας. Σύμφωνα με το Center for Countering Digital Hate (CCDH), κατά τη διάρκεια μόλις έντεκα ημερών (τέλη Δεκεμβρίου 2025 με αρχές Ιανουαρίου 2026), το Grok παρήγαγε περίπου 3 εκατομμύρια σεξουαλικοποιημένες εικόνες. Η ανάλυση ενός δείγματος 20.000 εικόνων αποκάλυψε ότι περίπου το 2% (αναλογικά 23.000 εικόνες στο σύνολο) απεικόνιζε άτομα που φαίνονταν να είναι 18 ετών ή μικρότερα.

Διανομή σε Discord και Telegram

Η τεχνολογία AI διευκολύνει την παραγωγή, αλλά τα παραδοσιακά δίκτυα εξασφαλίζουν τη διανομή. Στην προκειμένη περίπτωση, το παραγόμενο υλικό CSAM εντοπίστηκε αρχικά σε κλειστούς διακομιστές του Discord. Η αστυνομική έρευνα οδήγησε στη σύλληψη ενός υπόπτου τον Δεκέμβριο, ο οποίος είχε συλλέξει και αλλοιώσει ψηφιακά υλικό από τουλάχιστον 18 κορίτσια, τα περισσότερα από το ίδιο σχολείο στο Τενεσί.

Ωστόσο, η ψηφιακή φύση του υλικού κατέστησε τον περιορισμό του αδύνατο. Οι ερευνητές ανακάλυψαν ότι τα deepfakes των ανηλίκων μεταφέρθηκαν ταχύτατα σε κρυπτογραφημένες ομαδικές συνομιλίες στο Telegram. Εκεί, το παραγόμενο από το Grok υλικό απέκτησε εμπορική αξία, λειτουργώντας ως άτυπο "νόμισμα" για την ανταλλαγή με άλλο παράνομο υλικό σεξουαλικής κακοποίησης παιδιών. Τα θύματα θα λαμβάνουν πλέον ειδοποιήσεις από το National Center for Missing and Exploited Children (NCMEC) για το υπόλοιπο της ζωής τους, καθώς το υλικό τους εντοπίζεται σε κατασχεμένους σκληρούς δίσκους συλληφθέντων σε παγκόσμιο επίπεδο.

Η απάντηση της xAI και η τεχνική ευθύνη

Παρά την τεκμηρίωση, η δημόσια στάση της εταιρείας χαρακτηρίζεται από αρνήσεις και καθυστερημένες διορθωτικές κινήσεις. Ο Elon Musk δήλωσε τον Ιανουάριο του 2026 ότι είχε "κυριολεκτικά μηδενική γνώση" για την παραγωγή γυμνών εικόνων ανηλίκων από το Grok, υποστηρίζοντας ότι το εργαλείο έχει σχεδιαστεί για να σέβεται την τοπική νομοθεσία.

Εκπρόσωπος της πλατφόρμας X ανέφερε ότι η εταιρεία λαμβάνει μέτρα κατά του παράνομου περιεχομένου, συνεργαζόμενη με τις αρχές για τη μόνιμη αναστολή λογαριασμών. Τον Ιανουάριο, η xAI προχώρησε πράγματι σε περιορισμό των δυνατοτήτων επεξεργασίας εικόνας σε ορισμένες δικαιοδοσίες, ωστόσο η αγωγή υποστηρίζει ότι τα μέτρα αυτά ήταν ανεπαρκή και ελήφθησαν κατόπιν εορτής. Η θεμελιώδης αρχιτεκτονική που επιτρέπει την αλλοίωση εικόνων με βάση ασαφή όρια ασφαλείας παραμένει στο επίκεντρο της κριτικής της επιστημονικής κοινότητας.

Ευρωπαϊκή Ένωση και Ελλάδα: Οι επιπτώσεις του Digital Services Act (DSA)

Το σκάνδαλο του Grok δεν περιορίζεται στις ΗΠΑ. Στην Ευρώπη, το ρυθμιστικό πλαίσιο είναι αισθητά αυστηρότερο. Η Ευρωπαϊκή Επιτροπή έχει ήδη ξεκινήσει επίσημη έρευνα, ενώ από τον Φεβρουάριο του 2026 η ιρλανδική Επιτροπή Προστασίας Δεδομένων (DPC) διεξάγει έρευνα βάσει της Πράξης Προστασίας Δεδομένων του 2018 και του Γενικού Κανονισμού για την Προστασία Δεδομένων (GDPR).

Για την ελληνική αγορά, αυτό σημαίνει ότι η διαθεσιμότητα και οι λειτουργίες του Grok βρίσκονται υπό άμεση απειλή. Εάν το X και η xAI κριθούν ένοχες για παραβίαση του Digital Services Act (DSA), αντιμετωπίζουν πρόστιμα που μπορούν να φτάσουν το 6% του παγκόσμιου ετήσιου τζίρου τους, ή ακόμα και πλήρη απαγόρευση παροχής συγκεκριμένων υπηρεσιών AI εντός της ΕΕ. 

Οι Έλληνες χρήστες του X Premium, οι οποίοι πληρώνουν συνδρομή για την πρόσβαση στο Grok, ενδέχεται να δουν τις δυνατότητες παραγωγής εικόνας να απενεργοποιούνται πλήρως (geo-blocking) μέχρι η εταιρεία να αποδείξει την ενσωμάτωση αποτελεσματικών φίλτρων (watermarking, prompt injection prevention, strict negative prompting).

Με τη ματιά του Techgear

Η υπόθεση της xAI σηματοδοτεί το τέλος της παιδικής ηλικίας για τη βιομηχανία της παραγωγικής τεχνητής νοημοσύνης. Η φιλοσοφία του "παραδώστε γρήγορα τον κώδικα και διορθώστε τα σφάλματα στην πορεία", η οποία κυριάρχησε στη Silicon Valley, αποδεικνύεται καταστροφική όταν εφαρμόζεται σε συστήματα ικανά να παράγουν CSAM. Δεν μιλάμε πλέον για "παραισθήσεις" ενός γλωσσικού μοντέλου που δίνει λάθος πληροφορίες, αλλά για τη βιομηχανοποίηση της παραγωγής αποδεικτικού υλικού κακοποίησης.

Για την xAI, η οποία στοχεύει σε κεφαλαιοποίηση ύψους 1.75 τρισεκατομμυρίων δολαρίων εντός του έτους, η νομική ευθύνη μετατοπίζεται πλέον από τον τελικό χρήστη στον δημιουργό του εργαλείου. Η άδεια χρήσης σε τρίτες εφαρμογές δεν αποτελεί νομική ασπίδα. Τεχνικά, οι εταιρείες οφείλουν να εφαρμόσουν ελέγχους στο επίπεδο των βαρών του μοντέλου και όχι απλώς επιφανειακά φίλτρα στη διεπαφή (UI). Η παραγωγή ασφαλούς AI απαιτεί προληπτική λογοκρισία εντολών που παραβιάζουν τον πυρήνα των ανθρωπίνων δικαιωμάτων. Οποιαδήποτε άλλη προσέγγιση καθιστά την πλατφόρμα, τεχνικά και νομικά, συνένοχο.

Loading