Η AI της Google στο στόχαστρο: Μαζική αγωγή για έκθεση δεδομένων των θυμάτων του Epstein

Σύνοψη

  • Θύμα του Jeffrey Epstein κατέθεσε ομαδική αγωγή κατά της Google για παραβίαση ιδιωτικότητας μέσω τεχνητής νοημοσύνης.
  • Η AI της εταιρείας άντλησε και διατήρησε προσωπικά δεδομένα (ονόματα, τοποθεσίες, στοιχεία επικοινωνίας) από την αρχική δημοσιοποίηση των δικαστικών εγγράφων.
  • Το σύστημα της Google προχώρησε στη δημιουργία ενεργών συνδέσμων (mailto links) για την απευθείας αποστολή email στα θύματα.
  • Ανταγωνιστικά γλωσσικά μοντέλα (ChatGPT, Claude, Perplexity) φίλτραραν με επιτυχία τις ευαίσθητες πληροφορίες και αρνήθηκαν την προβολή τους.
  • Η υπόθεση αναδεικνύει τον κίνδυνο ενσωμάτωσης παλαιότερων, μη διορθωμένων δεδομένων (cache) στις απαντήσεις της παραγωγικής τεχνητής νοημοσύνης, εγείροντας αυστηρά ζητήματα συμβατότητας με το ευρωπαϊκό πλαίσιο (GDPR).

Η Google βρίσκεται αντιμέτωπη με μια εξαιρετικά σοβαρή νομική πρόκληση, η οποία ενδέχεται να καθορίσει τη νομολογία γύρω από την ευθύνη των εταιρειών τεχνητής νοημοσύνης. 

Σύμφωνα με τα νομικά έγγραφα που κατατέθηκαν, θύμα του κυκλώματος trafficking του Jeffrey Epstein κατέθεσε ομαδική αγωγή κατά του τεχνολογικού κολοσσού, κατηγορώντας την εταιρεία ότι η λειτουργία AI (AI Mode / AI Overviews) προέβαλε δημόσια, ευαίσθητα προσωπικά δεδομένα επιζώντων.

Το περιστατικό αναδεικνύει μια θεμελιώδη αδυναμία στον τρόπο με τον οποίο τα συστήματα Retrieval-Augmented Generation (RAG) της Google διαχειρίζονται τον τεράστιο όγκο δεδομένων του διαδικτύου, ειδικά όταν τα πρωτογενή έγγραφα υφίστανται εκ των υστέρων λογοκρισία ή αφαίρεση για νομικούς λόγους.

Πώς η AI της Google εξέθεσε τα θύματα του Epstein;

Η τεχνητή νοημοσύνη της Google επεξεργάστηκε και αποθήκευσε την αρχική, αλογόκριτη διαρροή των δικαστικών εγγράφων. Παρά την απόσυρση αυτών των αρχείων από την κυβέρνηση για την προστασία των επιζώντων, η AI της Google συνέχισε να αντλεί δεδομένα από την κρυφή μνήμη (cache), προβάλλοντας πλήρη ονόματα, πόλεις διαμονής και στοιχεία επικοινωνίας. Το σύστημα μάλιστα προχώρησε αυτόνομα στη δημιουργία ενεργών συνδέσμων (mailto links) ώστε οι χρήστες να στέλνουν απευθείας email στα θύματα με ένα κλικ.

Τα βασικά τεχνικά σφάλματα του συστήματος

  • Αποτυχία συγχρονισμού διαγραφής: Η αδυναμία του αλγορίθμου να αναγνωρίσει την απόσυρση των πρωτογενών εγγράφων από τις κρατικές πηγές.
  • Παραγωγή διαδραστικών στοιχείων: Η αυτόματη δημιουργία «hypertext links» επικοινωνίας, κάτι που μετατρέπει την AI από απλό αναγνώστη κειμένου σε εργαλείο άμεσης στόχευσης.
  • Απουσία δικλείδων ασφαλείας: Παράκαμψη ή ανυπαρξία φίλτρων που αποτρέπουν την προβολή Personally Identifiable Information (PII) για θύματα εγκληματικών πράξεων.

Η αρχιτεκτονική της αποτυχίας: Η διαφορά από τους ανταγωνιστές

Η αγωγή στέκεται ιδιαίτερα σε μια σημαντική τεχνική λεπτομέρεια που απομονώνει την Google από τον ανταγωνισμό. Ενώ το AI Mode της Google απέτυχε να προστατεύσει τις πληροφορίες, ανταγωνιστικά εργαλεία όπως το ChatGPT (OpenAI), το Claude (Anthropic) και το Perplexity αρνήθηκαν να παρέχουν δεδομένα που αφορούν τα θύματα.

Αυτό υποδεικνύει ότι η διαρροή δεν είναι ένα αναπόφευκτο αποτέλεσμα της λειτουργίας των Μεγάλων Γλωσσικών Μοντέλων (LLMs), αλλά μια αστοχία στον σχεδιασμό των φίλτρων ευθυγράμμισης (Reinforcement Learning from Human Feedback - RLHF) της Google. Η Anthropic και η OpenAI έχουν ενσωματώσει αυστηρά προγράμματα άρνησης απαντήσεων όταν η προτροπή του χρήστη σχετίζεται με αναζήτηση προσωπικών δεδομένων απλών πολιτών ή θυμάτων. Αντιθέτως, η μηχανή της Google, στην προσπάθειά της να αντλήσει πληροφορίες σε πραγματικό χρόνο από το ευρετήριο της (Search Index), φαίνεται να έδωσε προτεραιότητα στην ταχύτητα απάντησης έναντι της ασφάλειας των δεδομένων.

Οι δικηγόροι του ενάγοντος υπογραμμίζουν ότι η Google αρνήθηκε να αφαιρέσει τα δεδομένα παρά τις επανειλημμένες εκκλήσεις, κάτι που δείχνει μια δυσκαμψία στους μηχανισμούς χειροκίνητης παρέμβασης της εταιρείας στα αποτελέσματα που παράγει η τεχνητή της νοημοσύνη.

Οι νομικές προεκτάσεις και το Άρθρο 230

Ιστορικά, οι μηχανές αναζήτησης προστατεύονται στις ΗΠΑ από το Άρθρο 230 του νόμου Communications Decency Act, το οποίο τις απαλλάσσει από την ευθύνη για το περιεχόμενο που δημιουργούν τρίτοι. Ωστόσο, η δημιουργία απαντήσεων μέσω παραγωγικής AI αλλάζει τα νομικά δεδομένα. Όταν η τεχνητή νοημοσύνη συνθέτει νέα κείμενα, συνδυάζει λέξεις και παράγει ενεργά links επικοινωνίας (όπως τα mailto links), μετατρέπεται νομικά σε «δημιουργό περιεχομένου» και όχι απλά σε έναν ουδέτερο διαβιβαστή.

Η έκβαση της δίκης αναμένεται να θέσει τα όρια για το πόσο υπεύθυνες είναι οι τεχνολογικές εταιρείες όταν οι αλγόριθμοι τους «έχουν παραισθήσεις» ή επιλέγουν να αναδείξουν παράνομα ή αποσυρμένα αρχεία.

Η συμβατότητα με τα ευρωπαϊκά δεδομένα (GDPR)

Για την ελληνική και ευρωπαϊκή αγορά, το συγκεκριμένο περιστατικό αποτελεί σημείο καμπής. Η λειτουργία του Google AI, όπως περιγράφεται στην αγωγή, παραβιάζει θεμελιώδεις αρχές του Γενικού Κανονισμού για την Προστασία Δεδομένων (GDPR).

Ειδικότερα, το Άρθρο 17 (Δικαίωμα στη λήθη) και η αρχή της ελαχιστοποίησης των δεδομένων επιβάλλουν την άμεση διαγραφή των προσωπικών στοιχείων όταν αυτά δεν εξυπηρετούν πλέον τον αρχικό τους σκοπό ή όταν η πηγή αποσύρεται. Αν ένα αντίστοιχο περιστατικό διαρροής αφορούσε Έλληνες ή Ευρωπαίους πολίτες, η Google θα βρισκόταν αντιμέτωπη με τις Εθνικές Αρχές Προστασίας Δεδομένων και πρόστιμα που μπορούν να φτάσουν το 4% του παγκόσμιου τζίρου της. 

Η καθυστέρηση στην έλευση κάποιων AI λειτουργιών της Google στην Ελλάδα και την Ευρώπη οφείλεται ακριβώς σε αυτή την ασυμβατότητα μεταξύ της επιθετικής συλλογής δεδομένων των αμερικανικών LLMs και του αυστηρού ευρωπαϊκού νομικού πλαισίου.

Με τη ματιά του Techgear

Αξιολογώντας καθημερινά την εξέλιξη των εργαλείων τεχνητής νοημοσύνης, το συμπέρασμα είναι ξεκάθαρο: η αρχιτεκτονική της Google συχνά θυσιάζει την ακρίβεια και την ασφάλεια στον βωμό της ταχύτητας και της κάλυψης του τεράστιου ευρετηρίου της. Η υποκειμενική αίσθηση από τη χρήση των Google AI Overviews είναι πως το σύστημα λειτουργεί ως ένας υπερ-ταχύς συλλέκτης πληροφοριών που στερείται εννοιολογικής κατανόησης του τι ακριβώς προβάλλει.

Σε αντίθεση με το Claude, το οποίο κατά τη διάρκεια των δοκιμών μας επιδεικνύει μια σχεδόν απόλυτη, «χειρουργική» άρνηση να αγγίξει ευαίσθητα νομικά ζητήματα ή προσωπικά στοιχεία, η AI της Google παρασύρεται από το βάρος των δεδομένων του. Το γεγονός ότι το σύστημα δεν εντόπισε απλώς τα ονόματα των θυμάτων σε μια παλιά, αποθηκευμένη μορφή ενός PDF, αλλά τα μετέτρεψε σε clickable links επικοινωνίας, αποδεικνύει μια σοβαρή αδυναμία στον πυρήνα του συστήματος. 

Η μετάβαση από το παραδοσιακό "search" στο "generative AI" απαιτεί δικλείδες ασφαλείας που, όπως αποδεικνύεται περίτρανα, η Google δεν έχει καταφέρει ακόμα να εφαρμόσει με απόλυτη επιτυχία.

Loading