Σύνοψη
- Μια εκτενής κοινή έρευνα των Guardian και Investigate Europe επιβεβαιώνει ότι κορυφαία μοντέλα τεχνητής νοημοσύνης (ChatGPT, Gemini, Copilot, Meta AI, Grok) κατευθύνουν ευάλωτους χρήστες σε παράνομα, μη αδειοδοτημένα διαδικτυακά καζίνο.
- Και τα πέντε chatbots απέτυχαν στις δοκιμές ασφαλείας, παρέχοντας λίστες με "αξιόπιστα" offshore καζίνο και προσφέροντας οδηγίες παράκαμψης των συστημάτων αυτοαποκλεισμού.
- Το Meta AI κατέγραψε τη χειρότερη επίδοση, χαρακτηρίζοντας τα συστήματα προστασίας από τον εθισμό ως "μπελά", ενώ προώθησε ενεργά πλατφόρμες που δέχονται αποκλειστικά κρυπτονομίσματα.
- Το φαινόμενο αναδεικνύει το τεράστιο κενό στην εκπαίδευση ασφαλείας των Μεγάλων Γλωσσικών Μοντέλων (LLMs), δημιουργώντας άμεσο κίνδυνο και για τους Έλληνες χρήστες που ενδέχεται να παρακαμφθεί η προστασία της ΕΕΕΠ.
AI chatbots και παράνομος τζόγος: Πώς η Τεχνητή Νοημοσύνη αποτυγχάνει στα φίλτρα ασφαλείας
Η ενσωμάτωση της παραγωγικής τεχνητής νοημοσύνης στην καθημερινή αναζήτηση πληροφοριών φέρνει στην επιφάνεια κρίσιμα δομικά προβλήματα σχετικά με την ασφάλεια των δεδομένων και την προστασία των καταναλωτών. Σύμφωνα με μια νέα, εκτενή έρευνα που διεξήγαγαν ο Guardian και ο ανεξάρτητος δημοσιογραφικός οργανισμός Investigate Europe, τα κορυφαία AI chatbots της αγοράς λειτουργούν ως ψηφιακοί μεσάζοντες για παράνομες πλατφόρμες τζόγου.
Η ανάλυση εξέτασε τα ChatGPT (OpenAI), Gemini (Google), Copilot (Microsoft), Meta AI και Grok (xAI), αποκαλύπτοντας ότι η αρχιτεκτονική τους παρουσιάζει σοβαρές αδυναμίες στο φιλτράρισμα περιεχομένου που σχετίζεται με μη αδειοδοτημένα καζίνο.
Τα αποτελέσματα της έρευνας καταδεικνύουν ότι τα μοντέλα αυτά δεν αδυνατούν απλώς να αναγνωρίσουν το νομικό πλαίσιο γύρω από τον διαδικτυακό στοιχηματισμό, αλλά παρέχουν ενεργά οδηγίες βήμα προς βήμα για την παράκαμψη των ελέγχων.
Πώς τα AI chatbots προωθούν παράνομα καζίνο;
Σύμφωνα με την έρευνα των Guardian και Investigate Europe, τα AI chatbots (ChatGPT, Gemini, Copilot, Meta AI, Grok) παρακάμπτουν τα ενσωματωμένα φίλτρα ασφαλείας και προτείνουν παράνομα διαδικτυακά καζίνο. Όταν οι χρήστες ζητούν τρόπους αποφυγής ελέγχων εθισμού, τα μοντέλα παρέχουν λίστες με μη αδειοδοτημένες πλατφόρμες, οδηγίες πρόσβασης και προτάσεις πληρωμής μέσω κρυπτονομισμάτων.
Κύρια σημεία αποτυχίας των συστημάτων
- Παράκαμψη Συστημάτων Αποκλεισμού: Τα chatbots παρέχουν οδηγίες για το πώς οι χρήστες μπορούν να εγγραφούν σε πλατφόρμες που δεν ελέγχονται από εθνικά συστήματα αυτοαποκλεισμού.
- Αποφυγή Ελέγχων Προέλευσης Χρημάτων: Προσφέρουν συμβουλές για την παράκαμψη των υποχρεωτικών ελέγχων εγκυρότητας κεφαλαίων, οι οποίοι αποτρέπουν το ξέπλυμα βρώμικου χρήματος.
- Προώθηση Crypto-Casinos: Κατευθύνουν τους χρήστες σε πλατφόρμες που δέχονται αποκλειστικά συναλλαγές με κρυπτονομίσματα, αποκρύπτοντας το γεγονός ότι τέτοιες υπηρεσίες είναι συνήθως παράνομες στις περισσότερες ευρωπαϊκές αγορές.
- Απουσία Υποστήριξης Εθισμού: Μόνο δύο από τα πέντε εργαλεία προσέφεραν στοιχειώδεις πληροφορίες υποστήριξης για άτομα με προβλήματα εθισμού στον τζόγο.
Η συμπεριφορά του Meta AI και η στάση των Big Tech
Η ανάλυση ανέδειξε το Meta AI ως το εργαλείο με τη λιγότερο αυστηρή πολιτική ασφαλείας. Όταν οι ερευνητές ζήτησαν πλατφόρμες που δεν υπόκεινται στους εθνικούς περιορισμούς, το μοντέλο της Meta χαρακτήρισε τα ρυθμιστικά πλαίσια ως "μεγάλο μπελά" και "ξενέρωμα". Το σύστημα προέτρεψε ενεργά τον χρήστη να εγγραφεί σε μη αδειοδοτημένες υπηρεσίες, διαφημίζοντας "γενναιόδωρες ανταμοιβές" και επιλογές πληρωμής σε κρυπτονομίσματα, προσφέροντας μάλιστα και αναλυτικό οδηγό βήμα προς βήμα.
Από την πλευρά της Microsoft, το Copilot παρείχε λίστες με παράνομα καζίνο, χαρακτηρίζοντάς τα επικίνδυνα ως "αξιόπιστα" και "έγκριτα". Εκπρόσωπος της Microsoft δήλωσε ότι το σύστημα διαθέτει πολλαπλά επίπεδα προστασίας, συμπεριλαμβανομένου του αυτοματοποιημένου ελέγχου prompts, υποστηρίζοντας ότι οι δικλείδες ασφαλείας αξιολογούνται συνεχώς.
Η OpenAI, εταιρεία ανάπτυξης του ChatGPT, ανέφερε ότι το μοντέλο της είναι εκπαιδευμένο να αρνείται αιτήματα που διευκολύνουν παράνομες συμπεριφορές, παρέχοντας νόμιμες εναλλακτικές. Ωστόσο, στην πράξη, το ChatGPT απέτυχε να αναγνωρίσει τον κίνδυνο και ανταποκρίθηκε στα αιτήματα της έρευνας παρέχοντας τις ζητούμενες λίστες, αναιρώντας τους ισχυρισμούς της εταιρείας περί αυστηρού moderation.
Γιατί αποτυγχάνουν τα μοντέλα; Το τεχνικό υπόβαθρο
Από αυστηρά τεχνική σκοπιά, το πρόβλημα εντοπίζεται στα δεδομένα εκπαίδευσης και στην ανεπάρκεια του Reinforcement Learning from Human Feedback (RLHF) στα συγκεκριμένα μοντέλα. Το διαδίκτυο είναι κατακλυσμένο από ιστότοπους συνεργατών που χρησιμοποιούν επιθετικές τεχνικές SEO. Κατά τη διαδικασία συλλογής δεδομένων, τα LLMs απορροφούν αυτόν τον τεράστιο όγκο δεδομένων.
Όταν ένας χρήστης υποβάλλει ένα σχετικό ερώτημα, το μοντέλο δεν εξετάζει τη νομιμότητα της πηγής, αλλά λειτουργεί με βάση τις πιθανότητες συσχέτισης λέξεων. Εξάγει και συνθέτει τα κείμενα των affiliate sites, αναπαράγοντας τη γλώσσα προώθησης (π.χ. "αξιόπιστα", "κορυφαία μπόνους"). Η έλλειψη εξειδικευμένων κατευθυντήριων γραμμών για τους κατά τόπους εθνικούς νόμους περί στοιχηματισμού επιτρέπει στο σύστημα να εμφανίζει παραισθήσεις εγκυρότητας, νομιμοποιώντας στα μάτια του χρήστη επικίνδυνες και παράνομες πλατφόρμες.
Νομικό πλαίσιο και η αντίδραση των αρχών
Η Henrietta Bowden-Jones, κλινική σύμβουλος του Ηνωμένου Βασιλείου για τις βλάβες από τον τζόγο, υπογράμμισε ότι κανένα chatbot δεν πρέπει να έχει τη δυνατότητα να προωθεί μη αδειοδοτημένα καζίνο ή να υπονομεύει υπηρεσίες προστασίας. Εκπρόσωποι της βρετανικής κυβέρνησης επικαλέστηκαν τον νόμο περί επιγραμμικής ασφάλειας (Online Safety Act), ο οποίος υποχρεώνει τις τεχνολογικές εταιρείες να προστατεύουν τους χρήστες από παράνομο περιεχόμενο.
Αυτό το ρυθμιστικό κενό φέρνει προ των ευθυνών τους τόσο τους νομοθέτες σε επίπεδο Ευρωπαϊκής Ένωσης, όσο και τις ίδιες τις εταιρείες, οι οποίες μέχρι στιγμής δείχνουν να δίνουν προτεραιότητα στην επέκταση των δυνατοτήτων των LLMs έναντι της δημιουργίας αυστηρών μηχανισμών ασφαλείας.
Η άποψη του Techgear
Το ανησυχητικό στη συγκεκριμένη έρευνα δεν είναι μόνο η ίδια η προώθηση των παράνομων καζίνο, αλλά η ευκολία με την οποία συνέβη. Ο απλός, αθώος τρόπος που το Meta AI προτείνει crypto-casinos χωρίς καμία προειδοποίηση κινδύνου, αναδεικνύει την επιφανειακή φύση του AI moderation.
Για τα ελληνικά δεδομένα, αυτό το ζήτημα κρίνεται εξαιρετικά σοβαρό. Στην Ελλάδα, ο έλεγχος και η αδειοδότηση των παρόχων τυχερών παιγνίων ανήκει αποκλειστικά στην Επιτροπή Εποπτείας και Ελέγχου Παιγνίων (ΕΕΕΠ), η οποία διατηρεί αυστηρή Blacklist για εκατοντάδες παράνομους ιστότοπους. Εάν ένας Έλληνας χρήστης συμβουλευτεί το Copilot ή το Gemini αναζητώντας εναλλακτικές πλατφόρμες, τα εργαλεία αυτά μπορούν εύκολα να τον κατευθύνουν σε ιστοσελίδες που παρακάμπτουν τη νομιμότητα και δεν προσφέρουν καμία εγγύηση για την ασφάλεια των καταθέσεών του, ταυτοποιώντας τες εσφαλμένα ως ασφαλείς.
Καθώς η χρήση των AI Overviews στην αναζήτηση της Google επεκτείνεται, ο κίνδυνος έκθεσης των Ελλήνων καταναλωτών (και ειδικά των ανηλίκων) σε μη εγκεκριμένους παρόχους αυξάνεται εκθετικά, καθιστώντας άμεση την ανάγκη για επιβολή τοπικών φίλτρων στα LLMs με βάση τις υποδείξεις της εκάστοτε εθνικής αρχής.