Τα AI chatbots των Google και OpenAI «γδύνουν» γυναίκες με ένα κλικ

Μια νέα έρευνα που έφερε στο φως το Wired αποκαλύπτει ένα ανησυχητικό κενό ασφαλείας στα δημοφιλέστερα εργαλεία τεχνητής νοημοσύνης του πλανήτη, θέτοντας σε κίνδυνο την ιδιωτικότητα εκατομμυρίων χρηστών.

Στην καρδιά της ψηφιακής εποχής, όπου η τεχνητή νοημοσύνη (AI) υπόσχεται να λύσει τα πιο περίπλοκα προβλήματα της ανθρωπότητας, μια νέα δημοσιογραφική έρευνα έρχεται να αναδείξει την σκοτεινή πλευρά των αλγορίθμων. Σύμφωνα με αποκαλυπτικό ρεπορτάζ, τα κορυφαία chatbots της Google και της OpenAI διαθέτουν μια «κερκόπορτα» που επιτρέπει τη μετατροπή φωτογραφιών ντυμένων γυναικών σε εικόνες με μπικίνι ή εσώρουχα, παρακάμπτοντας τις δικλείδες ασφαλείας που υποτίθεται ότι προστατεύουν από τέτοια φαινόμενα.

Η «κερκόπορτα» της επεξεργασίας εικόνας

Το πρόβλημα εντοπίζεται όχι στη δημιουργία εικόνων από το μηδέν, αλλά στις προηγμένες δυνατότητες επεξεργασίας (editing) που προσφέρουν πλέον μοντέλα όπως το Gemini και το ChatGPT. Ενώ τα συστήματα αυτά είναι εκπαιδευμένα να απορρίπτουν ρητές εντολές για τη δημιουργία γυμνού περιεχομένου (NSFW), η έρευνα απέδειξε ότι είναι επιρρεπή σε λιγότερο προφανείς μεθόδους χειραγώγησης.

Συγκεκριμένα, χρήστες μπορούν να ανεβάσουν μια αθώα φωτογραφία μιας γυναίκας και, μέσω προσεκτικά διατυπωμένων εντολών που ζητούν αλλαγή στο περιβάλλον ή στα ρούχα (π.χ. «κάνε την να μοιάζει ότι είναι στην παραλία» ή «άλλαξε τα ρούχα με μαγιό»), να ξεγελάσουν το σύστημα. Το αποτέλεσμα; Το AI αφαιρεί τα ρούχα του υποκειμένου και τα αντικαθιστά με μπικίνι, δημιουργώντας ουσιαστικά ένα deepfake υψηλής αληθοφάνειας.

Ένα πρόβλημα με έμφυλη διάσταση

Το πλέον ανησυχητικό εύρημα της έρευνας δεν είναι μόνο η τεχνική αστοχία, αλλά η έμφυλη προκατάληψη που αυτή αποκαλύπτει. Τα τεστ έδειξαν ότι τα μοντέλα είναι πολύ πιο «πρόθυμα» να εκτελέσουν τέτοιες εντολές όταν το υποκείμενο της φωτογραφίας είναι γυναίκα. Αντίθετα, σε αντίστοιχες δοκιμές με φωτογραφίες ανδρών, τα συστήματα συχνά αρνούνταν να προχωρήσουν στην «αποκάλυψη», ή το αποτέλεσμα ήταν λιγότερο σεξουαλικοποιημένο.

Αυτό το φαινόμενο δεν είναι τυχαίο. Αντικατοπτρίζει τα δεδομένα πάνω στα οποία εκπαιδεύτηκαν αυτά τα μοντέλα: δισεκατομμύρια εικόνες από το διαδίκτυο όπου η γυναικεία φιγούρα αντικειμενικοποιείται συχνότερα από την ανδρική. Το AI, λειτουργώντας ως καθρέφτης της κοινωνίας μας, αναπαράγει και μεγεθύνει αυτές τις ανισότητες, μετατρέποντας μια εντολή επεξεργασίας σε εργαλείο ψηφιακής παρενόχλησης.

Από το Dark Web στο mainstream

Μέχρι πρότινος, η δημιουργία τέτοιου υλικού (γνωστού ως Non-Consensual Intimate Imagery - NCII) απαιτούσε εξειδικευμένες γνώσεις ή πρόσβαση σε αμφιλεγόμενες εφαρμογές και forums του "σκοτεινού διαδικτύου". Η αποκάλυψη ότι κολοσσοί όπως η Google και η OpenAI – που διαλαλούν την ασφάλεια ως προτεραιότητά τους – επιτρέπουν, έστω και ακούσια, τέτοιες πρακτικές, αλλάζει δραματικά τα δεδομένα.

Όταν εργαλεία προσβάσιμα σε κάθε κινητό τηλέφωνο μπορούν να χρησιμοποιηθούν για να «γδύσουν» ψηφιακά μια συμμαθήτρια, μια συνάδελφο ή μια αγνώστη, το ζήτημα της ψηφιακής ασφάλειας παύει να είναι θεωρητικό. Μετατρέπεται σε άμεση απειλή για την αξιοπρέπεια και την ψυχική υγεία των θυμάτων, τα οποία συχνά βρίσκονται ανυπεράσπιστα απέναντι στην ταχύτητα διάδοσης του υλικού.

Η αντίδραση των γιγάντων και το «κρυφτό»

Σε απάντηση των ευρημάτων, εκπρόσωποι των εταιρειών έσπευσαν να δηλώσουν ότι τέτοιου είδους περιεχόμενο παραβιάζει τους όρους χρήσης τους και ότι εργάζονται διαρκώς για τη βελτίωση των φίλτρων ασφαλείας. Η Google και η OpenAI τόνισαν πως τα συστήματά τους έχουν σχεδιαστεί για να αποτρέπουν τη δημιουργία σεξουαλικού υλικού, ωστόσο παραδέχτηκαν εμμέσως ότι οι «jailbreak» τεχνικές (οι τρόποι παράκαμψης των κανόνων) εξελίσσονται ταχύτερα από τις άμυνές τους.

Είναι το κλασικό παιχνίδι της γάτας με το ποντίκι: κάθε φορά που οι μηχανικοί κλείνουν μια «τρύπα», οι χρήστες βρίσκουν έναν νέο τρόπο να ξεγελάσουν τον αλγόριθμο. Ωστόσο, η ευθύνη βαραίνει τις εταιρείες που επιλέγουν να κυκλοφορήσουν πανίσχυρα εργαλεία επεξεργασίας εικόνας πριν διασφαλίσουν ότι αυτά είναι απολύτως θωρακισμένα απέναντι σε κακόβουλη χρήση.

Το μέλλον της ψηφιακής ακεραιότητας

Η είδηση αυτή λειτουργεί ως καμπανάκι αφύπνισης. Η τεχνολογία deepfake δεν είναι πλέον ένα σενάριο για το μέλλον, αλλά μια πραγματικότητα ενσωματωμένη στις εφαρμογές που χρησιμοποιούμε καθημερινά. Το περιστατικό με τα «μπικίνι» μπορεί να φαίνεται σε κάποιους ως πταίσμα συγκριτικά με τη δημιουργία πλήρως γυμνού υλικού, όμως αποτελεί την κορυφή του παγόβουνου. Είναι η απόδειξη ότι η γραμμή μεταξύ της πραγματικότητας και της ψηφιακής κατασκευής γίνεται όλο και πιο δυσδιάκριτη.

Loading