Σύνοψη
- Η Ευρωπαϊκή Ένωση ανακοίνωσε επίσημη καθυστέρηση στην εφαρμογή των διατάξεων του AI Act που αφορούν την πλήρη απαγόρευση των εφαρμογών δημιουργίας μη συναινετικού γυμνού (nudify apps).
- Η μετάθεση του χρονοδιαγράμματος οφείλεται σε γραφειοκρατικές προκλήσεις, τεχνικές δυσκολίες στον ακριβή ορισμό των deepfakes και στην ενσωμάτωση του πλαισίου στις εθνικές νομοθεσίες.
- Τα τεχνολογικά μοντέλα παραγωγικής τεχνητής νοημοσύνης (Generative AI) εξελίσσονται ταχύτερα από την ικανότητα των θεσμών να επιβάλουν ελέγχους.
- Στην Ελλάδα, η καθυστέρηση παρατείνει την εξάρτηση από το υφιστάμενο νομικό πλαίσιο και τη Δίωξη Ηλεκτρονικού Εγκλήματος, ελλείψει ειδικής ευρωπαϊκής ομπρέλας για την τεχνητή νοημοσύνη.
Γιατί καθυστερεί η απαγόρευση των Nudify Apps από την Ευρωπαϊκή Ένωση;
Η Ευρωπαϊκή Ένωση καθυστερεί την καθολική απαγόρευση των nudify apps λόγω νομοτεχνικής πολυπλοκότητας στον ορισμό της συνθετικής πορνογραφίας και των γραφειοκρατικών εμποδίων προσαρμογής του EU AI Act στα εθνικά δίκαια.
Σύμφωνα με πρόσφατη ενημέρωση του Ευρωπαϊκού Κοινοβουλίου (23 Μαρτίου 2026), η άμεση επιβολή κυρώσεων μετατίθεται, διατηρώντας το υφιστάμενο νομικό κενό για την παραγωγή μη συναινετικού υλικού.
Το τεχνικό υπόβαθρο: Η αρχιτεκτονική των Nudifier AI
Η ραγδαία εξάπλωση των εν λόγω εφαρμογών δεν αποτελεί τυχαίο γεγονός. Βασίζεται στην εκθετική εξέλιξη των Generative Adversarial Networks (GANs) και, πιο πρόσφατα, των Diffusion Models. Τα συστήματα αυτά εκπαιδεύονται σε τεράστιες βάσεις δεδομένων οπτικού υλικού, μαθαίνοντας να αναγνωρίζουν την ανθρώπινη ανατομία, τον φωτισμό, τις σκιές και την υφή του δέρματος.
Όταν ένας χρήστης ανεβάζει μια φωτογραφία σε ένα nudify app, το νευρωνικό δίκτυο προχωρά σε σημασιολογική τμηματοποίηση. Αναγνωρίζει τον ρουχισμό, τον αφαιρεί ψηφιακά και στη συνέχεια ανακατασκευάζει το υποκείμενο σώμα βασιζόμενο σε πιθανολογικά μοντέλα. Ο κώδικας για αυτές τις λειτουργίες προέρχεται συχνά από παραλλαγές μοντέλων ανοιχτού κώδικα (όπως τροποποιημένα βάρη του Stable Diffusion), γεγονός που καθιστά τον περιορισμό τους εξαιρετικά δυσχερή. Η αποκέντρωση των αποθετηρίων κώδικα (GitHub, Hugging Face) δίνει τη δυνατότητα σε κακόβουλους προγραμματιστές να δημιουργούν νέα wrappers και bots σε πλατφόρμες όπως το Telegram, παρακάμπτοντας τους ελέγχους των παραδοσιακών App Stores.
Το νομικό αδιέξοδο και το EU AI Act
Το European AI Act σχεδιάστηκε για να λειτουργήσει ως ασπίδα προστασίας. Εντάσσει τα συστήματα τεχνητής νοημοσύνης σε κατηγορίες ρίσκου. Τα συστήματα που δημιουργούν deepfakes χωρίς τη συγκατάθεση του εικονιζόμενου, εμπίπτουν θεωρητικά στην κατηγορία του μη αποδεκτού κινδύνου ή υπόκεινται σε αυστηρότατους κανόνες διαφάνειας.
Ωστόσο, η ανακοίνωση του Ευρωπαϊκού Κοινοβουλίου καταδεικνύει την απόσταση μεταξύ θεωρίας και εφαρμογής. Η καθυστέρηση εντοπίζεται στη δυσκολία εναρμόνισης των ελεγκτικών μηχανισμών. Πώς ορίζεται ο πάροχος όταν ο αλγόριθμος τρέχει τοπικά στον υπολογιστή του χρήστη; Πώς επιβάλλονται πρόστιμα σε ανώνυμα δίκτυα κρυπτογραφημένης επικοινωνίας; Οι αρμόδιες επιτροπές της Ε.Ε. αναλώνονται σε πολύμηνες διαβουλεύσεις για τη δημιουργία τεχνικών προτύπων αναγνώρισης τέτοιου υλικού, τα οποία όμως τη δεδομένη στιγμή είναι ανεπαρκή. Τεχνολογίες όπως τα ψηφιακά υδατογραφήματα (π.χ., SynthID) είναι χρήσιμες μόνο για τα μεγάλα, νόμιμα εμπορικά μοντέλα, όχι για τα "πειρατικά" fine-tuned εργαλεία.
Η ελληνική πραγματικότητα και ο τοπικός αντίκτυπος
Για την ελληνική αγορά και τους Έλληνες πολίτες, η ευρωπαϊκή δυστοκία έχει άμεσες συνέπειες. Το EU AI Act αναμενόταν να προσφέρει ένα οριζόντιο, αυστηρό νομικό πλαίσιο που θα επέβαλλε άμεσα μπλόκα σε επίπεδο ISPs (Παρόχων Υπηρεσιών Διαδικτύου) και υπέρογκα πρόστιμα.
Αυτή τη στιγμή, η αντιμετώπιση περιστατικών non-consensual deepfake πορνογραφίας στην Ελλάδα επαφίεται στο παραδοσιακό νομικό οπλοστάσιο. Η Δίωξη Ηλεκτρονικού Εγκλήματος της Ελληνικής Αστυνομίας και οι νομικοί εκπρόσωποι των θυμάτων αναγκάζονται να βασιστούν στον Ποινικό Κώδικα (διατάξεις περί προσβολής της προσωπικότητας, συκοφαντικής δυσφήμισης) και στην Αρχή Προστασίας Δεδομένων Προσωπικού Χαρακτήρα (GDPR). Η απουσία στοχευμένης ευρωπαϊκής νομολογίας, η οποία τώρα καθυστερεί, σημαίνει ότι η διαδικασία εντοπισμού, αφαίρεσης του υλικού και δίωξης των δραστών παραμένει χρονοβόρα, αφήνοντας τα θύματα—συχνά ανήλικους—ευάλωτα στο φαινόμενο της ψηφιακής κακοποίησης. Η τοπική νομοθεσία αδυνατεί να ακολουθήσει την ταχύτητα παραγωγής των συνθετικών δεδομένων.
Ο ρόλος των Big Tech
Ενόσω η Ευρωπαϊκή Ένωση παλεύει με τις διαδικασίες, το βάρος του περιορισμού μετατοπίζεται στις ίδιες τις εταιρείες τεχνολογίας. Η Apple, η Google, η Microsoft και η OpenAI έχουν ήδη αυστηροποιήσει τους όρους χρήσης. Η Google διαγράφει από τα αποτελέσματα αναζήτησης ιστοσελίδες που προσφέρουν nudify υπηρεσίες κατόπιν αιτήματος, ενώ τα συστήματα ασφαλείας του Android και του iOS αναγνωρίζουν και μπλοκάρουν εγκαταστάσεις τέτοιων εφαρμογών (έστω και αν γίνονται μέσω sideloading σε ορισμένες περιπτώσεις).
Παρ' όλα αυτά, το οικοσύστημα του διαδικτύου είναι ευρύ. Εναλλακτικά app stores, κρυπτογραφημένα fora και web-based APIs σε χώρες εκτός ευρωπαϊκής δικαιοδοσίας προσφέρουν απρόσκοπτη πρόσβαση σε αυτούς τους αλγορίθμους. Η Ευρωπαϊκή Ένωση οφείλει να βρει τον τρόπο να επιβάλει γεωγραφικούς περιορισμούς (geo-blocking) σε υπηρεσίες που παραβιάζουν κατάφωρα τα ανθρώπινα δικαιώματα, χωρίς να περιμένει την ολοκλήρωση γραφειοκρατικών κύκλων ετών.
Η άποψη του Techgear
Η επιβεβαιωμένη καθυστέρηση στην εφαρμογή των απαγορεύσεων του EU AI Act για τα nudify apps αποδεικνύει την εγγενή αδυναμία των παραδοσιακών νομοθετικών μηχανισμών να ελέγξουν την παραγωγική τεχνητή νοημοσύνη. Η νομοθεσία αντιμετωπίζει τα μοντέλα AI με όρους του παρελθόντος, προσπαθώντας να ρυθμίσει κεντρικούς παρόχους, αγνοώντας το γεγονός ότι ισχυρότατα μοντέλα ανοιχτού κώδικα μπορούν να εκτελεστούν πλέον σε μια απλή καταναλωτική κάρτα γραφικών.
Η αδράνεια αυτή δεν είναι απλώς ένα τεχνικό ζήτημα διαβούλευσης των Βρυξελλών. Είναι μια επικίνδυνη ολιγωρία που επιτρέπει τη μετατροπή της τεχνολογίας σε όπλο εκβιασμού και ψηφιακής κακοποίησης σε καθημερινό επίπεδο, επηρεάζοντας άμεσα και την ελληνική κοινωνία. Μέχρι το νομικό πλαίσιο να γίνει proactive (προληπτικό) αντί για reactive (πυροσβεστικό), η μόνη άμυνα παραμένει ο ψηφιακός αλφαβητισμός, τα ιδιωτικά εργαλεία αφαίρεσης αποτελεσμάτων (όπως αυτά της Google) και η κοινωνική απομόνωση του φαινομένου.