Κρυφός κώδικας στο φως: Το νέο όπλο κατά των deepfake videos

Η εποχή που ένα βίντεο θεωρούνταν αδιάψευστη απόδειξη έχει περάσει ανεπιστρεπτί. Σήμερα, η τεχνολογία επιτρέπει την τόσο ρεαλιστική αλλοίωση οπτικού υλικού που ακόμα και οι πιο έμπειροι ελεγκτές γεγονότων δυσκολεύονται να εντοπίσουν τις παρεμβάσεις. Σε αυτό το σκηνικό παραπληροφόρησης, μια ερευνητική ομάδα του Cornell University προτείνει μια καινοτόμα λύση: την ενσωμάτωση υδατογραφημάτων σε ανεπαίσθητες διακυμάνσεις του φωτός, ώστε να γίνεται αντιληπτή η παραποίηση ενός βίντεο.

Η ιδέα, που παρουσιάστηκε στο συνέδριο SIGGRAPH 2025 στο Βανκούβερ και δημοσιεύθηκε τον Ιούνιο στο περιοδικό ACM Transactions on Graphics, ανήκει στον Abe Davis, αναπληρωτή καθηγητή Πληροφορικής στο Cornell. Όπως εξηγεί, η δυνατότητα δημιουργίας ψεύτικου βίντεο με φαινομενική αυθεντικότητα έχει γίνει τόσο εύκολη και προσιτή, που η διάκριση μεταξύ πραγματικού και πλαστού περιεχομένου είναι πλέον εξαιρετικά δύσκολη. «Παλαιότερα θεωρούσαμε το βίντεο πηγή αλήθειας. Τώρα, μπορείς να φτιάξεις ό,τι θέλεις — και αυτό, εκτός από διασκεδαστικό, είναι και επικίνδυνο», σημειώνει.

Η πρόκληση για την ανίχνευση ψεύτικων βίντεο είναι ότι οι δημιουργοί τους έχουν πρόσβαση στο ίδιο αυθεντικό υλικό και στα ίδια προηγμένα εργαλεία επεξεργασίας με τους ερευνητές. Τα σύγχρονα λογισμικά, με ελάχιστο κόστος, μπορούν να «εκπαιδευτούν» πάνω σε τεράστιες βάσεις δεδομένων και να παράγουν αποτέλεσμα που δύσκολα ξεχωρίζει από την πραγματικότητα. Έτσι, οι παραχαράκτες συχνά προηγούνται από τις τεχνικές ανίχνευσης, οι οποίες για να είναι αποτελεσματικές πρέπει να βασίζονται σε πληροφορίες άγνωστες στους δημιουργούς των πλαστών βίντεο.

Η ομάδα του Cornell είχε παλαιότερα αναπτύξει μια μέθοδο τροποποίησης συγκεκριμένων pixels για να εντοπίζεται αν ένα βίντεο έχει δημιουργηθεί ή αλλοιωθεί από τεχνητή νοημοσύνη. Ωστόσο, η μέθοδος αυτή απαιτούσε συγκεκριμένο εξοπλισμό ή λογισμικό από την πλευρά του δημιουργού. Η νέα προσέγγιση, που ονομάζεται «noise-coded illumination» (NCI), ξεπερνά αυτούς τους περιορισμούς, ενσωματώνοντας τον κώδικα στο φαινομενικό «θόρυβο» των πηγών φωτός. Ένα μικρό λογισμικό μπορεί να εφαρμόσει την τεχνική σε οθόνες υπολογιστών και σε ορισμένα συστήματα φωτισμού, ενώ απλοί λαμπτήρες μπορούν να «κωδικοποιηθούν» με ένα μικροσκοπικό τσιπ.

Σύμφωνα με τον Davis, κάθε υδατογράφημα περιλαμβάνει μια χαμηλής ευκρίνειας, χρονοσημασμένη εκδοχή του αυθεντικού βίντεο, τραβηγμένη υπό ελαφρώς διαφορετικό φωτισμό — αυτά τα παράλληλα αρχεία ονομάζονται «code videos». Όταν το υλικό παραποιείται, τα αλλοιωμένα τμήματα δεν συμφωνούν με τις πληροφορίες που υπάρχουν στα code videos, αποκαλύπτοντας έτσι τα σημεία της παρέμβασης. Στην περίπτωση δημιουργίας πλαστού βίντεο από AI, τα code videos καταλήγουν να μοιάζουν με τυχαίες παραλλαγές, γεγονός που προδίδει την πλαστότητα.

Η ομάδα δοκίμασε την τεχνική σε πληθώρα σεναρίων παραποίησης — από αλλαγές στην ταχύτητα και την επιτάχυνση μέχρι σύνθεση πολλαπλών πηγών και δημιουργία deepfakes. Το NCI απέδειξε ανθεκτικότητα σε παράγοντες όπως χαμηλά επίπεδα σήματος, κίνηση κάμερας ή υποκειμένου, χρήση φλας, διαφορετικούς τόνους δέρματος, ποικίλα επίπεδα συμπίεσης και λήψεις τόσο σε εσωτερικούς όσο και σε εξωτερικούς χώρους.

Ακόμα κι αν ένας επίδοξος παραχαράκτης γνωρίζει την ύπαρξη της τεχνικής και αποκτήσει τους κωδικούς, το έργο του παραμένει δυσκολότερο. Δεν αρκεί να δημιουργήσει ένα πλαστό βίντεο — πρέπει να παραποιήσει με συνέπεια και τα αντίστοιχα code videos, εξασφαλίζοντας ότι όλα συμφωνούν μεταξύ τους. Όπως παραδέχεται ο Davis, το πρόβλημα της οπτικής παραπληροφόρησης δεν πρόκειται να εξαφανιστεί. Αντίθετα, οι τεχνικές παραποίησης θα γίνονται ολοένα και πιο εξελιγμένες, καθιστώντας απαραίτητη την ανάπτυξη καινοτόμων μεθόδων προστασίας της οπτικής αλήθειας.

[via]

Loading