Σύνοψη
- Οι απατεώνες χρησιμοποιούν τεχνητά νευρωνικά δίκτυα για να κλωνοποιήσουν ανθρώπινες φωνές με μόλις τρία έως πέντε δευτερόλεπτα ηχητικού δείγματος.
- Τα οπτικά σφάλματα των deepfakes περιλαμβάνουν λάθη στον φωτισμό, αφύσικο ανοιγοκλείσιμο των ματιών και προβλήματα στον συγχρονισμό των χειλιών (lip-sync).
- Τα ακουστικά σημάδια εντοπισμού περιλαμβάνουν επίπεδο, ηλεκτρονικό τόνο και παντελή απουσία φυσικών ήχων αναπνοής.
- Η πιο αξιόπιστη δοκιμή σε πραγματικό χρόνο είναι να ζητήσετε από τον συνομιλητή να γυρίσει το κεφάλι του στο πλάι, κίνηση που συχνά «σπάει» την ψηφιακή εικόνα.
Η επιδρομή των κλώνων: Πώς να αναγνωρίσετε ένα Deepfake
Οι εφαρμογές για τη δημιουργία ψεύτικων βίντεο και φωνητικών μηνυμάτων είναι πλέον προσβάσιμες σε όλους. Παράλληλα, πολλοί απατεώνες έχουν τελειοποιήσει την κατασκευή deepfakes. Κανείς δεν μπορεί να παραμείνει ασφαλής από τη συγκεκριμένη απειλή, καθώς τα σύγχρονα τεχνητά νευρωνικά δίκτυα είναι ικανά να κλωνοποιούν μια ανθρώπινη φωνή έχοντας στη διάθεσή τους μόλις τρία έως πέντε δευτερόλεπτα ήχου. Επιπρόσθετα, η τεχνολογία επιτρέπει τη δημιουργία πολύ πειστικών βίντεο από ελάχιστες φωτογραφίες. Η Kaspersky υπογραμμίζει αυτούς τους κινδύνους, έχοντας προστατεύσει πάνω από ένα δισεκατομμύριο συσκευές από αναδυόμενες απειλές.
Πώς συλλέγονται τα δεδομένα για τα Deepfakes;
Οι απατεώνες συλλέγουν υλικό για deepfakes από δημόσιες πηγές. Σε αυτές περιλαμβάνονται τα διαδικτυακά σεμινάρια, τα δημόσια βίντεο σε κοινωνικά δίκτυα, τα κανάλια και οι online ομιλίες. Μερικές φορές, οι επιτιθέμενοι καλούν τα πιθανά θύματα και τα κρατούν όσο περισσότερο μπορούν στη γραμμή. Ο στόχος είναι να συλλέξουν αρκετά δεδομένα και να πετύχουν την καλύτερη δυνατή κλωνοποίηση της φωνής τους. Η παραβίαση του λογαριασμού κάποιου που στέλνει συχνά μηνύματα μέσω ηχητικών ή βίντεο αποτελεί το «μεγάλο βραβείο» για τους απατεώνες. Με πρόσβαση σε τέτοια αρχεία μπορούν να δημιουργήσουν πολύ ρεαλιστικά ψεύτικα μηνύματα. Το αποτέλεσμα είναι ότι το 95% των ανθρώπων δεν μπορεί να τα ξεχωρίσει από τα πραγματικά. Αν βλέπετε ένα γνώριμο πρόσωπο με την αντίστοιχη φωνή που σας είναι γνωστή, αλλά σας κάνει περίεργες ή ασυνήθιστες ερωτήσεις, τότε υπάρχει πιθανότητα να πρόκειται για απάτη deepfake.
Οπτικά σημάδια αναγνώρισης
Υπάρχουν συγκεκριμένα οπτικά σημάδια που μπορούν να σας βοηθήσουν να εντοπίσετε την απάτη.
- Προβλήματα σε φωτισμό και σκιές: Τα deepfakes συχνά αποτυπώνουν λάθος τη φυσική του φωτός. Η κατεύθυνση των σκιών μπορεί να μην ταιριάζει με το φως ή οι αντανακλάσεις στο δέρμα να φαίνονται αφύσικες. Για παράδειγμα, κάποιος μπορεί να είναι γυρισμένος προς το παράθυρο, αλλά το πρόσωπό του να φωτίζεται σαν να βρίσκεται σε στούντιο.
- Θολά πρόσωπα: Δώστε προσοχή στη γραμμή των μαλλιών. Τα deepfakes συχνά εμφανίζουν θόλωμα, τρεμόπαιγμα ή αφύσικες μεταβάσεις χρώματος σε αυτή την περιοχή. Αυτές οι παραμορφώσεις προκαλούνται από σφάλματα στον αλγόριθμο που τοποθετεί το κλωνοποιημένο πρόσωπο πάνω στο αρχικό.
- Αφύσικο ανοιγοκλείσιμο ματιών: Ένας άνθρωπος ανοιγοκλείνει τα μάτια του κατά μέσο όρο 10 έως 20 φορές το λεπτό. Ορισμένα deepfakes το κάνουν πολύ σπάνια, ενώ άλλα υπερβολικά συχνά. Οι κινήσεις των βλεφάρων μπορεί να είναι πολύ απότομες και ασυγχρόνιστες. Ένα «γυάλινο» ή «άδειο» βλέμμα είναι χαρακτηριστικό. Σε φωτογραφίες, συγκρίνετε τις αντανακλάσεις στις ίριδες, καθώς στα deepfakes συχνά διαφέρουν.
- Προβλήματα συγχρονισμού (Lip-sync): Ακόμα και τα υψηλής ποιότητας deepfakes κάνουν λάθη στον συγχρονισμό της ομιλίας με τις κινήσεις των χειλιών. Μια καθυστέρηση μόλις 100 χιλιοστών του δευτερολέπτου είναι ορατή. Συχνά εντοπίζεται περίεργο σχήμα των χειλιών όταν προφέρονται τα γράμματα μ, φ ή τ.
- Στατικό φόντο και ανέκφραστα πρόσωπα: Στα βίντεο AI, το φόντο συχνά φαίνεται μη ρεαλιστικό, ακίνητο ή υπερβολικά θολό. Επίσης, τα deepfakes είναι δύσκολο να μιμηθούν συναισθήματα. Τα χαμόγελα φαίνονται παγωμένα και απουσιάζουν οι μικρές ρυτίδες, σαν τα άτομα να έχουν κάνει botox.
Ακουστικά σημάδια εντοπισμού
Αν και η τεχνολογία έχει εξελιχθεί, εξακολουθούν να υπάρχουν σημάδια που προδίδουν τις τεχνητές φωνές. Αν η φωνή ακούγεται ασυνήθιστα επίπεδη, χωρίς φυσικές αλλαγές στον τόνο ή έχει ηλεκτρονική χροιά, πιθανότατα πρόκειται για deepfake. Η πραγματική ανθρώπινη ομιλία έχει πολλές μικρές μεταβολές και ατέλειες. Οι άνθρωποι κάνουν μικρές παύσεις, αναπνέουν ανάμεσα στις φράσεις και παράγουν μικρά βηξίματα ή ρουθουνίσματα. Οι συνθετικές φωνές συχνά δεν έχουν αυτές τις λεπτομέρειες. Η ρομποτική ομιλία, οι απότομες διακοπές και η έλλειψη χαρακτηριστικής προφοράς είναι επίσης ενδείξεις. Συχνά, για να αποκρύψουν αυτά τα λάθη, οι απατεώνες προσποιούνται κακή σύνδεση στέλνοντας αρχεία με θόρυβο.
Συμπεριφορικές ενδείξεις σε πραγματικό χρόνο
Η παρατήρηση των κινήσεων κατά τη διάρκεια μιας κλήσης είναι ίσως ο πιο αξιόπιστος τρόπος εντοπισμού.
- Περιστροφή κεφαλιού: Ζητήστε από το άτομο να γυρίσει το κεφάλι του στο πλάι. Τα deepfakes δημιουργούνται από πορτρέτα, οπότε η κίνηση προκαλεί παραμόρφωση. Η AI startup Metaphysic.ai επιβεβαιώνει ότι αυτό είναι προς το παρόν το πιο αξιόπιστο τεστ.
- Αφύσικες κινήσεις χεριών: Ζητήστε του να κουνήσει το χέρι μπροστά από το πρόσωπό του. Τα deepfakes δυσκολεύονται, και το χέρι μπορεί να περνά «σαν φάντασμα» μέσα από αντικείμενα ή να εξαφανιστεί.
- Κοινή χρήση οθόνης: Ζητήστε κοινή χρήση οθόνης, κάτι που χωρίς πρόσβαση στη φυσική συσκευή είναι σχεδόν αδύνατο να παραποιηθεί.
- Δύσκολες ερωτήσεις: Κάντε ερωτήσεις όπως «Πού πήγαμε διακοπές πριν από δύο χρόνια;». Ένας απατεώνας δεν θα μπορέσει να απαντήσει. Επίσης, η χρήση ενός μυστικού οικογενειακού κωδικού είναι εξαιρετικά πρακτική.
Τι πρέπει να κάνετε
Αν έχετε έστω και την παραμικρή υποψία, τερματίστε τη συνομιλία και καλέστε ξανά τον αριθμό του ατόμου μέσω άλλης εφαρμογής. Αν δυσανασχετήσει, πείτε απλώς ότι χάθηκε η σύνδεση. Μην πιεστείτε να στείλετε χρήματα, καθώς οι απατεώνες δημιουργούν ψεύτικη αίσθηση επείγοντος. Τέλος, αν λάβετε ύποπτη κλήση από γνωστή επαφή, ενημερώστε το άτομο ότι ο λογαριασμός του ίσως έχει παραβιαστεί, βοηθώντας το να ανακτήσει την πρόσβαση και να προστατεύσει τους υπολοίπους.
Η άποψη του Techgear
Η πραγματικότητα στην ελληνική αγορά είναι ότι οι τηλεφωνικές απάτες και το phishing εξελίσσονται ραγδαία, και τα deepfakes αποτελούν το επόμενο φυσικό στάδιο αυτής της απειλής. Η συμβουλή της Kaspersky για την "περιστροφή του κεφαλιού" κατά τη διάρκεια βιντεοκλήσεων είναι μια εξαιρετικά πρακτική, μηδενικού κόστους μέθοδος επαλήθευσης που όλοι πρέπει να υιοθετήσουν. Ιδιαίτερη προσοχή απαιτείται στις εταιρικές τηλεδιασκέψεις στην Ελλάδα (π.χ. απάτες επιπέδου CEO fraud), όπου η πίεση χρόνου οδηγεί σε βιαστικές μεταφορές χρημάτων.
Μάθετε πώς να αναγνωρίζετε αμέσως τις απάτες deepfake σε βίντεο και φωνητικές κλήσεις. Οπτικά, ακουστικά και συμπεριφορικά σημάδια προστασίας σύμφωνα με την Kaspersky.
Το Techgear συνιστά την άμεση καθιέρωση εταιρικών και οικογενειακών "λέξεων ασφαλείας" για τηλεφωνικές ταυτοποιήσεις.