up_icon
Kaspersky Security Internet

Deepfake και Fake Videos - Πώς να προστατευτείτε

16 Νοεμβρίου 2020 Techgear Team

Deepfake και Fake Videos - Πώς να προστατευτείτε

Τα deepfake βίντεο προέρχονται από τη λέξη «deep = βαθιά» από τη «βαθιά μάθηση» και «fake = ψεύτικο»». Η βαθιά μάθηση είναι μια προηγμένη μέθοδος Τεχνητής Νοημοσύνης (AI) που χρησιμοποιεί πολλαπλά επίπεδα αλγορίθμων μηχανικής εκμάθησης για την εξαγωγή δυνατοτήτων προοδευτικά υψηλότερου επιπέδου από μη δομημένα δεδομένα - όπως το ανθρώπινο πρόσωπο.

Ο Μανώλης Σφακιανάκης, Πρόεδρος και Ιδρυτής του Ινστιτούτου Διεθνούς Κυβερνοασφάλειας (CSI Institute), σχολίασε: 

Πλέον το deepfake γίνεται ολοένα και ισχυρότερη απειλή που ανθεί κυρίως σε χώρες όπου δεν υπάρχει σαφές νομοθετικό πλαίσιο. Είναι τέτοια η φύση του που μπορεί ακόμα και… να «τρελάνει» ανθρώπους αναίτια και απρόκλητα, μετατρέποντάς τους σε παραλήπτες εκβιαστικών μηνυμάτων. Και όσο τα deepfakes γίνονται πιο προσιτά, οι άνθρωποι θα γίνονται περισσότερο αγχώδεις διότι αισθάνονται και άλλον τεχνολογικό κίνδυνο προ των πυλών. Εδώ θα χρειαστούν επειγόντως την άμεση βοήθεια των ειδικών και εξειδικευμένων εταιρειών για τη δημιουργία ενός αποτελεσματικού προγράμματος ψηφιακής ασφάλειας, που θα εντοπίζει και παράλληλα θα ενημερώνει για ευρήματα που αφορούν το επερχόμενο νέο φαινόμενο. Αυτό λοιπόν το φαινόμενο έρχεται και στη χώρα μας μέσα από εφαρμογές οι οποίες είναι γνωστές σε όλους μας και το βασικότερο είναι ότι έχουν αναστατώσει τουλάχιστον 100.000 διαδικτυακούς χρήστες παγκοσμίως μέχρι στιγμής. Εύχομαι να θεσπιστεί στη χώρα μας άμεσα σχετικό νομοθετικό πλαίσιο και να μην επαναπαυθούμε στην καταπολέμηση αυτού από τις διάφορες εταιρείες κοινωνικής δικτύωσης και τις δημοφιλείς μηχανές αναζήτησης

Για παράδειγμα, ένα AI μπορεί να συλλέξει δεδομένα σχετικά με τις φυσικές σας κινήσεις. Αυτά τα δεδομένα μπορούν στη συνέχεια να υποβληθούν σε επεξεργασία προκειμένου να δημιουργηθεί ένα βίντεο deepfake μέσω ενός GAN (Generative Adversarial Network). Αυτό είναι ένα άλλο είδος εξειδικευμένου συστήματος μηχανικής μάθησης. Δύο νευρωνικά δίκτυα χρησιμοποιούνται για να ανταγωνίζονται μεταξύ τους για την εκμάθηση των χαρακτηριστικών ενός σετ εκπαίδευσης (για παράδειγμα, φωτογραφίες προσώπων) και στη συνέχεια για τη δημιουργία νέων δεδομένων με τα ίδια χαρακτηριστικά (νέες «φωτογραφίες»).

Ο κ. Βασίλης Βλάχος, Channel Manager της Kaspersky για Ελλάδα και Κύπρο, προειδοποιεί:

Επειδή ένα τέτοιο δίκτυο συνεχίζει να δοκιμάζει τις εικόνες που δημιουργεί σε αντιπαραβολή με το σετ εκπαίδευσης, οι ψεύτικες εικόνες γίνονται όλο και πιο πειστικές. Αυτό καθιστά το deepfake μια πιο ισχυρή απειλή. Επιπλέον, τα GAN μπορούν να παραποιήσουν κι άλλα δεδομένα εκτός από φωτογραφίες και βίντεο. Στην πραγματικότητα, οι ίδιες τεχνικές μηχανικής εκμάθησης και σύνθεσης deepfake μπορούν να χρησιμοποιηθούν για την παραποίηση φωνών. Είναι εύκολο να καταλάβουμε πώς οι ψηφιακοί εγκληματίες μπορούν να το χρησιμοποιήσουν προς όφελός τους

Πώς μπορούμε να προστατευθούμε από τα Deepfake;

Η νομοθεσία έχει ήδη αρχίσει να αντιμετωπίζει τις απειλές των βίντεο deepfake. Για παράδειγμα, στην πολιτεία της Καλιφόρνια, έχουν ψηφιστεί δύο νομοσχέδια που καθιστούν παράνομες πτυχές του Deepfake - το AB-602 απαγόρευσε τη χρήση σύνθεσης ανθρώπινης εικόνας για πορνογραφία χωρίς τη συγκατάθεση των ανθρώπων που απεικονίζονται και το AB-730 απαγόρευσε τη εκμετάλλευση εικόνων πολιτικών υποψηφίων εντός 60 ημερών από τις εκλογές.

Οι εταιρείες ψηφιακής ασφάλειας έρχονται συνεχώς με περισσότερους και καλύτερους αλγόριθμους ανίχνευσης. Αυτοί αναλύουν την εικόνα του βίντεο και εντοπίζουν τις μικροσκοπικές παραμορφώσεις που δημιουργούνται στη διαδικασία «πλαστογράφησης». Για παράδειγμα, οι τρέχοντες συνθέτες deepfake διαμορφώνουν ένα δισδιάστατο πρόσωπο και, στη συνέχεια, το παραμορφώνουν ώστε να ταιριάζει με την τρισδιάστατη προοπτική του βίντεο. Κοιτάζοντας προς τα που δείχνει η μύτη είναι ένας βασικός τρόπος ανίχνευσης.

Τα βίντεο deepfake βρίσκονται ακόμη σε ένα στάδιο όπου μπορείτε να εντοπίσετε μόνοι σας τα σημάδια. Αναζητήστε τα ακόλουθα χαρακτηριστικά ενός βίντεο Deepfake, όπως η αδέξια κίνηση, οι αλλαγές στον φωτισμό από το ένα πλαίσιο στο άλλο, οι αλλαγές στον τόνο του δέρματος, το παράξενο ή καθόλου ανοιγόκλεισμα ματιών, τα χείλη που δεν συγχρονίζονται με την ομιλία ή άλλα ψηφιακά αντικείμενα στην εικόνα.

Ο Βασίλης Βλάχος επιμένει ότι οι καλές διαδικασίες ασφάλειας είναι η καλύτερη προστασία: 

Οι καλές βασικές διαδικασίες ασφάλειας είναι εξαιρετικά αποτελεσματικές στην αντιμετώπιση του deepfake. Για παράδειγμα, η ενσωμάτωση αυτόματων ελέγχων σε οποιαδήποτε διαδικασία εκταμίευσης χρημάτων θα είχε σταματήσει πολλές απάτες deepfake και παρόμοιες. Όλοι πρέπει να εκπαιδευτούν και να ενημερωθούν καλά πώς να εντοπίσουν ένα deepfake, ενώ οι εταιρείες πρέπει να διασφαλίζουν ότι οι εργαζόμενοι γνωρίζουν πώς λειτουργεί το deepfaking και τις προκλήσεις που μπορεί να φέρει. Θα πρέπει επίσης να έχουν καλά βασικά πρωτόκολλα με βάση τον κανόνα «trust but verify». Η σκεπτικιστική στάση απέναντι στα ηχητικά μηνύματα και τα βίντεο δεν εγγυάται ότι οι εργαζόμενοι δεν θα εξαπατηθούν ποτέ, αλλά μπορεί να σας βοηθήσει να αποφύγετε πολλές παγίδες

Πόσο πειστικά έχουν γίνει τα deepfakes

Τα πρώιμα βίντεο deepfake φαίνονταν γελοία, αλλά η τεχνολογία έχει εξελιχθεί αρκετά ώστε τέτοια μέσα να γίνουν τρομακτικά πειστικά. Ένα από τα πιο αξιοσημείωτα παραδείγματα τρομακτικά πειστικού deepfake από το 2018 ήταν ο ψεύτικος Μπαράκ Ομπάμα που μιλούσε για τα deepfakes. Στα μέσα του 2019, είδαμε ένα σύντομο βίντεο του ψεύτικου Mark Zuckerberg να είναι αξιοπερίεργα ειλικρινής σχετικά με την τρέχουσα κατάσταση απορρήτου.

Για να καταλάβετε πόσο καλή έχει γίνει η τεχνολογία, απλώς παρακολουθήστε το παρακάτω βίντεο. Ο ιμπρεσιονιστής Jim Meskimen το δημιούργησε σε συνεργασία με τον καλλιτέχνη deepfake Sham00k. Ο πρώτος ήταν υπεύθυνος για τις φωνές και ο δεύτερος εφάρμοσε τα πρόσωπα περίπου 20 διασημοτήτων στο βίντεο χρησιμοποιώντας λογισμικό deepfake. Το αποτέλεσμα είναι πραγματικά συναρπαστικό.

Τον Οκτώβριο, έρευνα σε μια υπηρεσία bot που δημιουργεί ψεύτικα γυμνά ανέδειξε ότι η πιο επείγουσα επικίνδυνη τάση "deepfakes" στο Διαδίκτυο δεν είναι η παραπληροφόρηση – αλλά το εκδικητικό πορνό. Η εταιρεία παρακολούθησης Deepfake «Sensity», προηγουμένως γνωστή ως Deeptrace, αποκάλυψε ότι είχε ανακαλύψει μια τεράστια επιχείρηση διάδοσης γυμνών εικόνων γυναικών που δημιουργούνται από AI και, σε ορισμένες περιπτώσεις, ανηλίκων κοριτσιών. Η υπηρεσία λειτουργούσε κυρίως στην κρυπτογραφημένη εφαρμογή μηνυμάτων Telegram χρησιμοποιώντας ένα bot που λειτουργεί με AI. Οι χρήστες είχαν τη δυνατότητα να στέλνουν στο bot τη φωτογραφία μιας γυναίκας που ήθελαν να δουν γυμνή. Στη συνέχεια, το bot δημιουργούσε ένα ψεύτικο γυμνό σώμα στο οποίο ενσωμάτωνε την αρχική εικόνα της εν λόγω γυναίκας.

Η Sensity ανέφερε πέρυσι ότι το 96% των βίντεο deepfake online ήταν μη συναινετική πορνογραφία. Ο Διευθύνων Σύμβουλος της Sensity, Giorgio Patrini, ανέφερε στο Business Insider ότι το ποσοστό δεν έχει αλλάξει.

Techgear Team

ΣΧΟΛΙΑΣΤΕ
ΣΧΟΛΙΑ
read more

Πώς το ChatGPT αλλάζει τον κόσμο της κυβερνοασφάλειας

26 Ιανουαρίου 2023 Techgear Team

Η Kaspersky διερευνά τον τρόπο με τον οποίο η ικανότητα πρόσβασης του ευρύτερου κοινού στο ChatGPT ενδέχεται να μεταβάλει τους καθιερωμένους κανόνες του κόσμου της κυβερνοασφάλειας. Η διερεύνηση αυτή ...

1 στους 2 χρήστες κρυπτονομισμάτων έχει πέσει θύμα κυβερνοεγκλήματος

24 Ιανουαρίου 2023 Techgear Team

Η Kaspersky διερεύνησε τις κυρίαρχες τάσεις στον χώρο των κρυπτονομισμάτων, διαπιστώνοντας ότι μόλις το 25% των ερωτηθέντων ένιωθε επαρκώς ενημερωμένο σχετικά με πιθανές απειλές από τη χρήση κρυπτονομισμάτων ...

The Last of Us: Οι εγκληματίες του κυβερνοχώρου ξαφρίζουν τα πορτοφόλια των fans

12 Ιανουαρίου 2023 Techgear Team

Το "The Last of Us", μία από τις πιο πολυαναμενόμενες σειρές – η οποία βασίζεται στο ομώνυμο παιχνίδι του PlayStation - θα κυκλοφορήσει τελικά από το HBO στις 15 Ιανουαρίου του 2023. Αντιλαμβανόμενοι πως με την...

5 υγιείς ψηφιακές συνήθειες για το 2023

10 Ιανουαρίου 2023 Techgear Team

Οι πρώτες ημέρες του Ιανουαρίου αποτελούν μια ιδανική στιγμή για να αρχίσετε να υιοθετείτε υγιείς ψηφιακές συνήθειες, ενώ έχετε ακόμα χρόνο να υποσχεθείτε στον εαυτό σας ότι θα επιχειρήσετε να τις τηρήσετε κατά...

God of War, Wednesday και Beluga Cat – Τι τράβηξε το ενδιαφέρον των παιδιών το φθινόπωρο του 2022

20 Δεκεμβρίου 2022 Techgear Team

Μια νέα έρευνα της Kaspersky αποκαλύπτει τα πιο δημοφιλή ενδιαφέροντα των παιδιών για το φθινόπωρο του 2022. Αυτή τη φορά, αναλύθηκαν τα δεδομένα από τις αναζητήσεις στο YouTube, με τη "Wednesday" του Netflix ...

Τα φθηνά gadget στο στόχαστρο του stalkerware

15 Δεκεμβρίου 2022 Techgear Team

Με την υπόθεση των γυναικών που μήνυσαν την Apple για παρακολούθηση μέσω AirTags να βρίσκεται στην επικαιρότητα, ο Vladimir Dashchenko, Security Evangelist στην Kaspersky, αναλύει το ευρύτερο τοπίο σχετικά με ...

Καθημερινές επιθέσεις με 400,000+ κακόβουλα αρχεία, σημαντική αύξηση στο ransomware

13 Δεκεμβρίου 2022 Techgear Team

Το 2022 τα συστήματα ανίχνευσης της Kaspersky ανακάλυψαν ότι κάθε μέρα διανέμονται κατά μέσο όρο 400.000 κακόβουλα αρχεία, μέγεθος που αντιστοιχεί σε αύξηση της τάξης του 5% σε σύγκριση με το 2021. Ο αριθμός ...

Κυβερνοεπιθέσεις: Κορυφαία απειλή για τις μεγάλες ελληνικές επιχειρήσεις

07 Δεκεμβρίου 2022 Techgear Team

Ενδιαφέροντα ευρήματα προκύπτουν από διεθνή έρευνα της Kaspersky σχετικά με τον τρόπο που ανταποκρίνονται τα στελέχη C-suite επιπέδου απέναντι στη διαρκώς εξελισσόμενη φύση των απειλών κατά της κυβερνοασφάλειας...

Black Friday: Διπλασιάστηκαν οι κλοπές τραπεζικών διαπιστευτηρίων το 2022

25 Νοεμβρίου 2022 Techgear Team

Οι ερευνητές της Kaspersky ανέφεραν ότι ο αριθμός των επιθέσεων μέσω Banking Trojans που κλέβουν δεδομένα πληρωμών διπλασιάστηκε το 2022 σε σύγκριση με το 2021, αγγίζοντας τις σχεδόν 20 εκατομμύρια επιθέσεις. ...

Διαδικτυακός εκφοβισμός: Πώς μπορούν γονείς και παιδιά να προστατευτούν

22 Νοεμβρίου 2022 Techgear Team

Ο Νοέμβριος είναι ένας μήνας κατά τον οποίο ο διαδικτυακός εκφοβισμός συζητείται ευρέως σε όλον τον κόσμο με εκδηλώσεις όπως η Παγκόσμια Ημέρα κατά της Βίας και του Εκφοβισμού, η εβδομάδα αφιερωμένη στον αγώνα ...

Loader
please wait
techgear_icon