Το ψηφιακό έγκλημα αλλάζει πρόσωπο και η Τεχνητή Νοημοσύνη (AI) δεν αποτελεί πλέον απλώς ένα πεδίο πειραματισμού για τους κυβερνοεγκληματίες, αλλά ένα βασικό εργαλείο στο καθημερινό τους οπλοστάσιο. Σε μια αποκαλυπτική έκθεση που δημοσίευσε η ομάδα Google Threat Intelligence (GTIG), ο τεχνολογικός κολοσσός χτυπάει καμπανάκι για το πώς κακόβουλοι δρώντες αξιοποιούν εργαλεία όπως το Gemini για να επιταχύνουν τις επιθέσεις τους, να βελτιώσουν την αποτελεσματικότητά τους και να παρακάμψουν τα μέτρα ασφαλείας.
Η έκθεση, με τίτλο που εστιάζει στην «Απόσταξη, Πειραματισμό και Ενσωμάτωση» (Distillation, Experimentation, and Integration), ρίχνει φως στο σκιώδες παιχνίδι γάτας και ποντικιού που εξελίσσεται στον κυβερνοχώρο. Αντί να βλέπουμε υπερ-χάκερ να δημιουργούνται από το μηδέν χάρη στην AI, βλέπουμε έμπειρους εγκληματίες να γίνονται πιο παραγωγικοί, χρησιμοποιώντας τα Μεγάλα Γλωσσικά Μοντέλα (LLMs) για να γράφουν κώδικα, να διορθώνουν σφάλματα σε κακόβουλο λογισμικό και να στήνουν απάτες με πρωτοφανή ταχύτητα.
Η «απόσταξη» της γνώσης: Μια νέα απειλή
Ένα από τα πιο ανησυχητικά ευρήματα της έκθεσης είναι η τάση της «απόσταξης» (distillation). Οι χάκερ δεν αρκούνται στη χρήση των δημόσιων μοντέλων AI, τα οποία διαθέτουν δικλείδες ασφαλείας. Αντιθέτως, προσπαθούν να «κλέψουν» την αρχιτεκτονική και τη λογική μοντέλων όπως το Gemini, προκειμένου να εκπαιδεύσουν δικά τους, μικρότερα και ελαφρύτερα μοντέλα.
Αυτά τα «κλωνοποιημένα» εργαλεία λειτουργούν χωρίς τους ηθικούς φραγμούς που θέτουν εταιρείες όπως η Google. Στόχος τους είναι να έχουν ένα ιδιωτικό AI που θα απαντά σε ερωτήματα όπως «πώς να φτιάξω έναν ιό» ή «πώς να σπάσω αυτόν τον κωδικό», χωρίς να ενεργοποιούνται τα φίλτρα προστασίας που μπλοκάρουν τέτοια αιτήματα στις εμπορικές εκδόσεις. Η Google χαρακτηρίζει αυτή την πρακτική ως παραβίαση πνευματικής ιδιοκτησίας και εντείνει τις προσπάθειες για τον εντοπισμό τέτοιων δραστηριοτήτων.
Κοινωνική Μηχανική και Deepfakes: Το τέλος των «κακογραμμένων» emails
Μέχρι πρότινος, ένα phishing email ήταν συχνά εύκολο να εντοπιστεί λόγω των ορθογραφικών λαθών ή της κακής σύνταξης. Αυτό το πλεονέκτημα για τους αμυνόμενους χάνεται. Η έκθεση επισημαίνει ότι οι κυβερνοεγκληματίες χρησιμοποιούν την AI για να μεταφράζουν άψογα τα κείμενά τους σε οποιαδήποτε γλώσσα και να προσαρμόζουν το ύφος τους ώστε να είναι πειστικοί, είτε υποδύονται έναν CEO είτε έναν υπάλληλο τράπεζας.
Επιπλέον, η απειλή επεκτείνεται στα πολυμέσα. Οι απάτες τύπου «pig butchering» (μακροχρόνιες απάτες επενδύσεων σε κρυπτονομίσματα) ενισχύονται με τη χρήση deepfakes. Οι δράστες δημιουργούν ψεύτικο υλικό ήχου και βίντεο για να χτίσουν εμπιστοσύνη με τα θύματά τους, κάνοντας την απάτη να φαίνεται απόλυτα αληθοφανής. Η ικανότητα της AI να παράγει ρεαλιστικό περιεχόμενο δίνει στους εγκληματίες τη δυνατότητα να στοχεύουν θύματα παγκοσμίως, ξεπερνώντας το γλωσσικό εμπόδιο.
Κακόβουλο λογισμικό με βοηθό την AI
Στο τεχνικό κομμάτι, η Google εντόπισε περιπτώσεις όπου η AI χρησιμοποιείται για την ανάπτυξη malware. Ένα χαρακτηριστικό παράδειγμα είναι η κακόβουλη καμπάνια που χρησιμοποιεί το εργαλείο «HONESTCUE», το οποίο αξιοποιεί την AI για να μπερδεύει τον κώδικα και να τον κάνει δυσανάγνωστο στα antivirus.
Οι χάκερ χρησιμοποιούν τα LLMs ως «βοηθούς προγραμματισμού» για να εντοπίζουν λάθη στα scripts τους ή να μετατρέπουν τον κώδικα από τη μια γλώσσα προγραμματισμού στην άλλη. Παρόλο που η Google τονίζει ότι η AI δεν γράφει ακόμα τέλειο, αυτόνομο malware από το μηδέν, η βοήθεια που προσφέρει μειώνει δραματικά τον χρόνο που χρειάζεται ένας χάκερ για να προετοιμάσει μια επίθεση.
Η απάντηση της Google: AI εναντίον... AI
Δεν είναι όμως όλα μαύρα. Η ίδια τεχνολογία που εξυπηρετεί τους επιτιθέμενους, αποτελεί και το ισχυρότερο όπλο των αμυνόμενων. Η Google χρησιμοποιεί το Gemini για να αναλύει τεράστιους όγκους δεδομένων και να εντοπίζει απειλές πολύ γρηγορότερα από ό,τι θα μπορούσε οποιοσδήποτε ανθρώπινος αναλυτής.
Η εταιρεία έχει αναπτύξει συστήματα που αναγνωρίζουν πότε ένα μοντέλο δέχεται επίθεση «απόσταξης» ή πότε χρησιμοποιείται για τη δημιουργία κακόβουλου περιεχομένου. Όταν εντοπίζονται τέτοιες συμπεριφορές, οι λογαριασμοί των δραστών απενεργοποιούνται και τα δεδομένα χρησιμοποιούνται για την περαιτέρω θωράκιση των μοντέλων.
Το μέλλον της κυβερνοασφάλειας
Το συμπέρασμα της έκθεσης είναι ότι η Τεχνητή Νοημοσύνη λειτουργεί ως πολλαπλασιαστής ισχύος. Δεν δημιουργεί απαραίτητα νέες κατηγορίες εγκλημάτων, αλλά κάνει τα υπάρχοντα εγκλήματα πιο εξελιγμένα και πιο δύσκολα στην αντιμετώπιση.
Για τους απλούς χρήστες και τις επιχειρήσεις, αυτό σημαίνει ότι η επαγρύπνηση πρέπει να αυξηθεί. Οι παλιοί κανόνες ασφαλείας (έλεγχος του αποστολέα, καχυποψία σε ξαφνικά μηνύματα) παραμένουν σε ισχύ, αλλά πλέον πρέπει να είμαστε υποψιασμένοι ακόμα και για περιεχόμενο που μοιάζει απόλυτα αυθεντικό. Καθώς η AI ενσωματώνεται βαθύτερα στις ψηφιακές μας ζωές, η μάχη για την ασφάλεια θα κριθεί στο ποιος –ο χάκερ ή ο αμυνόμενος– θα αξιοποιήσει καλύτερα τις δυνατότητες των αλγορίθμων.