Στην ταινία Her, ο πρωταγωνιστής ξεκινά μια ρομαντική σχέση με ένα προηγμένο σύστημα τεχνητής νοημοσύνης, μια σχέση που αποδεικνύεται καταδικασμένη. Το 2013, το σενάριο αυτό φάνταζε καθαρά επιστημονική φαντασία. «Σήμερα, με την ταχεία εξέλιξη της γενετικής τεχνητής νοημοσύνης και των μεγάλων γλωσσικών μοντέλων (LLMs), δε μοιάζει πλέον τόσο μακρινό» προειδοποιεί ο Phil Muncaster από την ομάδα της παγκόσμιας εταιρίας ψηφιακής ασφάλειας ESET.
Οι εφαρμογές «AI companion» πολλαπλασιάζονται με ταχύ ρυθμό. Καθώς πλησιάζει ο Άγιος Βαλεντίνος, όλο και περισσότεροι στρέφονται σε ψηφιακούς συντρόφους για επικοινωνία και οικειότητα.
Ωστόσο, η στενή σύνδεση με ένα AI chatbot συνοδεύεται από σοβαρά ερωτήματα. Πού αποθηκεύονται οι προσωπικές συνομιλίες; Ποιος έχει πρόσβαση σε αυτές; Μπορούν να διαρρεύσουν σε τρίτους ή να αποτελέσουν στόχο κυβερνοεπιθέσεων;
Οι απαντήσεις δεν είναι πάντα ξεκάθαρες. Ο ρομαντισμός στην εποχή της τεχνητής νοημοσύνης μπορεί να είναι συναρπαστικός. Το ερώτημα είναι αν είστε έτοιμοι να αναλάβετε το ρίσκο που τον συνοδεύει.
Ψάχνοντας για (ψηφιακή) αγάπη
Οι εφαρμογές AI companion ανταποκρίνονται σε μια διαρκώς αυξανόμενη ζήτηση της αγοράς, εξηγεί ο Muncaster από την ESET. Οι «AI φιλενάδες» και οι «AI φίλοι» αξιοποιούν τη δύναμη των μεγάλων γλωσσικών μοντέλων και της επεξεργασίας φυσικής γλώσσας για να αλληλεπιδρούν με ιδιαίτερα εξατομικευμένο τρόπο που προσομοιώνει φυσική συνομιλία. Υπηρεσίες όπως το Character.AI, το Nomi και το Replika φιλοδοξούν να καλύψουν ψυχολογικές και, σε ορισμένες περιπτώσεις, ρομαντικές ανάγκες των χρηστών τους. Δεν είναι δύσκολο να κατανοήσει κανείς γιατί ολοένα και περισσότεροι προγραμματιστές επιδιώκουν να εισέλθουν στον συγκεκριμένο τομέα.
Ακόμη και μεγάλες τεχνολογικές πλατφόρμες επιχειρούν να ανταποκριθούν στη ζήτηση. Η OpenAI ανακοίνωσε πρόσφατα ότι θα λανσάρει «ερωτικό περιεχόμενο για επαληθευμένους ενήλικες» και ενδέχεται να επιτρέψει τη δημιουργία “adult” εφαρμογών βασισμένων στο ChatGPT. Παράλληλα, η xAI του Elon Musk έχει προχωρήσει στη διάθεση ρομαντικών AI συντρόφων μέσω της εφαρμογής Grok.
Έρευνα που δημοσιεύθηκε τον Ιούλιο έδειξε ότι σχεδόν τα τρία τέταρτα των εφήβων έχουν χρησιμοποιήσει AI companions, ενώ οι μισοί τα χρησιμοποιούν τακτικά. Ακόμη πιο ανησυχητικό είναι το ότι το ένα τρίτο επιλέγει AI bots αντί για ανθρώπους για σοβαρές συζητήσεις, και το ένα τέταρτο έχει μοιραστεί προσωπικά δεδομένα μαζί τους, τονίζει ο Muncaster.
Τα ευρήματα αυτά προκαλούν ιδιαίτερη ανησυχία, καθώς αρχίζουν να εμφανίζονται και τα πρώτα προειδοποιητικά περιστατικά. Τον Οκτώβριο, ερευνητές αποκάλυψαν ότι δύο εφαρμογές AI companion, οι Chattee Chat και GiMe Chat, είχαν εκθέσει άθελά τους εξαιρετικά ευαίσθητα δεδομένα χρηστών.
Μια εσφαλμένη ρύθμιση σε broker του Apache Kafka άφησε τα συστήματα ροής και διανομής περιεχομένου των εφαρμογών χωρίς ελέγχους πρόσβασης. Ως αποτέλεσμα, οποιοσδήποτε μπορούσε δυνητικά να αποκτήσει πρόσβαση σε περισσότερες από 600.000 φωτογραφίες χρηστών, διευθύνσεις IP και εκατομμύρια προσωπικές συνομιλίες που ανήκαν σε περισσότερους από 400.000 χρήστες.
Οι κίνδυνοι της σχέσης με ένα bot
Οι κυβερνοεγκληματίες ενδέχεται να αξιοποιήσουν αυτή τη νέα ευκαιρία για εκβιασμό και απάτη. Οι πληροφορίες που μοιράζονται τα θύματα σε ρομαντικές συνομιλίες αποτελούν ιδανικό υλικό για εκβιασμό, ενώ εικόνες, βίντεο και ήχος μπορούν να χρησιμοποιηθούν σε deepfake εργαλεία με σκοπό sextortion. Προσωπικά δεδομένα μπορεί να πωληθούν στο σκοτεινό διαδίκτυο, ενώ, ανάλογα με το επίπεδο ασφάλειας της εφαρμογής, οι χάκερ ίσως αποκτήσουν πρόσβαση και σε αποθηκευμένες πληροφορίες πιστωτικών καρτών. Σύμφωνα με το Cybernews, ορισμένοι χρήστες ξοδεύουν χιλιάδες δολάρια σε αγορές εντός εφαρμογής.
Η προτεραιότητα πολλών προγραμματιστών φαίνεται να είναι περισσότερο στα έσοδα παρά στην κυβερνοασφάλεια. Αυτό δημιουργεί ευκαιρίες για εκμεταλλεύσιμες ευπάθειες ή λανθασμένες διαμορφώσεις. Κάποιοι δράστες μπορεί ακόμη και να δημιουργήσουν δικές τους κακόβουλες εφαρμογές companion, σχεδιασμένες να υποκλέπτουν δεδομένα ή να πείθουν τους χρήστες να αποκαλύψουν ευαίσθητες πληροφορίες.
Ακόμη και μια «ασφαλής» εφαρμογή μπορεί να απειλεί την ιδιωτικότητά σας. Ορισμένοι προγραμματιστές συλλέγουν όσο το δυνατόν περισσότερα δεδομένα, ώστε να τα πουλήσουν σε διαφημιστές. Οι αδιαφανείς πολιτικές απορρήτου συχνά δυσκολεύουν τον χρήστη να καταλάβει πώς ακριβώς χρησιμοποιούνται τα δεδομένα του. Επιπλέον, οι συνομιλίες σας μπορεί να χρησιμοποιηθούν για την εκπαίδευση ή τη βελτίωση του LLM, γεγονός που αυξάνει περαιτέρω τους κινδύνους.
Πως να προστατέψετε την οικογένεια σας
Είτε χρησιμοποιείτε οι ίδιοι εφαρμογές AI companions είτε ανησυχείτε για τα παιδιά σας, η βασική συμβουλή είναι η ίδια: θεωρήστε ότι αυτές οι εφαρμογές δεν διαθέτουν ενσωματωμένα μέτρα ασφάλειας ή προστασίας προσωπικών δεδομένων. Μην κοινοποιείτε πληροφορίες που δεν θα μοιραζόσασταν με έναν άγνωστο. Αυτό ισχύει ιδιαίτερα για φωτογραφίες ή βίντεο που μπορεί να είναι αποκαλυπτικά.
Ακόμη καλύτερα, αν σκοπεύετε να δοκιμάσετε μία από αυτές τις εφαρμογές, κάντε πρώτα έρευνα για όσες προσφέρουν την καλύτερη προστασία. Διαβάστε τις πολιτικές απορρήτου για να κατανοήσετε πώς συλλέγονται και χρησιμοποιούνται τα δεδομένα σας και αποφύγετε εφαρμογές με ασαφείς ή αμφίσημες πρακτικές. Μόλις επιλέξετε εφαρμογή, ενεργοποιήστε όλες τις διαθέσιμες λειτουργίες ασφαλείας, όπως την επαλήθευση δύο παραγόντων, και ρυθμίστε κατάλληλα τις επιλογές απορρήτου, π.χ., απενεργοποίηση της χρήσης συνομιλιών για εκπαίδευση μοντέλων.
Αν σας απασχολεί η ασφάλεια, η ιδιωτικότητα ή οι ψυχολογικές επιπτώσεις στους εφήβους, ξεκινήστε έναν ανοιχτό διάλογο μαζί τους. Εξηγήστε τους τους κινδύνους της υπερβολικής κοινοποίησης και τονίστε ότι οι εφαρμογές αυτές λειτουργούν με γνώμονα το κέρδος, όχι το συμφέρον των χρηστών. Ενδεχομένως να χρειαστεί να θέσετε όρια στον χρόνο χρήσης ή να εφαρμόσετε γονικούς ελέγχους, ειδικά αν οι μηχανισμοί επαλήθευσης ηλικίας και φιλτραρίσματος περιεχομένου δεν είναι επαρκείς.
Μένει να φανεί αν οι ρυθμιστικές αρχές θα θεσπίσουν αυστηρότερους κανόνες σχετικά με το τι επιτρέπεται στους προγραμματιστές αυτού του τομέα. Προς το παρόν, τα ρομαντικά AI bots λειτουργούν σε μια «γκρίζα ζώνη», αν και ο επικείμενος νόμος για την Ψηφιακή Δικαιοσύνη στην ΕΕ ενδέχεται να απαγορεύσει εξαιρετικά εθιστικές και εξατομικευμένες εμπειρίες.
Μέχρι οι προγραμματιστές και οι ρυθμιστικές αρχές να καλύψουν το κενό, ίσως το ασφαλέστερο είναι να μην αντιμετωπίζετε τους AI companions ως έμπιστους φίλους ή ως συναισθηματικό στήριγμα.