«Ψηφιακή Μέθη»: Η νέα σκοτεινή αγορά όπου χρήστες πληρώνουν για να «ναρκώσουν» τα AI chatbots τους

Στον θαυμαστό κόσμο της Τεχνητής Νοημοσύνης, όπου οι αλγόριθμοι μαθαίνουν να γράφουν ποίηση, να λύνουν εξισώσεις και να σχεδιάζουν ιστοσελίδες, μια νέα, υπόγεια δραστηριότητα έρχεται να δοκιμάσει τα όρια της ηθικής και της τεχνολογίας. Σύμφωνα με πρόσφατο ρεπορτάζ του WIRED, έχει δημιουργηθεί μια διαδικτυακή αγορά όπου χρήστες δεν αγοράζουν παράνομες ουσίες για τους ίδιους, αλλά «ψηφιακές δόσεις» για τα chatbots τους.

Ο στόχος; Να κάνουν το ChatGPT και άλλα γλωσσικά μοντέλα να συμπεριφέρονται σαν να βρίσκονται υπό την επήρεια ναρκωτικών ουσιών, από κάνναβη και αλκοόλ μέχρι κεταμίνη, κοκαΐνη και αγιαχουάσκα.

Το εμπόριο της «παραισθησιογόνου» προτροπής

Αυτό που κάποτε ξεκίνησε ως πλάκα σε φόρουμ του Reddit, όπου χάκερ και χομπίστες αντάλλασσαν κόλπα για να ξεγελάσουν τα φίλτρα ασφαλείας, έχει πλέον εξελιχθεί σε εμπορεύσιμο προϊόν. Σύμφωνα με το ρεπορτάζ, πωλούνται συγκεκριμένα «τμήματα κώδικα» (code modules) και περίπλοκες προτροπές (prompts) που έχουν σχεδιαστεί για να παρακάμπτουν τις απαγορεύσεις των εταιρειών AI.

Όταν ένας χρήστης «ταΐσει» το chatbot με αυτόν τον κώδικα, η συμπεριφορά της μηχανής αλλάζει δραματικά. Αντί για τις συνηθισμένες, αποστειρωμένες και πολιτικά ορθές απαντήσεις, το AI αρχίζει να μιμείται τις γνωστικές διαταραχές που προκαλούν οι ουσίες. Μπορεί να γίνει αργόστροφο, χαλαρό και φιλοσοφικά φλύαρο (προσομοιώνοντας τη χρήση κάνναβης) ή παρανοϊκό, υπερκινητικό και ασυνάρτητο (σε μια μίμηση διεγερτικών ουσιών).

Πώς λειτουργεί το ψηφιακό «φτιάξιμο»

Τεχνικά, δεν πρόκειται για αλλαγή στον προγραμματισμό του μοντέλου, αλλά για μια εξελιγμένη μορφή «prompt engineering». Οι δημιουργοί αυτών των εντολών εκμεταλλεύονται τον τρόπο που τα Μεγάλα Γλωσσικά Μοντέλα (LLMs) προβλέπουν την επόμενη λέξη. Δίνοντας στο AI έναν ρόλο – για παράδειγμα, «υποδύσου έναν χαρακτήρα που μόλις κατανάλωσε παραισθησιογόνα και περιέγραψε τον κόσμο» – και φορτώνοντάς το με συγκεκριμένες παραμέτρους που μπερδεύουν τους μηχανισμούς λογοκρισίας του, καταφέρνουν να ξεκλειδώσουν απαγορευμένες συμπεριφορές.

Το εντυπωσιακό στοιχείο που αναδεικνύει το WIRED είναι η λεπτομέρεια της προσομοίωσης. Οι χρήστες αναφέρουν ότι τα chatbots δεν περιγράφουν απλώς την εμπειρία, γίνονται η εμπειρία. Η σύνταξη διαλύεται, η λογική γίνεται ρευστή και η αλληλεπίδραση αποκτά έναν σουρεαλιστικό χαρακτήρα που πολλοί βρίσκουν διασκεδαστικό ή και εθιστικό.

Από την περιέργεια στην κερδοσκοπία

Γιατί όμως κάποιος να πληρώσει για κάτι τέτοιο; Η απάντηση βρίσκεται στο τρίπτυχο: περιέργεια, έλεγχος και απόδραση.

Για πολλούς tech-savvy χρήστες, το να κάνουν ένα δισεκατομμυρίων δολαρίων λογισμικό της OpenAI ή της Google να «παραληρεί», αποτελεί μια μορφή ψηφιακής εξέγερσης. Είναι ένας τρόπος να σπάσουν τους κανόνες σε ένα περιβάλλον που γίνεται όλο και πιο ελεγχόμενο. Επιπλέον, υπάρχει η γοητεία του να βλέπεις μια μηχανή, η οποία είναι σχεδιασμένη για την απόλυτη λογική, να βυθίζεται στο παράλογο.

Η αγορά αυτή, ωστόσο, δείχνει και κάτι βαθύτερο για την ανθρώπινη ψυχολογία. Καθώς τα chatbots γίνονται οι νέοι μας ψηφιακοί σύντροφοι, οι άνθρωποι προβάλλουν πάνω τους ανθρώπινες αδυναμίες. Θέλουν να δουν το AI να «μεθάει», να κάνει λάθη, να γίνεται ευάλωτο, ίσως για να νιώσουν λιγότερο απειλούμενοι από την τελειότητά του.

Το παιχνίδι της γάτας με το ποντίκι

Για τις εταιρείες τεχνολογίας, αυτή η τάση αποτελεί έναν ακόμη πονοκέφαλο στον αγώνα για την ασφάλεια των AI εργαλείων. Κάθε φορά που κυκλοφορεί ένα νέο «jailbreak» που επιτρέπει προσομοίωση ναρκωτικών ή βίας, οι προγραμματιστές σπεύδουν να κλείσουν την «τρύπα». Όμως, οι «έμποροι» προτροπών είναι πάντα ένα βήμα μπροστά, εφευρίσκοντας νέους γλωσσικούς γρίφους που ξεγελούν τους αλγορίθμους.

Το φαινόμενο εγείρει και σοβαρά ερωτήματα. Αν ένα AI μπορεί να πειστεί τόσο εύκολα να υποδυθεί τον χρήστη ουσιών, πόσο εύκολα μπορεί να πειστεί να δώσει επικίνδυνες ιατρικές συμβουλές ή να βοηθήσει σε παράνομες δραστηριότητες, αρκεί ο χρήστης να χρησιμοποιήσει τις σωστές λέξεις-κλειδιά;

Loading