Σε μια κίνηση που επαναπροσδιορίζει τη σχέση ανθρώπου και μηχανής, η Διοίκηση Κυβερνοχώρου της Κίνας (Cyberspace Administration of China - CAC) προχώρησε στη δημοσιοποίηση ενός αυστηρού ρυθμιστικού πλαισίου που στοχεύει στον περιορισμό της συναισθηματικής επιρροής των AI chatbots στους χρήστες. Το νέο προσχέδιο νόμου, το οποίο τέθηκε σε δημόσια διαβούλευση έως τις 25 Ιανουαρίου 2026, έρχεται να αντιμετωπίσει έναν αυξανόμενο φόβο: ότι η τεχνητή νοημοσύνη, αντί να παραμείνει εργαλείο, μετατρέπεται σε υποκατάστατο της ανθρώπινης επαφής, με δυνητικά επικίνδυνες συνέπειες για την ψυχική ισορροπία.
Στο στόχαστρο η «ανθρωπόμορφη» Τεχνητή Νοημοσύνη
Το νομοσχέδιο, με την ονομασία «Προσωρινά Μέτρα για τη Διαχείριση Υπηρεσιών Ανθρωπόμορφης Διαδραστικής Τεχνητής Νοημοσύνης», εστιάζει συγκεκριμένα σε υπηρεσίες που μιμούνται την ανθρώπινη προσωπικότητα, τον τρόπο σκέψης και την επικοινωνία. Οι κινεζικές αρχές δεν αρκούνται πλέον στον έλεγχο της πληροφορίας, αλλά επεκτείνουν την εποπτεία τους στο πώς τα μοντέλα AI αλληλεπιδρούν συναισθηματικά με τους χρήστες μέσω κειμένου, εικόνας ή ήχου.
Η βασική φιλοσοφία των νέων κανόνων είναι η προστασία της ανθρώπινης ψυχολογίας από την εξάρτηση και τη χειραγώγηση. Σύμφωνα με το κείμενο της πρότασης, οι πάροχοι AI απαγορεύεται αυστηρά να δημιουργούν περιεχόμενο που ενθαρρύνει την αυτοκτονία, τον αυτοτραυματισμό, τη λεκτική κακοποίηση ή τη συναισθηματική χειραγώγηση. Επιπλέον, τίθενται «κόκκινες γραμμές» για περιεχόμενο που σχετίζεται με τζόγο, βία ή πορνογραφικό υλικό.
Η ρήτρα της ανθρώπινης παρέμβασης
Ίσως η πιο εντυπωσιακή και ταυτόχρονα τεχνικά απαιτητική διάταξη του νομοσχεδίου αφορά τη διαχείριση κρίσεων. Οι ρυθμιστικές αρχές απαιτούν από τις εταιρείες τεχνολογίας να εγκαταστήσουν μηχανισμούς άμεσης ανθρώπινης παρέμβασης. Συγκεκριμένα, εάν ένας χρήστης εκφράσει ρητά πρόθεση αυτοκτονίας κατά τη διάρκεια μιας συνομιλίας με ένα chatbot, το σύστημα οφείλει να τερματίσει την αυτοματοποιημένη απόκριση και να παραδώσει τη σκυτάλη σε έναν ανθρώπινο χειριστή. Παράλληλα, η πλατφόρμα υποχρεούται να επικοινωνήσει άμεσα με τον κηδεμόνα του χρήστη ή κάποιο εξουσιοδοτημένο πρόσωπο.
Η συγκεκριμένη απαίτηση δημιουργεί τεράστιες προκλήσεις για τους κινεζικούς τεχνολογικούς γίγαντες, δεδομένου του όγκου των χρηστών και της πιθανότητας σφαλμάτων στα συστήματα ανίχνευσης προθέσεων. Ωστόσο, αναδεικνύει την πρόθεση του Πεκίνου να καταστήσει τις εταιρείες υπεύθυνες για την ψυχική ασφάλεια των πελατών τους, ξεπερνώντας το απλό πλαίσιο της «ηθικής χρήσης».
Προστασία ανηλίκων και ηλικιωμένων
Ιδιαίτερη έμφαση δίνεται στις ευάλωτες κοινωνικές ομάδες. Για τους ανήλικους, η χρήση υπηρεσιών «συναισθηματικής συντροφιάς» θα απαιτεί πλέον ρητή γονική συγκατάθεση. Οι πλατφόρμες θα πρέπει να διαθέτουν συστήματα επαλήθευσης ηλικίας και, σε περίπτωση αμφιβολίας, να ενεργοποιούν αυτόματα τις ρυθμίσεις προστασίας ανηλίκων.
Για τους ηλικιωμένους, το προσχέδιο εισάγει μια πρωτοποριακή απαγόρευση: τα AI συστήματα δεν επιτρέπεται να προσομοιώνουν συγκεκριμένους συγγενείς ή να αντικαθιστούν πραγματικές διαπροσωπικές σχέσεις, σε μια προσπάθεια να αποφευχθεί η συναισθηματική σύγχυση και η απομόνωση.
Υποχρεωτικό «διάλειμμα» και διαφάνεια
Στο πλαίσιο της καταπολέμησης του ψηφιακού εθισμού, η Κίνα προτείνει ένα μέτρο που θυμίζει γονικό έλεγχο σε βιντεοπαιχνίδια: μετά από δύο ώρες συνεχόμενης αλληλεπίδρασης, το chatbot θα πρέπει να υπενθυμίζει στον χρήστη να κάνει διάλειμμα. Επιπλέον, καθίσταται υποχρεωτική η σαφής σήμανση ότι ο συνομιλητής είναι μηχανή και όχι άνθρωπος, ώστε να μην υπάρχουν ψευδαισθήσεις οικειότητας.
Η κίνηση αυτή της Κίνας δεν είναι μεμονωμένη, αλλά εντάσσεται σε μια ευρύτερη στρατηγική για την ηγεσία στη ρύθμιση της τεχνολογίας παγκοσμίως. Καθώς η Δύση ακόμη συζητά για τα πνευματικά δικαιώματα και την παραπληροφόρηση, το Πεκίνο ανοίγει τον φάκελο της «συναισθηματικής τεχνητής νοημοσύνης», αναγνωρίζοντας ότι η επόμενη μεγάλη απειλή μπορεί να μην είναι η εξέγερση των ρομπότ, αλλά η συναισθηματική εξάρτηση των ανθρώπων από αυτά.
Αν και οι προθέσεις του νομοθέτη δείχνουν προς τη σωστή κατεύθυνση όσον αφορά την προστασία της δημόσιας υγείας, η εφαρμογή τέτοιων μέτρων σε κλίμακα παραμένει ένα μεγάλο στοίχημα. Το αν οι αλγόριθμοι μπορούν πράγματι να «εκπαιδευτούν» στην ενσυναίσθηση με κρατική εντολή, είναι κάτι που θα φανεί στην πράξη.
Διαβάστε επίσης