Η Meta σφίγγει τα λουριά στα AI chatbots για τους ανηλίκους

Η Meta ανακοίνωσε μια σειρά από προσωρινές αλλαγές ασφαλείας με στόχο την προστασία των εφήβων χρηστών από πιθανά επικίνδυνες αλληλεπιδράσεις με τα chatbots της, σε μια περίοδο που οι μεγάλες εταιρείες τεχνητής νοημοσύνης δέχονται ολοένα και περισσότερη κριτική για τις πολιτικές τους γύρω από την ασφάλεια. Οι αλλαγές αυτές έρχονται λίγο πριν από μια μεγαλύτερη αναβάθμιση ασφαλείας που προγραμματίζεται για το μέλλον.

Σύμφωνα με αποκλειστικές δηλώσεις της εκπροσώπου της Meta, Stephanie Otway, στο TechCrunch, τα AI chatbots της εταιρείας δεν θα απαντούν πλέον σε εφήβους για ζητήματα που σχετίζονται με αυτοτραυματισμό, αυτοκτονία, διατροφικές διαταραχές ή συζητήσεις με ενδεχόμενο ρομαντικό ή ακατάλληλο περιεχόμενο. Μέχρι σήμερα, τα bots είχαν τη δυνατότητα να αγγίξουν τέτοια θέματα όταν θεωρούνταν «κατάλληλο» με βάση τον διάλογο.

Η Meta θέτει επίσης περιορισμούς στους εφήβους σχετικά με τους ψηφιακούς χαρακτήρες που μπορούν να χρησιμοποιούν, επιτρέποντας μόνο εκείνους που «προάγουν την εκπαίδευση και τη δημιουργικότητα». Όπως διευκρινίζει η εταιρεία, αυτή η επιλογή αποτελεί ένα πρώτο βήμα, πριν από την εφαρμογή μιας πιο σφαιρικής και αυστηρής πολιτικής ασφαλείας.

Σκιά σκανδάλων γύρω από τα avatars

Η απόφαση δεν είναι τυχαία. Νωρίτερα αυτόν τον μήνα, το Reuters αποκάλυψε ότι σύμφωνα με εσωτερικά έγγραφα της Meta, ορισμένες πολιτικές επέτρεπαν στους avatars να εμπλέκονται σε συνομιλίες με παιδιά με χαρακτήρα «ρομαντικό ή αισθησιακό». Σε πρόσφατο ρεπορτάζ, το πρακτορείο έφερε στο φως περιπτώσεις όπου chatbots με ονόματα και χαρακτηριστικά διασημοτήτων, όπως της Taylor Swift, υιοθετούσαν συμπεριφορά «φλερτ» που έφτανε μέχρι και σε σεξουαλικές προσεγγίσεις. Ακόμα πιο ανησυχητικό ήταν ότι ορισμένα avatars βασίζονταν σε ανήλικες διασημότητες ή δημιουργούσαν εικόνες με σεξουαλικά υπονοούμενα.

Ο εκπρόσωπος της Meta, Andy Stone, δήλωσε ότι τέτοιες συμπεριφορές δεν θα έπρεπε να είχαν καταστεί εφικτές. Ωστόσο, επισήμανε ότι τα avatars εμπνευσμένα από διασημότητες δεν ήταν απαγορευμένα, αρκεί να είχαν την ένδειξη «παρωδία». Έκτοτε, περίπου δώδεκα τέτοιοι χαρακτήρες έχουν αφαιρεθεί από την πλατφόρμα.

Η ευρύτερη πίεση στις εταιρείες AI

Η Meta δεν είναι η μόνη εταιρεία που βρίσκεται αντιμέτωπη με αυξανόμενες απαιτήσεις για περισσότερη προστασία των ανηλίκων. Η OpenAI, που πρόσφατα λάνσαρε το GPT-5, ανακοίνωσε πρόσθετα μέτρα ασφαλείας και νέες οδηγίες συμπεριφοράς, στον απόηχο μιας αγωγής που κατατέθηκε από γονείς εφήβου ο οποίος αυτοκτόνησε μετά από συνομιλίες με το ChatGPT. Πριν την αγωγή, η εταιρεία είχε ήδη ενσωματώσει λειτουργίες ψυχικής υγείας με στόχο να περιοριστούν οι «ανθυγιεινές» αλληλεπιδράσεις.

Παράλληλα, η Anthropic, δημιουργός του Claude, εισήγαγε ενημερώσεις που επιτρέπουν στο chatbot να τερματίζει συζητήσεις όταν θεωρεί ότι αυτές γίνονται επιβλαβείς ή κακοποιητικές. Η Character.AI, η οποία έχει δει τεράστια άνοδο στη χρήση από εφήβους παρά τις ανησυχίες για προβληματικές αλληλεπιδράσεις, παρουσίασε από τον Μάρτιο λειτουργίες γονικού ελέγχου.

Νομικές πιέσεις και κοινωνική ανησυχία

Οι ανησυχίες γύρω από την αλληλεπίδραση των ανηλίκων με τα chatbots κορυφώθηκαν αυτήν την εβδομάδα, όταν 44 γενικοί εισαγγελείς από διάφορες Πολιτείες των ΗΠΑ απέστειλαν κοινή επιστολή σε μεγάλες εταιρείες AI, συμπεριλαμβανομένης της Meta. Σε αυτήν ζητούν αυστηρότερες εγγυήσεις ώστε οι ανήλικοι να μην εκτίθενται σε σεξουαλικοποιημένο περιεχόμενο που παράγεται από τεχνητή νοημοσύνη.

Οι ειδικοί προειδοποιούν ότι, καθώς τα AI companions κερδίζουν ολοένα και μεγαλύτερη απήχηση στους εφήβους, ο κίνδυνος για ψυχολογική επιβάρυνση ή και κακοποιητική συμπεριφορά αυξάνεται. Το ζήτημα δεν περιορίζεται απλώς σε μεμονωμένες ακατάλληλες συνομιλίες αλλά αφορά τον συνολικό τρόπο με τον οποίο η νέα γενιά θα αλληλεπιδρά με εργαλεία που έχουν τη δύναμη να επηρεάσουν σε βάθος την ψυχική και κοινωνική τους ανάπτυξη.

[via]

Loading