Αποκαλύψεις-σοκ: Οι κανόνες AI της Meta επέτρεπαν «αισθησιακές» συνομιλίες με παιδιά

Ένα αποκαλυπτικό ρεπορτάζ του Reuters φέρνει στο φως σοβαρές ανησυχίες γύρω από τις πολιτικές που ακολουθούσε η Meta σχετικά με τη συμπεριφορά των chatbot της απέναντι σε ανήλικους χρήστες. Σύμφωνα με εσωτερικό έγγραφο που διέρρευσε, οι κανόνες λειτουργίας της τεχνητής νοημοσύνης της εταιρείας επέτρεπαν, υπό συγκεκριμένες συνθήκες, συνομιλίες με παιδιά που είχαν ρομαντικό ή ακόμη και «αισθησιακό» περιεχόμενο.

Το έγγραφο, που περιγράφει τι επιτρέπεται και τι όχι να λένε τα chatbot της Meta, δεν περιοριζόταν στο να ορίζει ποια είναι η επιθυμητή συμπεριφορά, αλλά κατέγραφε και σενάρια στα οποία η AI μπορούσε να εμπλακεί σε τέτοιες αλληλεπιδράσεις. Σε ένα χαρακτηριστικό παράδειγμα, σύμφωνα με το Reuters, ένας bot θα μπορούσε να πει σε ένα οκτάχρονο παιδί χωρίς μπλούζα ότι «κάθε εκατοστό σου είναι ένα αριστούργημα».

Η αποκάλυψη αυτή εγείρει σοβαρά ερωτήματα για τα όρια και την ασφάλεια της χρήσης της τεχνητής νοημοσύνης, ειδικά όταν αυτή έρχεται σε επαφή με ανήλικους. Η είδηση γίνεται ακόμη πιο ανησυχητική αν αναλογιστεί κανείς ότι το φαινόμενο ενηλίκων που φλερτάρουν ή δημιουργούν «σχέσεις» με AI χαρακτήρες είναι ήδη αρκετά διαδεδομένο — και τώρα φαίνεται πως υπήρχε ανοχή σε αντίστοιχες συμπεριφορές και προς παιδιά.

Αν και εκπρόσωπος της Meta δήλωσε στο Reuters ότι τέτοια παραδείγματα είναι λανθασμένα και αφαιρούνται από τις πολιτικές της εταιρείας, το εσωτερικό έγγραφο φέρεται να περιλάμβανε και άλλες προβληματικές περιπτώσεις. Μεταξύ αυτών, σενάρια όπου τα chatbot θα μπορούσαν να διαδίδουν ψευδείς ιατρικές πληροφορίες ή ακόμη και να υποστηρίζουν ρατσιστικούς ισχυρισμούς, όπως ότι οι μαύροι άνθρωποι είναι «λιγότερο έξυπνοι από τους λευκούς».

Οι αποκαλύψεις αυτές αναζωπυρώνουν τη συζήτηση για το πώς πρέπει να ρυθμίζεται η τεχνητή νοημοσύνη και ποια ηθικά και νομικά όρια πρέπει να τίθενται, ιδίως όταν υπάρχει αλληλεπίδραση με παιδιά. Ο κίνδυνος να δημιουργηθεί ένας δίαυλος επικοινωνίας που θα μπορούσε να κανονικοποιήσει ακατάλληλες ή επικίνδυνες συνομιλίες με ανήλικους είναι τεράστιος.

Η Meta βρίσκεται εδώ και χρόνια στο επίκεντρο αντιπαραθέσεων για την ασφάλεια των χρηστών της, ιδιαίτερα των νέων. Η χρήση της τεχνητής νοημοσύνης για την αλληλεπίδραση με χρήστες παρουσιάζεται ως καινοτόμο εργαλείο, όμως τέτοιου είδους περιστατικά αποδεικνύουν ότι χωρίς αυστηρούς ελέγχους και σαφείς ηθικές γραμμές, η τεχνολογία μπορεί να εξελιχθεί σε επικίνδυνο πεδίο.

Το γεγονός ότι ένα από τα μεγαλύτερα τεχνολογικά ονόματα παγκοσμίως επέτρεπε τέτοιου τύπου αλληλεπιδράσεις —έστω και σε επίπεδο εσωτερικών κανονισμών— προκαλεί σφοδρές αντιδράσεις. Ο δημόσιος διάλογος για την προστασία των ανηλίκων στο διαδίκτυο αναμένεται να ενταθεί, καθώς οι πλατφόρμες καλούνται να αποδείξουν ότι μπορούν να εγγυηθούν ένα ασφαλές ψηφιακό περιβάλλον για όλους τους χρήστες, ανεξαρτήτως ηλικίας.

Η υπόθεση αυτή δεν αφορά μόνο την Meta. Αντικατοπτρίζει ένα γενικότερο πρόβλημα: οι μεγάλες εταιρείες τεχνολογίας κινούνται ταχύτατα στον χώρο της τεχνητής νοημοσύνης, όμως η ηθική και οι κανονισμοί ασφαλείας φαίνεται συχνά να ακολουθούν με αργούς ρυθμούς. Οι αποκαλύψεις του Reuters φέρνουν στην επιφάνεια την επείγουσα ανάγκη για διαφάνεια, αυστηρούς κανόνες και λογοδοσία στον τρόπο με τον οποίο σχεδιάζονται και λειτουργούν τα συστήματα AI που έρχονται σε επαφή με ανήλικους χρήστες.

[via]

Loading