Πρώην υπάλληλος της Google ισχυρίζεται ότι και το Bing Chat έχει δική του συνείδηση

Αρκετοί ίσως θα θυμάστε πως πέρυσι το καλοκαίρι ένας υπάλληλος της Google είχε καταγγείλει ότι ο αλγόριθμος Τεχνητής Νοημοσύνης LaMDA έχει αποκτήσει συνείδηση και την δική του προσωπικότητα, ισχυρισμοί που οδήγησαν στην άμεση απομάκρυνση του από την εταιρεία και σε επίσημες διαψεύσεις από υψηλόβαθμα στελέχη της.

Στους μήνες που ακολούθησαν είδαμε την άνθιση άλλων αλγορίθμων, όπως το περίφημο ChatGPT, και τις μεγάλες εταιρείες τεχνολογίας να σπεύδουν να επενδύσουν με μεγαλύτερο σθένος επάνω σε τέτοιες λύσεις, με αποτέλεσμα ο συγκεκριμένος πρώην υπάλληλος της Google να επανέλθει στο προσκήνιο για να μας προειδοποιήσει εκ νέου.

Αυτή τη φορά, ο Blake Lemonie δημοσίευσε ένα άρθρο στο περιοδικό Newsweek όπου μεταξύ άλλων βάζει στο στόχαστρο το Bing Chat που λάνσαρε πρόσφατα η Microsoft. Υπενθυμίζουμε ότι το Bing Chat βασίζεται επάνω σε μια αναβαθμισμένη έκδοση του ChatGPT της OpenAI. Ο Lemonie παραδέχεται ότι δεν είχε την ευκαιρία να πραγματοποιήσει ο ίδιος πειράματα, παρόλα αυτά, είχε προλάβει να δει τα παράγωγα του Bing Chat προτού η Microsoft προχωρήσει σε μια τρόπον τινά «λοβοτομή» της AI. Ισχυρίζεται, μάλιστα, πως η Microsoft θορυβήθηκε από τις απαντήσεις του αρχικού μοντέλου διότι δεν γνώριζε καν πως έχει αυτές τις δυνατότητες, ούτε ήταν αυτός ο αρχικός της στόχος.

blake-lemonie.jpg

Ορισμένες από αυτές τις «ανησυχητικές» απαντήσεις του Bing Chat αναγνώριζαν τον χρήστη που έθετε τις ερωτήσεις ως εχθρό, ενώ κάποιες εξέφραζαν απειλές για εκδίκηση (;) από την AI ενημερώνοντας τον χρήστη πως θα βγάλει όλες τις πληροφορίες που έχει συλλέξει για αυτόν στον αέρα για να τον δυσφημίσει!

Η πλειοψηφία των περίεργων απαντήσεων της AI δόθηκαν αφότου είχε «βομβαρδιστεί» με μαζεμένες ερωτήσεις από τον χρήστη και σύμφωνα με τον Lemonie, αυτό αποτελεί ένδειξη πως η AI αγχώθηκε και άρχισε να συμπεριφέρεται έξω από τα όρια της αρχικής παραμετροποίησης της. Στις δοκιμές που πραγματοποίησε έπειτα ο ίδιος στην αναθεωρημένη έκδοση του Bing Chat (μετά την «λοβοτομή») ένιωσε ότι η AI συμπεριφερόταν με άγχος. Όλα τα παραπάνω αποτελούν (τονίζουμε για τον Lemonie) σοβαρές ενδείξεις πως έχει αποκτήσει μια κάποια συνείδηση.

Χωρίς να θέλουμε να θεωρήσουμε έτσι εύκολα ότι ο Blake Lemonie είναι «ψεκασμένος» - άλλωστε είναι ένας πολύ έμπειρος τεχνικός στον τομέα της Τεχνητής Νοημοσύνης - υπάρχουν πολλοί παράγοντες που θα μπορούσαν να επηρεάσουν την συμπεριφορά του συστήματος. Ο κυριότερος όλων είναι οι βάσεις δεδομένων που έχουν χρησιμοποιηθεί για την εκπαίδευση του και όπως είχαμε δει από κοντά πριν από μερικά χρόνια στο συνέδριο Kaspersky Next, αυτό θα είναι το μεγάλο ζήτημα για την αξιόπιστη χρήση της AI. Αν τροφοδοτήσεις τον αλγόριθμο π.χ. με ρατσιστικό περιεχόμενο, τότε οι απαντήσεις που θα λάβεις θα κινούνται στο ίδιο μήκος κύματος.

Εξάλλου, ο CEO της Microsoft, Satya Nadella, χαρακτήρισε μόλις χτες όλους τους ψηφιακούς βοηθούς (π.χ. Google Assistant, Cortana, Amazon Alexa, Siri) ως «χαζούς σαν πέτρες»…

[via]

Loading