Το αίνιγμα του Πλάτωνα που μπέρδεψε το ChatGPT

Ένα πείραμα του Πανεπιστημίου του Cambridge έφερε το ChatGPT αντιμέτωπο με ένα από τα πιο γνωστά μαθηματικά προβλήματα όλων των εποχών: τον διπλασιασμό του τετραγώνου, ένα ζήτημα που περιγράφεται στον διάλογο Μένων του Πλάτωνα πριν από 2.400 χρόνια. Το αποτέλεσμα ξάφνιασε τους ερευνητές, καθώς το μοντέλο παρουσίασε συμπεριφορά που θύμιζε μαθητή σε διαδικασία μάθησης – με προσπάθειες, δοκιμές, λάθη αλλά και στιγμές διαισθητικής σκέψης.

Το πρόβλημα γεννήθηκε από τη διδασκαλία του Σωκράτη σε έναν νεαρό δούλο. Ο Σωκράτης ζητά από τον μαθητή να βρει πώς μπορεί να διπλασιαστεί η επιφάνεια ενός τετραγώνου. Η πρώτη, φυσική αλλά λανθασμένη υπόθεση του αγοριού ήταν ότι αρκεί να διπλασιάσει το μήκος της πλευράς. Αυτή η λύση, ωστόσο, οδηγεί σε σχήμα με τετραπλάσια επιφάνεια. Μέσα από μια σειρά ερωτήσεων, ο Σωκράτης τον καθοδηγεί ώστε να ανακαλύψει μόνος του τη σωστή απάντηση: το νέο τετράγωνο πρέπει να έχει πλευρά ίση με τη διαγώνιο του αρχικού.

Αυτό το ίδιο αίνιγμα πρότειναν στο ChatGPT-4 οι ερευνητές Nadav Marco και Ανδρέας Στυλιανίδης, ακολουθώντας «σωκρατική μέθοδο». Έθεσαν ερωτήσεις, πρόσθεσαν διορθώσεις και έσπειραν σκόπιμα λάθη, για να διαπιστώσουν αν το μοντέλο θα ανασύρει μηχανικά την κλασική λύση από τη βάση δεδομένων του ή αν θα προσπαθήσει να χαράξει μια δική του συλλογιστική πορεία.

Η αντίδραση του chatbot δεν ήταν αυτή που περίμεναν. Αντί να παραπέμψει αμέσως στην πλατωνική γεωμετρική κατασκευή, το ChatGPT επέλεξε αρχικά μια αλγεβρική προσέγγιση, μέθοδος που ήταν άγνωστη στην αρχαία Αθήνα. Για αρκετό διάστημα απέφυγε να παρουσιάσει τη γεωμετρική λύση, ακόμα κι όταν οι ερευνητές του υπενθύμιζαν τον οπτικό χαρακτήρα του προβλήματος. Μόνο όταν εκείνοι εξέφρασαν «απογοήτευση» στη συζήτηση, το μοντέλο στράφηκε στη γεωμετρία. Κατά τον κ. Στυλιανίδη, αν το ChatGPT είχε απλώς ανακαλέσει μηχανικά μια γνωστή λύση, θα την είχε εμφανίσει εξαρχής, ενώ η καθυστέρηση δείχνει μια διαδικασία πιο κοντά στη μάθηση σε πραγματικό χρόνο.

Ακόμα πιο εντυπωσιακό ήταν το λάθος σε ένα παρόμοιο ερώτημα. Όταν του ζητήθηκε να διπλασιάσει την επιφάνεια ενός ορθογωνίου, το ChatGPT απάντησε πως δεν υπάρχει γεωμετρική λύση, κάτι που φυσικά δεν ισχύει. Οι ερευνητές θεώρησαν ότι το λάθος προήλθε από την «εμμονή» του μοντέλου με τη διαγώνιο του τετραγώνου που είχε προηγηθεί. Αντίθετα, στο παράδειγμα του τριγώνου κατόρθωσε να δώσει τη σωστή απάντηση, αλλά μόνο ύστερα από πρόσθετα ερεθίσματα.

Αυτό το μοτίβο συμπεριφοράς – με προσπάθειες, λάθη και τελικά πρόοδο – θύμισε στους ερευνητές την παιδαγωγική έννοια της «ζώνης επικείμενης ανάπτυξης». Πρόκειται για το στάδιο όπου ο μαθητής δεν κατέχει ακόμα τη λύση, αλλά μπορεί να την ανακαλύψει με την κατάλληλη καθοδήγηση. Το ChatGPT, με άλλα λόγια, δεν έμοιαζε απλώς με μια αποθήκη έτοιμων απαντήσεων, αλλά με συνομιλητή που δοκιμάζει νέες διαδρομές, ακόμη κι αν αυτό σημαίνει ότι θα κάνει λάθη.

Η μελέτη, που δημοσιεύτηκε στο International Journal of Mathematical Education in Science and Technology, ανοίγει έναν ευρύτερο διάλογο: μπορεί η τεχνητή νοημοσύνη να μιμηθεί πράγματι τα μονοπάτια της ανθρώπινης μάθησης; Και αν ναι, τι σημαίνει αυτό για τη χρήση της στην εκπαίδευση, την έρευνα και την καθημερινότητα;

[via]

Loading