Νέα εποχή για την τεχνητή νοημοσύνη: Το MIT σχεδιάζει AI που μαθαίνει διαρκώς

Επιστήμονες από το περίφημο MIT ανέπτυξαν μια νέα τεχνική που επιτρέπει στα μεγάλα γλωσσικά μοντέλα να βελτιώνονται συνεχώς, ενσωματώνοντας νέα δεδομένα σε πραγματικό χρόνο. Η εξέλιξη αυτή, σύμφωνα με τους ερευνητές, φέρνει την τεχνητή νοημοσύνη ένα βήμα πιο κοντά στην ανθρώπινη μάθηση, ανοίγοντας τον δρόμο για πιο έξυπνα και προσαρμοστικά ψηφιακά εργαλεία, όπως chatbots που κατανοούν καλύτερα τις ανάγκες των χρηστών τους.

Η μέθοδος που ανέπτυξε η ομάδα του MIT ονομάζεται Self Adapting Language Models (SEAL) και διαφοροποιείται από τις κλασικές προσεγγίσεις μηχανικής μάθησης καθώς επιτρέπει στο ίδιο το μοντέλο να δημιουργεί συνθετικά εκπαιδευτικά δεδομένα και να αναπροσαρμόζει τις εσωτερικές του παραμέτρους με βάση τις πληροφορίες που λαμβάνει από το περιβάλλον του.

Από παθητική γνώση σε ενεργή μάθηση

Τα σημερινά μεγάλα γλωσσικά μοντέλα, όπως αυτά που χρησιμοποιούνται σε εφαρμογές τεχνητής νοημοσύνης και φυσικής γλώσσας, έχουν εντυπωσιακές ικανότητες σύνθεσης κειμένων, αλλά στην πραγματικότητα δεν διαθέτουν τη δυνατότητα να «μαθαίνουν» από την εμπειρία τους. Το παραγόμενο κείμενο ή οι συλλογισμοί που επιτυγχάνουν, δεν επηρεάζουν τη μελλοντική συμπεριφορά ή γνώση τους. Αυτό το κενό φιλοδοξεί να καλύψει το SEAL.

Σύμφωνα με τον Jyothish Pari, υποψήφιο διδάκτορα στο MIT και μέλος της ερευνητικής ομάδας, η ιδέα ξεκίνησε από την υπόθεση ότι τα ίδια τα «tokens» (οι μονάδες κειμένου που επεξεργάζεται ένα μοντέλο) θα μπορούσαν να πυροδοτήσουν ενημερώσεις στις παραμέτρους του μοντέλου. Με άλλα λόγια, οι ίδιοι οι συλλογισμοί του μοντέλου μπορούν να αξιοποιηθούν για την εκ νέου εκπαίδευσή του.

Ο Adam Zweiger, προπτυχιακός ερευνητής που συμμετείχε στο project, εξηγεί πως, ενώ τα σύγχρονα μοντέλα μπορούν να βελτιώνουν προσωρινά τις απαντήσεις τους μέσω πολύπλοκων συλλογισμών, αυτή η πρόοδος δεν ενσωματώνεται μακροπρόθεσμα στη γνώση τους. Το SEAL, αντίθετα, επιδιώκει την ενσωμάτωση αυτών των συλλογισμών στο εσωτερικό του μοντέλου.

Σαν μαθητής που κρατά σημειώσεις

Ένα βασικό στοιχείο της προσέγγισης SEAL είναι η δημιουργία νέου περιεχομένου από το ίδιο το μοντέλο, το οποίο αξιοποιείται στη συνέχεια για την ενημέρωση των παραμέτρων του. Για παράδειγμα, όταν παρουσιάστηκε στο μοντέλο μια δήλωση σχετική με τις προκλήσεις του προγράμματος Apollo, εκείνο παρήγαγε νέες παραγράφους που επεξεργάζονταν τις συνέπειες της δήλωσης. Οι ερευνητές παρομοίασαν τη διαδικασία αυτή με τον τρόπο που ένας μαθητής γράφει και επανεξετάζει σημειώσεις για να αφομοιώσει τη γνώση.

Στη συνέχεια, το μοντέλο εκπαιδεύεται ξανά χρησιμοποιώντας αυτό το υλικό και δοκιμάζεται για την ικανότητά του να απαντά σε σχετικές ερωτήσεις. Η διαδικασία αυτή παράγει ένα σήμα ενίσχυσης (reinforcement signal), το οποίο βοηθά στην καθοδήγηση της μάθησης του μοντέλου προς πιο χρήσιμες κατευθύνσεις.

Δοκιμές και αποτελέσματα

Η ομάδα του MIT δοκίμασε τη μέθοδο SEAL σε δύο ανοικτού κώδικα γλωσσικά μοντέλα, το Llama της Meta και το Qwen της Alibaba, σε μικρές και μεσαίες εκδόσεις. Τα πειράματα περιλάμβαναν τόσο γενικό κείμενο όσο και ένα τεστ αφηρημένης σκέψης γνωστό ως ARC. Σε όλες τις περιπτώσεις, τα μοντέλα κατάφεραν να συνεχίσουν να μαθαίνουν και μετά την αρχική τους εκπαίδευση, κάτι που δεν συμβαίνει με τις συμβατικές τεχνικές.

Ο καθηγητής Pulkit Agrawal, που επέβλεψε το ερευνητικό project, σημειώνει πως το SEAL αγγίζει κεντρικά ζητήματα της τεχνητής νοημοσύνης, όπως το πώς μπορεί ένα AI σύστημα να προσδιορίζει από μόνο του τι αξίζει να μάθει. Θεωρεί ότι η τεχνολογία αυτή θα μπορούσε να ανοίξει τον δρόμο για πιο εξατομικευμένα μοντέλα, τα οποία προσαρμόζονται στις ανάγκες κάθε χρήστη.

Τα όρια και οι προκλήσεις

Παρά την πρόοδο, το SEAL δεν αποτελεί ακόμη πανάκεια. Ένα σημαντικό εμπόδιο είναι το φαινόμενο της «καταστροφικής λήθης», δηλαδή η απώλεια παλαιότερων γνώσεων όταν εισάγονται νέες. Πρόκειται για ένα φαινόμενο που διαχωρίζει θεμελιωδώς τα τεχνητά από τα βιολογικά νευρωνικά δίκτυα. Επιπλέον, η μέθοδος απαιτεί έντονη υπολογιστική ισχύ και οι ερευνητές αναζητούν τον βέλτιστο τρόπο προγραμματισμού των κύκλων μάθησης.

Ο Zweiger μάλιστα πρότεινε, σε πιο ελαφρύ τόνο, ότι ίσως τα LLMs στο μέλλον θα χρειάζονται και... περιόδους «ύπνου», ώστε να επεξεργάζονται και να παγιώνουν τις νέες πληροφορίες, όπως κάνει και ο ανθρώπινος εγκέφαλος.

Παρά τις προκλήσεις, η μέθοδος SEAL προσφέρει ένα πολλά υποσχόμενο μονοπάτι για την εξέλιξη της τεχνητής νοημοσύνης, καθώς επιτρέπει τη δημιουργία μοντέλων που δεν είναι στατικά αλλά εξελίσσονται μαζί με τις ανάγκες του χρήστη και τις εξελίξεις του πραγματικού κόσμου.

[via]

Loading