Η Samsung έφτιαξε «μίνι» AI που ανταγωνίζεται Google και OpenAI

Η Samsung φαίνεται αποφασισμένη να αλλάξει τους κανόνες του παιχνιδιού στην τεχνητή νοημοσύνη. Μέσα από το ερευνητικό της κέντρο, το Samsung Advanced Institute of Technology (SAIT) στο Μόντρεαλ του Καναδά, η εταιρεία παρουσίασε ένα νέο AI μοντέλο που, αν και εξαιρετικά μικρό, υπόσχεται επιδόσεις αντίστοιχες – ή και ανώτερες – από κορυφαίους «γιγάντες» του χώρου όπως τα GPT o3-mini και Gemini 2.5 Pro. Το όνομα του μοντέλου είναι Tiny Recursion Model (TRM), και πίσω από τη δημιουργία του βρίσκεται η ερευνήτρια Alexia Jolicoeur-Martineau, η οποία δημοσίευσε πρόσφατα σχετική επιστημονική μελέτη.

Η φιλοσοφία πίσω από το TRM είναι απλή αλλά ριζοσπαστική: δεν χρειάζεται ένα τεράστιο μοντέλο με δισεκατομμύρια παραμέτρους για να πετύχει εντυπωσιακά αποτελέσματα. Με μόλις 7 εκατομμύρια παραμέτρους – δηλαδή περίπου 10.000 φορές λιγότερες από αυτές των μεγάλων AI μοντέλων της αγοράς – το TRM καταφέρνει, σε ορισμένα τεστ, να επιδεικνύει ίση ή και ανώτερη απόδοση. Όπως τονίζει η Jolicoeur-Martineau, η σημερινή βιομηχανία έχει «παγιδευτεί» στην ιδέα ότι μόνο τα μεγάλα, πολυδάπανα foundation models μπορούν να επιλύουν σύνθετα προβλήματα, αγνοώντας εναλλακτικές προσεγγίσεις που θα μπορούσαν να είναι πιο αποδοτικές.

Ένα διαφορετικό είδος AI

Το Tiny Recursion Model βασίζεται σε μια εντελώς διαφορετική αρχή λειτουργίας από τα γνωστά Large Language Models. Ενώ τα μεγάλα μοντέλα χρησιμοποιούν δισεκατομμύρια δεδομένα και πολύπλοκες αρχιτεκτονικές για να «μάθουν» και να προβλέπουν, το TRM στηρίζεται στη λεγόμενη αναδρομική (recursive) και ιεραρχική λογική (Hierarchical Reasoning Model – HRM).

Στην πράξη, αυτό σημαίνει ότι το TRM αποτελείται από μια απλή νευρωνική δομή δύο επιπέδων. Το πρώτο επίπεδο παράγει ένα αρχικό αποτέλεσμα, ενώ το δεύτερο αναλαμβάνει να το διορθώσει, να το βελτιώσει και να το επανατροφοδοτήσει στο σύστημα. Η διαδικασία αυτή επαναλαμβάνεται συνεχώς, με την τεχνητή νοημοσύνη να «μαθαίνει» από τα ίδια της τα λάθη σε κάθε βήμα. Έτσι, χωρίς τεράστιους όγκους δεδομένων ή υπερυπολογιστές, το TRM καταφέρνει να επιτυγχάνει αυτοβελτιούμενη σκέψη με εντυπωσιακή αποτελεσματικότητα.

Η ίδια η ερευνήτρια υποστηρίζει ότι η δύναμη του μοντέλου δεν βρίσκεται στο μέγεθός του, αλλά στην αρχιτεκτονική του. «Δεν χρειάζεσαι δισεκατομμύρια παραμέτρους για να παράγεις έξυπνη συμπεριφορά. Χρειάζεσαι έξυπνη δομή», δηλώνει χαρακτηριστικά η Jolicoeur-Martineau.

Μικρό μέγεθος, μεγάλα αποτελέσματα

Τα αποτελέσματα των πρώτων δοκιμών δείχνουν ότι το Tiny Recursion Model μπορεί να σταθεί επάξια δίπλα στα DeepSeek R1, Gemini 2.5 Pro και GPT o3-mini. Σε ορισμένα benchmarks, το TRM πέτυχε ίσες ή και καλύτερες επιδόσεις, αποδεικνύοντας ότι οι «μικροί» αλγόριθμοι μπορούν να έχουν τεράστιο αντίκτυπο όταν σχεδιάζονται σωστά.

Ένα ακόμη πλεονέκτημα είναι το κόστος λειτουργίας. Ενώ τα μεγάλα μοντέλα απαιτούν εξοπλισμό αξίας εκατομμυρίων δολαρίων για να εκπαιδευτούν ή να τρέξουν, το TRM μπορεί να λειτουργήσει με πολύ πιο προσιτό hardware. Για παράδειγμα, σε ένα από τα πιο απαιτητικά τεστ του, το Sudoku-Extreme, χρειάστηκε μόνο μια GPU NVIDIA L40S – αξίας περίπου 10.000 δολαρίων – για να ολοκληρώσει τη διαδικασία.

Ωστόσο, υπάρχει και μια παγίδα: παρότι εξοικονομεί χρήματα σε εξοπλισμό, η αναδρομική φύση του μοντέλου απαιτεί πολλές επαναλήψεις για να επιτύχει ακριβή αποτελέσματα, κάτι που αυξάνει σημαντικά τον χρόνο εκτέλεσης. Με άλλα λόγια, μπορεί να είναι «φθηνότερο» από πλευράς υλικού, αλλά όχι απαραίτητα πιο γρήγορο.

Οι αντιδράσεις της επιστημονικής κοινότητας

Όπως συμβαίνει σχεδόν πάντα με κάθε καινοτόμο τεχνολογία, ο ενθουσιασμός συνοδεύεται και από σκεπτικισμό. Πολλοί ειδικοί της τεχνητής νοημοσύνης αντιμετωπίζουν με επιφύλαξη τα ευρήματα της ομάδας της Samsung, υποστηρίζοντας ότι τα πειράματα στα οποία βασίστηκε η έρευνα είναι περιορισμένα σε πεδία όπως τα grid puzzles και δεν αντικατοπτρίζουν την πολυπλοκότητα πραγματικών εφαρμογών.

Κάποιοι επικρίνουν επίσης το γεγονός ότι το TRM δεν μπορεί, τουλάχιστον προς το παρόν, να εκτελέσει το πλήρες φάσμα λειτουργιών ενός μεγάλου LLM. Άλλοι θεωρούν ότι τα αποτελέσματα που δημοσιεύτηκαν ίσως υπερεκτιμούν τις πραγματικές δυνατότητες του μοντέλου, θυμίζοντας την περίπτωση του DeepSeek, ενός άλλου πολλά υποσχόμενου AI που τελικά δεν κατάφερε να σταθεί στο ύψος των προσδοκιών.

Παρά τις επιφυλάξεις, η δουλειά της Jolicoeur-Martineau ανοίγει ένα ενδιαφέρον παράθυρο στο μέλλον της τεχνητής νοημοσύνης: ένα μέλλον όπου η αποδοτικότητα και η ευφυΐα δεν θα εξαρτώνται αποκλειστικά από το μέγεθος και τη δύναμη επεξεργασίας, αλλά από την ευρηματικότητα του σχεδιασμού.

Το Tiny Recursion Model ίσως να μην είναι ακόμη έτοιμο να αντικαταστήσει τους γίγαντες της αγοράς, αλλά σίγουρα θέτει ερωτήματα για το πού πρέπει να στραφεί η έρευνα από εδώ και πέρα. Η προσέγγιση της Samsung δείχνει ότι υπάρχει χώρος για πιο «έξυπνες» και λιγότερο ενεργοβόρες τεχνητές νοημοσύνες – κάτι που θα μπορούσε να αποδειχθεί καθοριστικό για το μέλλον της τεχνολογίας, ειδικά σε μια περίοδο όπου η ενεργειακή κατανάλωση των AI συστημάτων αυξάνεται δραματικά.

[via]

Loading