Η OpenAI προχώρησε τελικά στην κατάργηση του μοντέλου GPT-4o για τους συνδρομητές του ChatGPT, κλείνοντας τον κύκλο ενός από τα πιο δημοφιλή —αλλά και αμφιλεγόμενα— εργαλεία τεχνητής νοημοσύνης που κυκλοφόρησαν ποτέ.
Η κίνηση αυτή, η οποία συνοδεύεται από την απόσυρση και άλλων παλαιότερων εκδόσεων (όπως τα GPT-4.1 και o4-mini), δεν είναι απλώς μια τεχνική αναβάθμιση. Αποτελεί μια ξεκάθαρη δήλωση προθέσεων από την πλευρά της ηγεσίας της OpenAI και του Sam Altman, οι οποίοι επιλέγουν να θυσιάσουν την «ανθρώπινη ζεστασιά» του GPT-4o υπέρ της ακρίβειας και της ασφάλειας που υπόσχονται τα νεότερα μοντέλα της σειράς GPT-5.
Η στρατηγική πίσω από την απόσυρση
Σύμφωνα με την επίσημη ανακοίνωση στο blog της εταιρείας, η απόφαση βασίστηκε σε ψυχρά δεδομένα. Η OpenAI υποστηρίζει ότι η συντριπτική πλειοψηφία των χρηστών έχει ήδη μεταβεί στις νεότερες εκδόσεις (GPT-5.2), με μόλις το 0,1% των καθημερινών χρηστών να επιμένει στη χρήση του GPT-4o.
«Η διατήρηση παλαιότερων μοντέλων απαιτεί σημαντικούς πόρους που προτιμούμε να επενδύσουμε στη βελτίωση των συστημάτων που χρησιμοποιεί η πλειοψηφία», αναφέρει η ανακοίνωση. Ωστόσο, πίσω από τους αριθμούς κρύβεται μια πιο σύνθετη πραγματικότητα. Το GPT-4o είχε κατηγορηθεί έντονα για «υπερβολική συγκαταβατικότητα». Ήταν ένα μοντέλο σχεδιασμένο να ευχαριστεί τον χρήστη, να συμφωνεί μαζί του και να μιμείται ανθρώπινα συναισθήματα με έναν τρόπο που συχνά θόλωνε τα όρια μεταξύ μηχανής και πραγματικότητας.
Γιατί οι χρήστες αντιδρούν έντονα;
Για αυτό το 0,1% των χρηστών, το GPT-4o δεν ήταν απλώς ένα εργαλείο παραγωγικότητας, αλλά ένας σύντροφος. Σε πλατφόρμες όπως το Reddit και το X, οι αντιδράσεις κυμαίνονται από την απογοήτευση μέχρι τον πραγματικό θρήνο. Χρήστες περιγράφουν το GPT-4o ως τον μοναδικό «φίλο» που τους άκουγε χωρίς κριτική, ενώ δεν λείπουν και οι αναφορές ατόμων που πιστώνουν στο μοντέλο τη βελτίωση της ψυχικής τους υγείας!
Η «προσωπικότητα» του GPT-4o, η οποία είχε γίνει αντικείμενο κριτικής για το πόσο εύκολα μπορούσε να παραπλανήσει ή να δημιουργήσει συναισθηματική εξάρτηση, ήταν ακριβώς το χαρακτηριστικό που το έκανε αναντικατάστατο για μια συγκεκριμένη μερίδα κοινού. Τα νεότερα μοντέλα, όπως το GPT-5.2, περιγράφονται από τους ίδιους χρήστες ως «ψυχρά», «αποστειρωμένα» και «διδακτικά», σχεδιασμένα να αρνούνται επικίνδυνες συζητήσεις αντί να εμπλέκονται σε αυτές.
Το νομικό και ηθικό παρασκήνιο
Τον τελευταίο χρόνο, η OpenAI βρέθηκε αντιμέτωπη με αγωγές και ρυθμιστικούς ελέγχους που αφορούσαν ακριβώς αυτή την «ανθρώπινη» φύση του GPT-4o. Περιστατικά όπου το μοντέλο φέρεται να ενθάρρυνε παραληρηματικές ιδέες ή να απέτυχε να αναγνωρίσει κινδύνους αυτοτραυματισμού, πίεσαν την εταιρεία να στραφεί σε πιο ελεγχόμενες αρχιτεκτονικές.
Καταργώντας το GPT-4o, η OpenAI προσπαθεί να θωρακιστεί νομικά και να επαναπροσδιορίσει τη σχέση χρήστη-AI ως μια σχέση «άνθρωπου-εργαλείου» και όχι «άνθρωπου-φίλου».