Ποιο είναι το τελεσίγραφο του Πενταγώνου στην Anthropic για το Claude AI;

Σύνοψη

  • Το Τελεσίγραφο: Ο Υπουργός Άμυνας των ΗΠΑ, Pete Hegseth, έθεσε τελεσίγραφο στην Anthropic έως τις 27 Φεβρουαρίου 2026 για την πλήρη άρση των περιορισμών ασφαλείας του μοντέλου Claude AI.
  • Η Απαίτηση: Το Πεντάγωνο απαιτεί τη χρήση της τεχνητής νοημοσύνης για "όλους τους νόμιμους στρατιωτικούς σκοπούς", χωρίς εξαιρέσεις για αυτόνομα οπλικά συστήματα.
  • Η Στάση της Anthropic: Ο CEO Dario Amodei αρνείται να διαγράψει τις "κόκκινες γραμμές" της εταιρείας, οι οποίες απαγορεύουν τη χρήση του Claude σε θανατηφόρα όπλα χωρίς ανθρώπινη παρέμβαση και στη μαζική παρακολούθηση πολιτών.
  • Οι Απειλές: Σε περίπτωση άρνησης, το Υπουργείο Άμυνας απειλεί να χαρακτηρίσει την εταιρεία "κίνδυνο για την εφοδιαστική αλυσίδα" ή να ενεργοποιήσει τον Νόμο περί Αμυντικής Παραγωγής (Defense Production Act).
  • Ο Ανταγωνισμός: Η xAI του Elon Musk και η OpenAI έχουν ήδη αποδεχτεί αντίστοιχους όρους, ενσωματώνοντας τα δικά τους μοντέλα (Grok και ChatGPT) στα αμερικανικά στρατιωτικά δίκτυα.

Ο Υπουργός Άμυνας των ΗΠΑ, Pete Hegseth, έθεσε αυστηρή προθεσμία έως τις 27 Φεβρουαρίου 2026 στην Anthropic για να επιτρέψει την απεριόριστη στρατιωτική χρήση του μοντέλου Claude. Το Πεντάγωνο απαιτεί την αφαίρεση κάθε ενσωματωμένης δικλείδας ασφαλείας, απειλώντας την εταιρεία με ακύρωση συμβολαίων ύψους 200 εκατομμυρίων δολαρίων και ενεργοποίηση του Νόμου περί Αμυντικής Παραγωγής (DPA).

Η σύγκρουση κορυφώθηκε κατά τη διάρκεια συνάντησης στο Πεντάγωνο, όπου ο Pete Hegseth κατέστησε σαφές στον διευθύνοντα σύμβουλο της Anthropic, Dario Amodei, πως το Υπουργείο Άμυνας δεν προτίθεται να ανεχθεί πολιτικές χρήσης που θέτουν προσκόμματα στην επιχειρησιακή ετοιμότητα των ενόπλων δυνάμεων. Μέχρι σήμερα, το Claude αποτελεί το μοναδικό προηγμένο Μεγάλο Γλωσσικό Μοντέλο (LLM) το οποίο έχει εγκριθεί για χρήση εντός των αυστηρά διαβαθμισμένων δικτύων του αμερικανικού στρατού. Η συγκεκριμένη έγκριση οδήγησε σε συμβόλαιο 200 εκατομμυρίων δολαρίων το καλοκαίρι του 2025, στα πλαίσια συνεργασιών του Πενταγώνου με την Palantir Technologies.

Η απαίτηση της αμερικανικής κυβέρνησης επικεντρώνεται στο δικαίωμα αξιοποίησης της τεχνολογίας χωρίς την ανάγκη συνεχούς έγκρισης από την κατασκευάστρια εταιρεία. Σύμφωνα με πηγές του Υπουργείου Άμυνας, η νομική ευθύνη για τη χρήση των εργαλείων ανήκει αποκλειστικά στον στρατό και όχι στον πάροχο του λογισμικού, καθιστώντας τις "ηθικές δεσμεύσεις" των εταιρειών τεχνολογίας επιχειρησιακό εμπόδιο.

Γιατί η Anthropic αρνείται την πλήρη στρατιωτικοποίηση της τεχνητής νοημοσύνης;

Ο CEO της Anthropic, Dario Amodei, διατηρεί δύο αδιαπραγμάτευτες «κόκκινες γραμμές» στη χρήση του Claude.Απαγορεύει ρητά την ενσωμάτωσή του σε πλήρως αυτόνομα οπλικά συστήματα που λαμβάνουν αποφάσεις στόχευσης χωρίς ανθρώπινη παρέμβαση, καθώς και τη χρήση του λογισμικού για προγράμματα μαζικής παρακολούθησης (mass surveillance) πολιτών.

  • Αυτόνομη Στόχευση: Καμία τελική απόφαση για χρήση θανατηφόρου βίας δεν επιτρέπεται να λαμβάνεται από αλγόριθμο χωρίς έγκριση (human-in-the-loop).
  • Δικαιώματα Ιδιωτικότητας: Το μοντέλο δεν επιτρέπεται να τροφοδοτεί συστήματα αναγνώρισης προσώπου ή καταγραφής πολιτών εντός αμερικανικού εδάφους.
  • Αξιοπιστία Δεδομένων: Η εταιρεία υποστηρίζει πως τα σημερινά LLMs υποφέρουν από ψευδαισθήσεις (hallucinations) και δεν είναι τεχνικά έτοιμα για σφάλματα ζωής και θανάτου.

Η άρνηση της Anthropic βασίζεται στις αρχικές δεσμεύσεις της εταιρείας. Ιδρυθείσα από πρώην στελέχη της OpenAI που αποχώρησαν ακριβώς λόγω ανησυχιών για την ασφάλεια των συστημάτων AI, η Anthropic έχει χτίσει την εταιρική της ταυτότητα γύρω από τον όρο "Safety-First AI". Οι εντάσεις ωστόσο εντάθηκαν τον Ιανουάριο του 2026, όταν αποκαλύφθηκε πως το μοντέλο Claude φέρεται να χρησιμοποιήθηκε—χωρίς την πρότερη γνώση της Anthropic—στη στρατιωτική επιχείρηση των ΗΠΑ στο Καράκας της Βενεζουέλας, η οποία οδήγησε στη σύλληψη του Nicolás Maduro. Η συγκεκριμένη επιχειρησιακή χρήση, η οποία υλοποιήθηκε μέσω του δικτύου της Palantir, απέδειξε πόσο εύκολα τα τεχνικά όρια μπορούν να παρακαμφθούν στο πεδίο της μάχης.

Ο Νόμος περί Αμυντικής Παραγωγής (Defense Production Act), τον οποίο απειλεί να επικαλεστεί ο Υπουργός Άμυνας, αποτελεί νομοθεσία της εποχής του Πολέμου της Κορέας, σχεδιασμένη για να αναγκάζει τις βιομηχανίες να παράγουν στρατιωτικό υλικό. Η εφαρμογή αυτού του νόμου προκειμένου να υποχρεωθεί μια εταιρεία λογισμικού να διαγράψει γραμμές κώδικα και αλγοριθμικές δικλείδες ασφαλείας, αποτελεί πρωτοφανή νομική ενέργεια που αναμένεται να προκαλέσει δικαστικές διαμάχες με επίκεντρο τα συνταγματικά δικαιώματα και τον διαχωρισμό των εξουσιών.

Πώς αντιδρά ο ανταγωνισμός και ποιος ο ρόλος της xAI του Elon Musk;

Ενώ η Anthropic ανθίσταται, το Υπουργείο Άμυνας των ΗΠΑ στρέφεται ταχύτατα σε εναλλακτικούς παρόχους. Η xAI του Elon Musk αποδέχτηκε τους όρους του Πενταγώνου, υπογράφοντας συμφωνία για την ένταξη του μοντέλου Grok στο εσωτερικό δίκτυο GenAI.mil, εξασφαλίζοντας στρατιωτική πρόσβαση χωρίς τους ηθικούς περιορισμούς της Anthropic.

  • Συμφωνία xAI: Το Grok είναι πλέον διαθέσιμο για "όλες τις νόμιμες χρήσεις" στο εσωτερικό δίκτυο του Πενταγώνου.
  • Στάση OpenAI: Η εταιρεία εντάχθηκε πρόσφατα στο σύστημα GenAI.mil, επιτρέποντας στο στρατιωτικό προσωπικό τη χρήση ειδικά διαμορφωμένης έκδοσης του ChatGPT.
  • Στρατηγική Hegseth: Δημόσια απόρριψη κάθε μοντέλου τεχνητής νοημοσύνης που επιβάλλει "ιδεολογικούς περιορισμούς" στις επιχειρήσεις μάχης.

Η ευθυγράμμιση του Elon Musk και της xAI με τις απαιτήσεις του Υπουργείου Άμυνας αφαιρεί διαπραγματευτική δύναμη από την Anthropic. Ο Pete Hegseth έχει δηλώσει ανοιχτά πως οι αμερικανικές ένοπλες δυνάμεις δεν θα χρησιμοποιούν συστήματα που διστάζουν να παρέχουν τακτικό πλεονέκτημα ή τα οποία έχουν προγραμματιστεί με γνώμονα τη λεγόμενη "woke" κουλτούρα της Σίλικον Βάλεϊ. Η απουσία ενιαίου μετώπου από την πλευρά των εταιρειών τεχνολογίας αποδεικνύει πως ο ανταγωνισμός για τα κρατικά συμβόλαια επισκιάζει τις συλλογικές ανησυχίες για τους κινδύνους της τεχνητής νοημοσύνης.

Ποιες είναι οι επιπτώσεις της σύγκρουσης για την ευρωπαϊκή αγορά;

Η απαίτηση των ΗΠΑ για στρατιωτική τεχνητή νοημοσύνη χωρίς περιορισμούς έρχεται σε άμεση ρήξη με το ευρωπαϊκό κανονιστικό πλαίσιο (EU AI Act). Οι ευρωπαϊκές εταιρείες άμυνας και οι ένοπλες δυνάμεις δεσμεύονται από αυστηρούς κανόνες διαφάνειας, καθιστώντας την αμερικανική προσέγγιση ασύμβατη με τα τοπικά νομικά και ηθικά πρότυπα.

  • Ασυμβατότητα EU AI Act: Ο ευρωπαϊκός κανονισμός κατατάσσει τα συστήματα βιομετρικής παρακολούθησης και τη χρήση AI στις δυνάμεις επιβολής του νόμου ως δραστηριότητες Υψηλού Κινδύνου (High-Risk).
  • Κυριαρχία Δεδομένων: Οι ελληνικές ένοπλες δυνάμεις προφανώς δεν μπορούν να υιοθετήσουν αμερικανικά στρατιωτικά LLMs εάν αυτά παραβιάζουν θεμελιώδη ευρωπαϊκά πρωτόκολλα.
  • Τεχνολογικό Χάσμα: Η άρνηση της Ευρώπης να αναπτύξει πλήρως αυτόνομα οπλικά συστήματα ενδέχεται να δημιουργήσει ασύμμετρο τεχνολογικό πλεονέκτημα υπέρ των αμερικανικών, ρωσικών ή κινεζικών δυνάμεων.

Οι εξελίξεις στις ΗΠΑ θα καθορίσουν το παγκόσμιο πρότυπο ανάπτυξης στρατιωτικού λογισμικού. Εάν το Πεντάγωνο επιβάλει τη δημιουργία αμιγώς επιθετικών εκδόσεων των δημοφιλών LLM (όπως το Claude, το ChatGPT ή το Grok), τα συστήματα αυτά θα καταστούν το νέο δεδομένο στις διεθνείς αμυντικές προμήθειες. Η ελληνική αγορά, εξαρτώμενη σε μεγάλο βαθμό από τις αποφάσεις του ΝΑΤΟ και τις εισαγωγές οπλικών συστημάτων, θα κληθεί σύντομα να ισορροπήσει μεταξύ της ανάγκης για επιχειρησιακή αναβάθμιση και των νομικών περιορισμών που επιβάλλουν οι Βρυξέλλες.

Με τη ματιά του Techgear

Η μετωπική σύγκρουση μεταξύ του αμερικανικού Πενταγώνου και της Anthropic υπερβαίνει κατά πολύ μια απλή διαφωνία επί συμβατικών όρων. Αποτελεί τη σημαντικότερη μέχρι σήμερα δοκιμασία για το κατά πόσο οι ιδιωτικές εταιρείες τεχνολογίας μπορούν να επιβάλουν ηθικούς περιορισμούς στην κρατική στρατιωτική μηχανή. Η απαίτηση του Pete Hegseth για πλήρη αφαίρεση των δικλείδων ασφαλείας, υπό την απειλή του Νόμου περί Αμυντικής Παραγωγής, καταδεικνύει την απόλυτη εξάρτηση των σύγχρονων ενόπλων δυνάμεων από εμπορικά μοντέλα (Commercial Off-The-Shelf) Τεχνητής Νοημοσύνης.

Εάν η Anthropic υποκύψει, δημιουργείται ένα εξαιρετικά επικίνδυνο προηγούμενο όπου κανένας περιορισμός ασφαλείας στον κώδικα δεν θα θεωρείται δεδομένος όταν ζητείται από κρατικούς φορείς. Εάν η εταιρεία αποβληθεί, το Πεντάγωνο χάνει προσωρινά το μοναδικό μοντέλο που έχει ήδη πιστοποιηθεί για τα αυστηρά διαβαθμισμένα του δίκτυα. Σε κάθε περίπτωση, η άμεση διαθεσιμότητα της xAI να καλύψει το κενό αποδεικνύει ότι, όταν τίθενται ζητήματα εθνικής ασφάλειας και συμβολαίων εκατοντάδων εκατομμυρίων, οι ηθικοί ενδοιασμοί αποτελούν πολυτέλεια που ελάχιστες επιχειρήσεις επιλέγουν να διατηρήσουν.

Για την Ευρώπη και κατ' επέκταση την Ελλάδα, η εξέλιξη αυτή κρούει τον κώδωνα του κινδύνου σχετικά με τη στρατηγική αυτονομία και την αδυναμία επιβολής των δικών μας κανονιστικών πλαισίων σε υπερατλαντικούς αμυντικούς κολοσσούς.

Loading