Google: Ανοιχτή επιστολή 600 εργαζομένων κατά της στρατιωτικής χρήσης της Τεχνητής Νοημοσύνης

Σύνοψη

  • Συλλογή πάνω από 600 υπογραφών από εργαζομένους της Google ενάντια στη στρατιωτική εκμετάλλευση της AI.
  • Διαγραφή κομβικών ρητρών από τα Google AI Principles (απαγόρευση όπλων και συστημάτων παρακολούθησης) στις 4 Φεβρουαρίου 2025.
  • Η κίνηση ακολουθεί την άρνηση της Anthropic και την επακόλουθη σύναψη συμβολαίου της OpenAI με το αμερικανικό Πεντάγωνο.
  • Έντονος προβληματισμός για την απουσία διεθνών δεσμεύσεων όσον αφορά τα αυτόνομα οπλικά συστήματα.

Η συνεχιζόμενη ενσωμάτωση των συστημάτων τεχνητής νοημοσύνης στους μηχανισμούς άμυνας και εθνικής ασφάλειας συνεχίζει να προκαλεί ισχυρές αντιδράσεις στο εσωτερικό των μεγαλύτερων τεχνολογικών κολοσσών. Σύμφωνα με νέα δεδομένα, περισσότεροι από 600 εργαζόμενοι της Google προσυπέγραψαν μια ανοιχτή επιστολή προς τον Διευθύνοντα Σύμβουλο της εταιρείας, Sundar Pichai, ζητώντας την άμεση και οριστική απόρριψη οποιασδήποτε στρατιωτικής χρήσης των εργαλείων AI που αναπτύσσει η εταιρεία.

Το κείμενο της επιστολής υιοθετεί ιδιαίτερα αυστηρό ύφος, υπογραμμίζοντας τις ηθικές προεκτάσεις των επιλογών της διοίκησης. Οι υπάλληλοι αναφέρουν με σαφήνεια: «Ανθρώπινες ζωές χάνονται ήδη και οι ατομικές ελευθερίες τίθενται σε κίνδυνο, τόσο στο εσωτερικό όσο και στο εξωτερικό, από την κακή χρήση της τεχνολογίας την οποία εμείς διαδραματίζουμε βασικό ρόλο στο να χτίσουμε». Το μήνυμα αυτό αναδεικνύει την απόσταση μεταξύ των στελεχών που χαράσσουν την εμπορική στρατηγική και των μηχανικών λογισμικού που αντιλαμβάνονται πρώτοι τις πραγματικές δυνατότητες —και τους περιορισμούς— των μεγάλων γλωσσικών μοντέλων (LLMs).

Οι αλλαγές στα Google AI Principles

Η αντίδραση των εργαζομένων δεν είναι τυχαία, καθώς συμπίπτει με μια σημαντική και διακριτική αλλαγή στο ρυθμιστικό πλαίσιο της ίδιας της εταιρείας. Ιστορικά, μετά από μαζικές διαμαρτυρίες το 2018 (Project Maven), η Google είχε θεσπίσει αυστηρές Αρχές Τεχνητής Νοημοσύνης (AI Principles), δεσμευόμενη ότι δεν θα σχεδιάσει και δεν θα αναπτύξει συστήματα AI που είναι «πιθανό να προκαλέσουν βλάβη» ή συστήματα που θα λειτουργήσουν ως αυτόνομα όπλα ή εργαλεία μαζικής παρακολούθησης.

Όμως, όπως αποκαλύφθηκε, στις 4 Φεβρουαρίου 2025 η εταιρεία προχώρησε στην αθόρυβη διαγραφή αυτών ακριβώς των ρητρών από τα δημοσιευμένα AI Principles της. Η αφαίρεση της δέσμευσης να απέχει από την ανάπτυξη τεχνολογιών παρακολούθησης και όπλων, άνοιξε τον δρόμο για επικερδείς κρατικές συμβάσεις, προκαλώντας ταυτόχρονα την οργή όσων τεχνικών θεώρησαν τη κίνηση αυτή ως κατάφωρη παραβίαση των βασικών αξιών του οργανισμού.

Οι υπογράφοντες την επιστολή διευκρινίζουν: 

Ως άνθρωποι που εργαζόμαστε πάνω στην τεχνητή νοημοσύνη, γνωρίζουμε ότι αυτά τα συστήματα μπορούν να συγκεντρώσουν υπερβολική δύναμη και ότι κάνουν λάθη. Πιστεύουμε ότι η εγγύτητά μας σε αυτή την τεχνολογία μάς δημιουργεί την ευθύνη να αναδείξουμε και να αποτρέψουμε τις πιο ανήθικες και επικίνδυνες χρήσεις της». Προσθέτουν δε πως η λάθος απόφαση σήμερα θα προκαλέσει «ανεπανόρθωτη ζημιά στη φήμη της Google.

Το προηγούμενο των Anthropic και OpenAI

Η ανοιχτή επιστολή της Google δεν εκτυλίσσεται σε πολιτικό ή επιχειρηματικό κενό. Το ευρύτερο τοπίο της τεχνητής νοημοσύνης χαρακτηρίζεται από τις διαφορετικές προσεγγίσεις των εταιρειών απέναντι στον αμερικανικό στρατό και το Πεντάγωνο.

Ο CEO της Anthropic, Dario Amodei, απέρριψε κατηγορηματικά την προοπτική συνεργασίας με το Πεντάγωνο για τη χρήση του μοντέλου Claude εκφράζοντας έντονες ανησυχίες για τη μαζική εγχώρια παρακολούθηση και την αξιοποίηση των εργαλείων του σε πλήρως αυτόνομα οπλικά συστήματα. Η άρνηση αυτή οδήγησε το αμερικανικό Υπουργείο Άμυνας να χαρακτηρίσει την Anthropic ως «κίνδυνο για την αλυσίδα εφοδιασμού».

Το κενό που άφησε η Anthropic καλύφθηκε άμεσα από την OpenAI. Η ηγεσία της OpenAI, υπό τον Sam Altman, αποδέχθηκε τη σύναψη συμβολαίων με τον αμερικανικό στρατό, προκαλώντας σφοδρές αντιδράσεις ακόμα και εντός της εταιρείας. Οι συμβάσεις αυτές αρχικά περιείχαν νομικά κενά που επέτρεπαν δυνητικά εφαρμογές μαζικής παρακολούθησης, πριν τελικά τροποποιηθούν. Η στρατηγική επιλογή του Altman προκάλεσε την αποχώρηση στελεχών από το τμήμα ρομποτικής της OpenAI, ενώ παράλληλα έδωσε αφορμή στο διαδικτυακό κίνημα «Cancel ChatGPT», ενισχύοντας το κύμα φυγής χρηστών.

Η στάση της Ευρώπης

Η συγκεκριμένη διαμάχη, παρόλο που εκκινεί από τη Silicon Valley και το αμερικανικό Πεντάγωνο, επηρεάζει καθοριστικά το παγκόσμιο τεχνολογικό οικοσύστημα. Στην Ευρώπη, το ρυθμιστικό πλαίσιο μέσω του AI Act έχει ήδη θέσει ξεκάθαρα όρια γύρω από τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου (high-risk AI systems), απαγορεύοντας ρητά την προληπτική αστυνόμευση και τη βιομετρική μαζική παρακολούθηση σε πραγματικό χρόνο.

Ωστόσο, το ευρωπαϊκό AI Act διατηρεί εξαιρέσεις αποκλειστικά για λόγους εθνικής ασφάλειας, με αποτέλεσμα αμυντικές βιομηχανίες και startups υψηλής τεχνολογίας να αναπτύσσουν λογισμικό για ευρωπαϊκά και νατοϊκά προγράμματα. Η ενσωμάτωση αλγορίθμων μηχανικής μάθησης σε τέτοια συστήματα φέρνει τους Ευρωπαίους μηχανικούς αντιμέτωπους με τα ίδια ηθικά διλήμματα. Μέχρι πού φτάνει η συμβολή της εμπορικής τεχνολογίας σε επιχειρησιακά περιβάλλοντα όπου μια εσφαλμένη απόφαση αλγορίθμου δεν μεταφράζεται απλώς σε ένα κακό κείμενο, αλλά σε στοχοποίηση σε συνθήκες μάχης;

Με τη ματιά του Techgear

Οι εξελίξεις στο εσωτερικό των εταιρειών τεχνολογίας αποδεικνύουν ότι τα όρια της παραγωγικής τεχνητής νοημοσύνης δεν έχουν δοκιμαστεί πλήρως στην πράξη, πόσω μάλλον στο σκληρό πεδίο των στρατιωτικών επιχειρήσεων. Το τεχνικό υπόβαθρο των μοντέλων που βασίζονται σε Transformer αρχιτεκτονικές παρουσιάζει εγγενώς φαινόμενα «παραισθήσεων» και αδυναμία πλήρους λογικής εξήγησης του πώς πήραν μια απόφαση.

Η αξιοποίηση αυτών των συστημάτων από το Πεντάγωνο ή από οποιονδήποτε άλλο στρατό ενέχει τον κίνδυνο τα τεχνικά σφάλματα να αποκτήσουν θανατηφόρο αντίκτυπο. Οι 600 υπάλληλοι της Google αντιλαμβάνονται την τεχνική αδυναμία ελέγχου ενός συστήματος που μπορεί να κληθεί να εκτιμήσει στρατηγικούς κινδύνους σε δευτερόλεπτα. Το ζητούμενο, πλέον, είναι εάν η επιδίωξη αυξημένων κερδών από συμβόλαια δισεκατομμυρίων με κρατικούς φορείς θα μετατρέψει τις μεγάλες εταιρείες τεχνολογίας από παρόχους λογισμικού σε άμεσους αμυντικούς εργολάβους, αδιαφορώντας για τον διαρκή κίνδυνο των ηθικών και πρακτικών λαθών του AI.

*Μπορείτε πλέον να προσθέσετε το Techgear.gr ως Προτιμώμενη Πηγή ενημέρωσης για τις αναζητήσεις σας στο Google Search!

Loading