Για τους βιαστικούς αναγνώστες (TL;DR)
- Το Copilot Chat παρακάμπτει τους κανόνες Data Loss Prevention (DLP) και «διαβάζει» emails με ρητή σήμανση εμπιστευτικότητας.
- Το σφάλμα εντοπίζεται αποκλειστικά στους φακέλους «Απεσταλμένα» και «Πρόχειρα» των εταιρικών χρηστών του Microsoft 365.
- Η Microsoft επιβεβαίωσε το πρόβλημα (κωδικός CW1226324) και διανέμει ήδη patch, χωρίς όμως να αποκαλύπτει την κλίμακα της διαρροής.
- Η εξέλιξη αυτή δημιουργεί τεράστιο πονοκέφαλο στα τμήματα IT, θέτοντας σε κίνδυνο την κανονιστική συμμόρφωση εκατοντάδων επιχειρήσεων.
Η βασική υπόσχεση της τεχνητής νοημοσύνης στα εταιρικά περιβάλλοντα είναι η αύξηση της παραγωγικότητας και η εξοικονόμηση χρόνου. Τι γίνεται όμως όταν ο πανέξυπνος ψηφιακός σας βοηθός αρχίζει να αποκτά πρόσβαση στα πιο καλά κρυμμένα εταιρικά μυστικά; Το πρόσφατο περιστατικό με το Microsoft 365 Copilot αποδεικνύει ότι η ενσωμάτωση της AI στον πυρήνα των εργαλείων γραφείου εγκυμονεί κινδύνους που οι παραδοσιακές αρχιτεκτονικές ασφαλείας δυσκολεύονται να διαχειριστούν. Δεν πρόκειται απλώς για μια αστοχία στον κώδικα, αλλά για ένα θεμελιώδες ρήγμα στην εμπιστοσύνη των επιχειρήσεων προς τις πλατφόρμες γενετικής νοημοσύνης.
Γιατί αυτό το bug είναι εφιάλτης για τα IT
Αν αναλύσουμε τα τεχνικά δεδομένα που έχουμε στη διάθεση μας, το πρόβλημα (το οποίο εντοπίστηκε στα τέλη Ιανουαρίου 2026) χτυπάει κατευθείαν στην «καρδιά» της εταιρικής ασφάλειας: τα Data Loss Prevention (DLP) policies.
Το Copilot Chat, και συγκεκριμένα το "work tab", αγνόησε πλήρως τις ετικέτες ευαισθησίας που κλειδώνουν την πρόσβαση σε αυτοματοποιημένα εργαλεία. Αντί να προσπεράσει τα εμπιστευτικά δεδομένα, το AI μοντέλο άρχισε να σκανάρει και να παράγει περιλήψεις από emails που βρίσκονταν στα Απεσταλμένα (Sent Items) και τα Πρόχειρα (Drafts) των χρηστών.
Γιατί έχει σημασία
Η σημασία αυτής της είδησης είναι τεράστια για τον εταιρικό κόσμο. Σκεφτείτε ένα στέλεχος που διατηρεί στα πρόχειρα ένα email για μια επερχόμενη εξαγορά, απολύσεις, ή ευαίσθητα οικονομικά στοιχεία πελατών. Αν το Copilot συνοψίσει αυτά τα δεδομένα, δημιουργείται ένας ανεξέλεγκτος αγωγός διαρροής πληροφοριών εντός του οικοσυστήματος της εταιρείας.
Γνωρίζοντας πώς λειτουργούν τα συστήματα της Microsoft, η τεχνική μας εμπειρία υπαγορεύει ότι το backend του Copilot πιθανότατα απέτυχε να συγχρονιστεί σωστά με τα δικαιώματα του Microsoft Purview κατά την κλήση του API. Σε αντίθεση με παλαιότερα bugs που αφορούσαν κρασαρίσματα, εδώ έχουμε πλήρη κατάρρευση των στεγανών. Αυτό θέτει τις εταιρείες προ των ευθυνών τους για παραβιάσεις κανονισμών (όπως το GDPR) και κάνει την υιοθέτηση της AI να μοιάζει με ναρκοπέδιο.
Τι ισχύει και τι ελέγχεται
Για να βάλουμε τα πράγματα στη θέση τους και να διαχωρίσουμε τα γεγονότα από την παραφιλολογία που αναπτύσσεται στα σχετικά forums:
- Τι γνωρίζουμε επιβεβαιωμένα: Η Microsoft παραδέχτηκε το σφάλμα επικαλούμενη "απροσδιόριστο σφάλμα κώδικα". Ένα patch άρχισε να διανέμεται στις αρχές Φεβρουαρίου, και η εταιρεία παρακολουθεί ενεργά την εφαρμογή του.
- Τι ακούγεται στους διαδρόμους (και ελέγχεται): Η Microsoft αρνείται πεισματικά να αποκαλύψει τον ακριβή αριθμό των οργανισμών που επηρεάστηκαν. Παράλληλα, υπάρχουν έντονες ανησυχίες από ειδικούς κυβερνοασφάλειας για το αν τα "διαβασμένα" εμπιστευτικά δεδομένα αποθηκεύτηκαν προσωρινά σε cache servers του Copilot ή αν, στο χειρότερο σενάριο, αλληλεπίδρασαν με τα μοντέλα εκμάθησης, κάτι που η Microsoft δεν έχει διαψεύσει με απόλυτη τεχνική σαφήνεια.
Η άποψη μας στο Techgear
Αυτό που μας προβληματίζει ιδιαίτερα στο Techgear είναι η επιφανειακή αντιμετώπιση του ζητήματος από πλευράς Microsoft, η οποία το χαρακτήρισε απλώς ως μια ενημέρωση ρουτίνας. Η εκτίμηση μας είναι ότι το συγκεκριμένο περιστατικό θα αποτελέσει σημείο καμπής. Η βιασύνη των τεχνολογικών κολοσσών να ενσωματώσουν την τεχνητή νοημοσύνη παντού, ξεπερνάει τα όρια αντοχής των υφιστάμενων πρωτοκόλλων ασφαλείας. Όσο τα AI εργαλεία αποκτούν βαθύτερη πρόσβαση στα δεδομένα μας, η φράση "απροσδιόριστο σφάλμα κώδικα" από επίσημα χείλη δεν αποτελεί δικαιολογία, αλλά προειδοποιητικό καμπανάκι για κάθε IT Admin που σέβεται τη δουλειά του.