Η τεχνητή νοημοσύνη έχει πλέον εισβάλει για τα καλά στην καθημερινότητά μας. Από τις μηχανές αναζήτησης μέχρι τις κάμερες ασφαλείας, λειτουργεί ως αόρατος συνεργάτης σε πλήθος εφαρμογών, συχνά με εντυπωσιακά αποτελέσματα, αλλά και με περιστασιακά επικίνδυνα λάθη. Το πιο πρόσφατο παράδειγμα ήρθε από τις ΗΠΑ, όπου ένα «έξυπνο» σύστημα επιτήρησης αναγνώρισε… ένα σακουλάκι με chips ως πιθανό πυροβόλο όπλο, προκαλώντας την επέμβαση αστυνομικής ομάδας SWAT μέσα σε σχολείο.
Το περιστατικό σημειώθηκε στις 20 Οκτωβρίου στο Kenwood High School της Βαλτιμόρης. Ο 17χρονος μαθητής Taki Allen είχε μόλις τελειώσει την προπόνηση ποδοσφαίρου και χαλάρωνε με φίλους του, όταν ξαφνικά μια σειρά από περιπολικά κατέφθασαν με σειρήνες και αναμμένα φώτα. Οι αστυνομικοί βγήκαν με τα όπλα στα χέρια και φώναξαν στον Allen να πέσει στο έδαφος με τα χέρια πίσω από την πλάτη του. Μέσα σε δευτερόλεπτα, ο μαθητής είχε περάσει χειροπέδες, χωρίς να έχει ιδέα τι είχε συμβεί.
Λίγο αργότερα, οι αστυνομικοί του έδειξαν την εικόνα που είχε αναλύσει το σύστημα τεχνητής νοημοσύνης: ένα στιγμιότυπο από κάμερα ασφαλείας που φαινόταν να δείχνει τον ίδιο να κρατά ένα «ύποπτο αντικείμενο», το οποίο, όπως αποδείχθηκε, ήταν απλώς ένα σακουλάκι πατατάκια. Η AI της εταιρείας Omnilert, που διαχειρίζεται την επιτήρηση του σχολείου, είχε εντοπίσει το αντικείμενο ως πιθανό όπλο και ειδοποίησε αυτόματα την αστυνομία.
Αφού η παρεξήγηση ξεκαθαρίστηκε, ο Allen αφέθηκε ελεύθερος χωρίς καμία κατηγορία. Όμως η εμπειρία τον άφησε σοκαρισμένο. Όπως είπε ο ίδιος, πλέον φοβάται να επιστρέψει στο σχολείο και αισθάνεται άβολα ακόμα και να τρώει κάτι ή να κρατά ένα ποτό. Πολλοί συμμαθητές του που έγιναν μάρτυρες του περιστατικού ανέφεραν επίσης ότι ένιωσαν τρόμο βλέποντας τους αστυνομικούς να στρέφουν τα όπλα τους προς έναν συμμαθητή τους.
Η διεύθυνση του σχολείου ανακοίνωσε ότι θα προσφέρει ψυχολογική υποστήριξη στους μαθητές, όμως ο Allen δήλωσε πως κανείς δεν τον έχει προσεγγίσει προσωπικά και ότι δεν έχει λάβει ούτε μια επίσημη συγγνώμη. Το γεγονός έχει ήδη πυροδοτήσει έντονες αντιδράσεις από γονείς και οργανώσεις για τα δικαιώματα των μαθητών, που κατηγορούν το σχολείο και την αστυνομία για υπερβολική εμπιστοσύνη σε μια ατελή τεχνολογία.
Η Omnilert, από την πλευρά της, υπερασπίστηκε το σύστημά της, λέγοντας ότι στην πραγματικότητα «λειτούργησε όπως πρέπει». Όπως εξήγησε εκπρόσωπος της εταιρείας, ο ρόλος του AI είναι να εντοπίζει πιθανούς κινδύνους και να ειδοποιεί τις αρχές, οι οποίες στη συνέχεια καλούνται να επαληθεύσουν τα δεδομένα. «Αν υπάρχει υποψία για παρουσία όπλου, είναι φυσικό οι αστυνομικοί να προσεγγίσουν την κατάσταση με τη μέγιστη προσοχή», ανέφερε.
Το πρόβλημα όμως, όπως τονίζουν ειδικοί στην ασφάλεια, είναι βαθύτερο. Τι θα συμβεί την επόμενη φορά που το σύστημα θα κάνει ένα «false positive» και ο στόχος δεν θα αντιδράσει ψύχραιμα όπως ο Allen; Ή αν κάποιος αστυνομικός παρερμηνεύσει μια κίνηση ως απειλή και πατήσει τη σκανδάλη; Το περιστατικό αναδεικνύει τους κινδύνους της εξάρτησης από αυτοματοποιημένα συστήματα κρίσης σε καταστάσεις που απαιτούν λεπτές, ανθρώπινες εκτιμήσεις.
Το γεγονός έχει πυροδοτήσει μια ευρύτερη συζήτηση στις ΗΠΑ σχετικά με το κατά πόσο τα σχολεία πρέπει να βασίζονται σε συστήματα τεχνητής νοημοσύνης για λόγους ασφαλείας. Τα τελευταία χρόνια, η αύξηση των περιστατικών ένοπλης βίας σε σχολεία έχει οδηγήσει πολλές πολιτείες να υιοθετήσουν λύσεις επιτήρησης βασισμένες σε AI, οι οποίες υπόσχονται να εντοπίζουν ύποπτες κινήσεις ή αντικείμενα πριν συμβεί κάτι τραγικό. Όμως η υπόθεση του Allen δείχνει την άλλη πλευρά του νομίσματος: ένα σύστημα που δεν μπορεί να ξεχωρίσει ένα σακουλάκι πατατάκια από ένα όπλο μπορεί εύκολα να προκαλέσει πανικό και τραυματισμούς.
[source]