Η AI «προβλέπει» το έγκλημα και το Minority Report έρχεται ακόμα πιο κοντά

Μπορεί η τεχνητή νοημοσύνη να προβλέψει ένα έγκλημα προτού καν συμβεί; Το ερώτημα αυτό, που μέχρι πρόσφατα ανήκε στη σφαίρα της επιστημονικής φαντασίας, φαίνεται πως αποκτά πλέον πραγματική βάση. Δύο δεκαετίες μετά την προβολή της ταινίας Minority Report, όπου ο Tom Cruise υποδυόταν έναν αστυνομικό που συλλαμβάνει εγκληματίες πριν δράσουν, μια startup εταιρεία στις ΗΠΑ επιχειρεί να μετατρέψει το σενάριο σε πραγματικότητα.

Ο Herman DeBoard, ιδρυτής και CEO της startup Airez, παρουσίασε ένα σύστημα τεχνητής νοημοσύνης που φιλοδοξεί να αλλάξει ριζικά τον τρόπο με τον οποίο λειτουργεί η ασφάλεια σε δημόσιους χώρους. Όπως εξηγεί, η πλατφόρμα του χρησιμοποιεί δίκτυα νευρωνικής μάθησης για να εντοπίζει σε πραγματικό χρόνο ύποπτες συμπεριφορές, πριν αυτές εξελιχθούν σε εγκληματικές πράξεις.

«Είναι σχεδόν ό,τι βλέπαμε στο Minority Report, μόνο που το δικό μας σύστημα δεν χρειάζεται προφητικά όντα», σχολιάζει ο DeBoard, παραδεχόμενος πως η σύγκριση με τη διάσημη ταινία είναι αναπόφευκτη.

Η λειτουργία του Airez ξεκινά με την παροχή δεδομένων από έναν πελάτη – για παράδειγμα ένα καζίνο, ένα στάδιο ή έναν σταθμό συγκοινωνίας. Το σύστημα αναλύει βίντεο, ήχο και περιβαλλοντικές πληροφορίες, εντοπίζοντας «ανωμαλίες» στη συμπεριφορά ανθρώπων και αντικειμένων.

Το Airez δεν περιορίζεται στην απλή παρακολούθηση. Χρησιμοποιεί αισθητήρες, κάμερες υπερύθρων και το σύστημα FoRi (Fiber Optic Ring Interferometer), το οποίο ανιχνεύει δονήσεις και ήχους με εξαιρετική ακρίβεια. Όλα αυτά συνδέονται σε έναν κεντρικό πίνακα ελέγχου, επιτρέποντας στους χειριστές ασφαλείας να λαμβάνουν σύντομες οπτικοποιημένες αναφορές διάρκειας 60 δευτερολέπτων, όπου παρουσιάζεται το «σενάριο» του τι ακριβώς συνέβη.

«Δεν μας ενδιαφέρει ποιος είναι κάποιος, αλλά τι κάνει», εξηγεί ο DeBoard. «Αν, για παράδειγμα, ένα όπλο μπαίνει σε σχολείο ή κάποιος καταρρέει σε διάδρομο νοσοκομείου, το σύστημα ειδοποιεί αμέσως».

Στην πράξη, η τεχνητή νοημοσύνη του Airez λειτουργεί σαν ένας «ψηφιακός πράκτορας» που συνδυάζει δεδομένα από πολλαπλές πηγές. Ο DeBoard περιγράφει την AI του ως «γυναίκα με αισθήσεις», που μπορεί να «βλέπει», να «ακούει» και –σε έναν βαθμό– να «μυρίζει» μέσω ειδικών αισθητήρων αερίων. Στο μέλλον, φιλοδοξεί να της δώσει και τη δυνατότητα αυτόνομης δράσης, όπως η ενεργοποίηση drones ή η εκκένωση χώρων σε περίπτωση κινδύνου.

Ο DeBoard υποστηρίζει πως το σύστημα μπορεί να προσαρμοστεί σε οποιοδήποτε περιβάλλον – από αεροδρόμια και μέσα μεταφοράς μέχρι βιομηχανικές εγκαταστάσεις. Ήδη, όπως αναφέρει, το Airez λειτουργεί πιλοτικά σε τρεις συγκοινωνιακούς φορείς και σε μια διεθνή εταιρεία ενέργειας.

«Σκοπός μας είναι να χρησιμοποιήσουμε την τεχνητή νοημοσύνη για να βελτιώσουμε τις ανθρώπινες συνθήκες, όχι να τις επιδεινώσουμε», τονίζει. Παράλληλα, δεν παραλείπει να σημειώσει πως η τεχνολογία που αναπτύσσει μπορεί στο μέλλον να χρησιμοποιηθεί όχι μόνο για την πρόληψη εγκλημάτων, αλλά και για την παρακολούθηση λειτουργικής αποδοτικότητας ή καταναλωτικών τάσεων.

Η προοπτική μιας AI που παρακολουθεί συνεχώς τη συμπεριφορά ανθρώπων προκαλεί έντονες ανησυχίες. Ο Darrell West, ερευνητής του Brookings Institute, αναγνωρίζει ότι τέτοιες τεχνολογίες έχουν μεγάλη επιχειρησιακή αξία, αλλά προειδοποιεί πως «η λεπτή γραμμή ανάμεσα στην ασφάλεια και την παραβίαση της ιδιωτικότητας είναι εξαιρετικά εύθραυστη».

Ο Matthew Guariglia, αναλυτής της Electronic Frontier Foundation, πηγαίνει ένα βήμα παραπέρα:

Η τεχνητή νοημοσύνη δεν κατανοεί την ανθρώπινη συμπεριφορά. Απλώς αναγνωρίζει μοτίβα βασισμένα σε προκατειλημμένα δεδομένα. Αν συνδυαστεί με τεχνολογίες αναγνώρισης προσώπου, το αποτέλεσμα μπορεί να είναι καταστροφικό, από λανθασμένες συλλήψεις έως στοχευμένες διακρίσεις.

Οι οργανισμοί προστασίας δικαιωμάτων προειδοποιούν πως η μαζική παρακολούθηση, ακόμη κι αν γίνεται με καλές προθέσεις, δημιουργεί συνθήκες δυστοπίας. Ειδικά σε χώρες χωρίς αυστηρή νομοθεσία περί απορρήτου, η χρήση τέτοιων συστημάτων μπορεί να εξελιχθεί σε μηχανισμό κοινωνικού ελέγχου.

Ο DeBoard δηλώνει πως κατανοεί τις αντιρρήσεις, αλλά ξεκαθαρίζει ότι το Airez δεν ασχολείται με την αναγνώριση προσώπων ή πινακίδων κυκλοφορίας, δύο τεχνολογίες που έχουν βρεθεί στο επίκεντρο της κριτικής για παραβίαση ιδιωτικότητας. «Δεν δημιουργούμε προσωπικά προφίλ, ούτε αποθηκεύουμε δεδομένα ατόμων», επισημαίνει. «Το ενδιαφέρον μας εστιάζεται αποκλειστικά στην ανίχνευση επικίνδυνων γεγονότων».

Αναγνωρίζει, πάντως, ότι η κοινωνία βρίσκεται αντιμέτωπη με μια δύσκολη ισορροπία: «Ζούμε σε έναν κόσμο όπου σχεδόν κάθε μας βήμα καταγράφεται από κάμερες. Το ζήτημα δεν είναι αν θα παρακολουθούμαστε, αλλά πώς θα χρησιμοποιήσουμε τα δεδομένα για να προστατεύσουμε ζωές».

Το Airez μπορεί να μην προβλέπει ακόμη το μέλλον όπως το σύστημα PreCrime της ταινίας, αλλά φέρνει την ανθρωπότητα ένα βήμα πιο κοντά σε αυτό. Οι υποστηρικτές του το βλέπουν ως εργαλείο πρόληψης και προστασίας, ενώ οι επικριτές το θεωρούν πιθανή απειλή για τις πολιτικές ελευθερίες.

Όπως σημειώνει ο West, «ο φόβος του εγκλήματος συνήθως υπερβαίνει τα πραγματικά στατιστικά. Και καμία τεχνητή νοημοσύνη δεν μπορεί να εξαλείψει τον φόβο». Ίσως, τελικά, το μεγαλύτερο στοίχημα να μην είναι αν οι μηχανές θα προβλέπουν τα εγκλήματα, αλλά αν οι άνθρωποι θα καταφέρουν να θέσουν όρια στη δύναμή τους.

[via]

Loading