Η τεχνητή νοημοσύνη έχει εισβάλει δυναμικά στον χώρο της υγείας, υποσχόμενη ταχύτητα και ακρίβεια που συχνά ξεπερνά τις ανθρώπινες δυνατότητες. Ωστόσο, μια νέα έρευνα από την Ιατρική Σχολή του Χάρβαρντ έρχεται να αποκαλύψει μια αθέατη και ανησυχητική πτυχή αυτής της τεχνολογικής επανάστασης. Οι αλγόριθμοι που σχεδιάστηκαν για να εντοπίζουν τον καρκίνο δεν περιορίζονται μόνο στην ανάλυση της νόσου. Αντίθετα, μαθαίνουν «σιωπηλά» να αναγνωρίζουν τη φυλή, το φύλο και την ηλικία του ασθενούς, ακόμη και όταν αυτές οι πληροφορίες δεν τους παρέχονται, οδηγώντας σε μεροληπτικές διαγνώσεις που μπορεί να θέσουν σε κίνδυνο συγκεκριμένες πληθυσμιακές ομάδες.
Το «αδύνατο» που έγινε εφικτό για την AI
Για έναν έμπειρο παθολογοανατόμο, η εξέταση ενός δείγματος ιστού στο μικροσκόπιο είναι μια διαδικασία αυστηρά εστιασμένη στην παθολογία. Βλέπει κύτταρα, ιστούς, φλεγμονές και κακοήθειες. Δεν βλέπει αν ο ασθενής είναι άνδρας ή γυναίκα, λευκός ή Αφροαμερικανός, νέος ή ηλικιωμένος. Αυτά τα στοιχεία θεωρούνται «αόρατα» στο μικροσκόπιο. Κι όμως, για τα προηγμένα συστήματα βαθιάς μάθησης, αυτές οι πληροφορίες είναι κρυμμένες μέσα στα μοτίβα των κυττάρων και είναι προσβάσιμες.
Η ερευνητική ομάδα του Χάρβαρντ, με επικεφαλής τον αναπληρωτή καθηγητή Βιοϊατρικής Πληροφορικής Kun-Hsing Yu, διαπίστωσε ότι τα μοντέλα AI μπορούν να «μαντέψουν» δημογραφικά στοιχεία από τις διαφάνειες βιοψίας με εκπληκτική επιτυχία. Το γεγονός αυτό, που αρχικά θα μπορούσε να εκληφθεί ως τεχνολογικός θρίαμβος, αποδεικνύεται η αχίλλειος πτέρνα της ψηφιακής διαγνωστικής. Όταν το σύστημα αναγνωρίζει την ταυτότητα του ασθενούς, αρχίζει, συχνά ακούσια, να βασίζει την κρίση του σε στερεότυπα και στατιστικές συσχετίσεις αντί για τα καθαρά βιολογικά δεδομένα της νόσου.
Όταν η τεχνολογία κάνει διακρίσεις
Τα αποτελέσματα της μελέτης, που δημοσιεύθηκαν πρόσφατα στο επιστημονικό περιοδικό Cell Reports Medicine, είναι αποκαλυπτικά. Εξετάζοντας τέσσερα ευρέως χρησιμοποιούμενα μοντέλα AI σε δείγματα από 20 διαφορετικούς τύπους καρκίνου, οι ερευνητές εντόπισαν σημαντικές ανισότητες στην ακρίβεια των διαγνώσεων.
Σε περίπου το 29% των διαγνωστικών εργασιών, τα συστήματα εμφάνισαν μειωμένη απόδοση σε συγκεκριμένες ομάδες. Για παράδειγμα, τα μοντέλα δυσκολεύονταν να διακρίνουν υπότυπους καρκίνου του πνεύμονα σε Αφροαμερικανούς ασθενείς, ενώ παρουσίαζαν χαμηλότερα ποσοστά επιτυχίας και στους άνδρες ασθενείς για την ίδια νόσο. Αντίστοιχα προβλήματα εντοπίστηκαν στην ταξινόμηση του καρκίνου του μαστού σε νεότερες γυναίκες, καθώς και σε περιπτώσεις καρκίνου του νεφρού, του θυρεοειδούς και του στομάχου.
Το πρόβλημα δεν είναι απλώς θεωρητικό. Μια λανθασμένη ή καθυστερημένη διάγνωση λόγω της «καταγωγής» που διέκρινε ο αλγόριθμος μπορεί να σημαίνει τη διαφορά μεταξύ μιας θεραπεύσιμης κατάστασης και μιας μοιραίας εξέλιξης.
Γιατί συμβαίνει αυτό; Η ρίζα του κακού
Η εύκολη απάντηση θα ήταν να κατηγορήσουμε τα δεδομένα εκπαίδευσης. Είναι γνωστό ότι οι βάσεις δεδομένων στην ιατρική συχνά δεν είναι αντιπροσωπευτικές, με τις μειονότητες να υποεκπροσωπούνται. Ωστόσο, ο καθηγητής Yu και η ομάδα του ανακάλυψαν ότι το πρόβλημα είναι βαθύτερο.
Ακόμη και όταν τα δείγματα ήταν ισάριθμα, το AI συνέχιζε να μεροληπτεί. Αυτό συμβαίνει επειδή οι αλγόριθμοι είναι εξαιρετικά ικανοί στο να εντοπίζουν ανεπαίσθητες μοριακές διαφορές ή μεταλλάξεις που συνδέονται συχνότερα με συγκεκριμένες πληθυσμιακές ομάδες. Χρησιμοποιούν αυτές τις διαφορές ως «συντομεύσεις» για να βγάλουν γρήγορα συμπεράσματα. Αντί να αναλύσουν εξονυχιστικά τον όγκο, βασίζονται στη στατιστική πιθανότητα που προκύπτει από το δημογραφικό προφίλ που έχουν αποκωδικοποιήσει. Ουσιαστικά, η AI πέφτει στην παγίδα της εύκολης λύσης, αγνοώντας την πολυπλοκότητα της κάθε μοναδικής περίπτωσης.
FAIR-Path: Η λύση που επαναφέρει την ισορροπία
Η ανακάλυψη του προβλήματος ήταν μόνο το πρώτο βήμα. Οι ερευνητές προχώρησαν στην ανάπτυξη μιας καινοτόμου μεθόδου για την εξάλειψη αυτών των προκαταλήψεων, ονομάζοντάς την "FAIR-Path".
Το σύστημα αυτό βασίζεται σε μια τεχνική μηχανικής μάθησης γνωστή ως «αντιθετική μάθηση». Η λογική είναι απλή αλλά ιδιοφυής: εκπαιδεύουν το μοντέλο να αγνοεί τα χαρακτηριστικά που σχετίζονται με την ταυτότητα του ασθενούς (όπως η φυλή ή το φύλο) και να εστιάζει αποκλειστικά στα χαρακτηριστικά που διαφοροποιούν τους τύπους του καρκίνου.
Τα αποτελέσματα ήταν εντυπωσιακά. Με την εφαρμογή του FAIR-Path, οι ανισότητες στη διαγνωστική ακρίβεια μειώθηκαν κατά περίπου 88%. Το μοντέλο έγινε πιο δίκαιο και πιο αξιόπιστο για όλους, χωρίς να χρειαστεί να δημιουργηθούν από την αρχή τέλειες βάσεις δεδομένων, κάτι που πρακτικά θα ήταν εξαιρετικά χρονοβόρο και δαπανηρό.
Το μέλλον της ιατρικής τεχνολογίας
Η μελέτη αυτή στέλνει ένα ξεκάθαρο μήνυμα στη βιομηχανία της τεχνολογίας υγείας: η ακρίβεια δεν αρκεί αν δεν συνοδεύεται από δικαιοσύνη. Καθώς η τεχνητή νοημοσύνη αναλαμβάνει όλο και πιο ενεργό ρόλο στη λήψη κλινικών αποφάσεων, η διασφάλιση ότι τα εργαλεία αυτά λειτουργούν αμερόληπτα είναι επιτακτική ανάγκη.
Ο καθηγητής Yu επισημαίνει ότι η ελπίδα βρίσκεται στον προσεκτικό σχεδιασμό. Αν γνωρίζουμε ότι οι αλγόριθμοι τείνουν να «κλέβουν» κοιτώντας τα δημογραφικά στοιχεία, μπορούμε να τους εκπαιδεύσουμε να κλείνουν τα μάτια σε αυτά και να βλέπουν μόνο την ασθένεια. Η τεχνολογία FAIR-Path είναι ένα σημαντικό βήμα προς αυτή την κατεύθυνση, ανοίγοντας τον δρόμο για μια ιατρική περίθαλψη όπου η ποιότητα της διάγνωσης δεν θα εξαρτάται από το ποιος είσαι, αλλά από το τι πραγματικά συμβαίνει στο σώμα σου.
Στο εγγύς μέλλον, η ομάδα του Χάρβαρντ σχεδιάζει να επεκτείνει τις δοκιμές σε διεθνές επίπεδο, συνεργαζόμενη με ιδρύματα σε διάφορες χώρες, για να διαπιστώσει πώς συμπεριφέρονται αυτά τα συστήματα σε διαφορετικά κλινικά περιβάλλοντα. Στόχος είναι η δημιουργία μιας παγκόσμιας «γλώσσας» για το ιατρικό AI, που θα είναι ταυτόχρονα ευφυής και ηθική.