Η Google αποσύρει τα AI Overviews που αφορούν ιατρικές συμβουλές

Σε μια κίνηση που εγείρει σοβαρά ερωτήματα για την αξιοπιστία της τεχνητής νοημοσύνης σε κρίσιμους τομείς, η Google προχώρησε εσπευσμένα στην αφαίρεση συγκεκριμένων αποτελεσμάτων από την υπηρεσία «AI Overviews». Η απόφαση αυτή ήρθε ως απάντηση σε αποκαλύψεις που θέλουν τον αλγόριθμό της να παρέχει ανακριβείς, παραπλανητικές και εν δυνάμει απειλητικές για τη ζωή ιατρικές συμβουλές στους χρήστες.

Το χρονικό της αποκάλυψης

Η υπόθεση ήρθε στο φως της δημοσιότητας μετά από ενδελεχή έρευνα του The Guardian, η οποία κατέδειξε ότι η λειτουργία AI Overviews —οι αυτόματες περιλήψεις που εμφανίζονται στην κορυφή των αποτελεσμάτων αναζήτησης— συχνά προσέφερε πληροφορίες που βρίσκονταν σε πλήρη αντίθεση με τα ιατρικά πρωτόκολλα.

Σύμφωνα με τα ευρήματα, η Google αναγκάστηκε να απενεργοποιήσει τις AI απαντήσεις για ερωτήματα που αφορούσαν ιατρικές εξετάσεις και σοβαρές παθήσεις. Ένα από τα πιο χαρακτηριστικά παραδείγματα αφορούσε ασθενείς με καρκίνο στο πάγκρεας. Σε σχετική αναζήτηση για διατροφικές οδηγίες, η τεχνητή νοημοσύνη της Google φέρεται να συμβούλευε τους ασθενείς να αποφεύγουν τροφές με υψηλά λιπαρά. Ωστόσο, οι ειδικοί επισημαίνουν ότι αυτή η οδηγία είναι εντελώς λανθασμένη για τη συγκεκριμένη ομάδα ασθενών, καθώς συχνά χρειάζονται δίαιτες υψηλής θερμιδικής αξίας για να διατηρήσουν το βάρος τους κατά τη διάρκεια των θεραπειών.

Όταν οι αριθμοί λένε τη μισή αλήθεια

Εξίσου ανησυχητικά ήταν τα αποτελέσματα για τις εξετάσεις ηπατικής λειτουργίας. Χρήστες που αναζητούσαν το φυσιολογικό εύρος τιμών για συγκεκριμένες αιματολογικές εξετάσεις, λάμβαναν ως απάντηση λίστες αριθμών χωρίς κανένα απολύτως πλαίσιο. Η AI παρέλειπε κρίσιμες παραμέτρους όπως η ηλικία, το φύλο, η εθνικότητα ή το ιατρικό ιστορικό, παράγοντες που διαφοροποιούν δραματικά το τι θεωρείται «φυσιολογικό» για κάθε οργανισμό.

Εκπρόσωποι οργανισμών υγείας, όπως το British Liver Trust, προειδοποίησαν ότι τέτοιου είδους γενικεύσεις είναι επικίνδυνες. Ένας ασθενής με σοβαρή ηπατική νόσο θα μπορούσε να δει τις τιμές του να εμπίπτουν στα «φυσιολογικά» όρια που έδινε η Google και να εφησυχάσει λανθασμένα, παραμελώντας την αναγκαία ιατρική παρακολούθηση. Αντίστοιχα, υγιείς άνθρωποι θα μπορούσαν να πανικοβληθούν άδικα.

Η «παγίδα» της μηδενικής αναζήτησης (Zero-Click)

Το πρόβλημα εντείνεται από τη φύση της ίδιας της υπηρεσίας AI Overviews. Καταλαμβάνοντας την προνομιακή θέση στο πάνω μέρος της οθόνης, οι περιλήψεις αυτές ενθαρρύνουν τη συμπεριφορά «zero-click»: ο χρήστης διαβάζει την απάντηση και φεύγει, χωρίς να επισκεφθεί την αρχική πηγή ή να διασταυρώσει την πληροφορία.

Σε θέματα υγείας, όπου η απόχρωση και η λεπτομέρεια κάνουν τη διαφορά, η απλοποίηση που επιχειρούν τα γλωσσικά μοντέλα (LLMs) μπορεί να αποβεί μοιραία. Η έρευνα εντόπισε επίσης επικίνδυνες συμβουλές σε θέματα ψυχικής υγείας, όπως η ψύχωση και οι διατροφικές διαταραχές, όπου η AI πρότεινε λύσεις που θα μπορούσαν να αποτρέψουν τους πάσχοντες από το να αναζητήσουν επαγγελματική βοήθεια.

Η αντίδραση της Google και οι αλγοριθμικές «παραισθήσεις»

Απέναντι στον θόρυβο που προκλήθηκε, η Google αντέδρασε άμεσα αφαιρώντας τις περιλήψεις για συγκεκριμένους όρους αναζήτησης, όπως «normal range for liver blood tests». Εκπρόσωπος της εταιρείας δήλωσε ότι, αν και η πλειονότητα των AI αποτελεσμάτων είναι ακριβής και παραπέμπει σε αξιόπιστες πηγές, λαμβάνονται μέτρα όταν εντοπίζονται παραβιάσεις των πολιτικών περιεχομένου.

Ωστόσο, το περιστατικό αναδεικνύει μια δομική αδυναμία των συστημάτων παραγωγικής AI: την τάση για «παραισθήσεις» και την αδυναμία κατανόησης του ρίσκου. Το σύστημα δεν «καταλαβαίνει» από ιατρική, απλώς συνθέτει κείμενο με βάση πιθανότητες. Όταν αυτό το κείμενο αφορά τη διαχείριση καρκίνου ή την ερμηνεία εργαστηριακών εξετάσεων, το ρίσκο μεταφέρεται από τον ψηφιακό κόσμο στον πραγματικό.

Το μέλλον της αναζήτησης και η ευθύνη των πλατφορμών

Το επεισόδιο αυτό δεν αποτελεί μεμονωμένο περιστατικό, αλλά μέρος μιας ευρύτερης συζήτησης για το πώς η τεχνητή νοημοσύνη αναδιαμορφώνει το διαδίκτυο. Καθώς οι μηχανές αναζήτησης μετατρέπονται σε «μηχανές απαντήσεων», η γραμμή μεταξύ της παράθεσης πληροφοριών και της παροχής συμβουλών θολώνει επικίνδυνα.

Εν κατακλείδι, η απόσυρση αυτών των αποτελεσμάτων από την Google είναι μια παραδοχή ότι, προς το παρόν, η τεχνολογία δεν είναι έτοιμη να αντικαταστήσει τον γιατρό. Όσο εντυπωσιακά κι αν είναι τα εργαλεία τεχνητής νοημοσύνης, όταν το διακύβευμα είναι η ανθρώπινη υγεία, η «γρήγορη απάντηση» δεν είναι πάντα και η σωστή.

Loading