Blog

ΑΙ: Λάθη και αστοχίες όταν παρέχει ιατρικές συμβουλές

Μια νέα μελέτη προειδοποιεί για τους κινδύνους των chatbots τεχνητής νοημοσύνης όταν παρέχουν ιατρικές συμβουλές. Πρόκειται για την μεγαλύτερη μελέτη χρηστών μέχρι σήμερα σχετικά με τη χρήση μεγάλων γλωσσικών μοντέλων (LLMs) για την υποστήριξη του κοινού σε ιατρικές αποφάσεις. Τα αποτελέσματα δημοσιεύθηκαν στο Nature Medicine. Η νέα μελέτη, με επικεφαλής το Oxford Internet Institute και το Nuffield Department of Primary Care Health Sciences του University of Oxford, σε συνεργασία με το MLCommons και άλλους οργανισμούς, αποκαλύπτει ένα σημαντικό χάσμα μεταξύ των υποσχέσεων των μεγάλων γλωσσικών μοντέλων και της πραγματικής τους χρησιμότητας για άτομα που αναζητούν ιατρικές συμβουλές. Παρότι τα μοντέλα αυτά διακρίνονται σε τυποποιημένες δοκιμασίες ιατρικών γνώσεων, ενέχουν κινδύνους όταν χρησιμοποιούνται από πραγματικούς χρήστες για τα δικά τους συμπτώματα. Οι ειδικοί επισημαίνουν ότι, παρά τον ενθουσιασμό γύρω από την τεχνητή νοημοσύνη, αυτή δεν είναι ακόμη έτοιμη να αναλάβει τον ρόλο του γιατρού. Οι ασθενείς πρέπει να γνωρίζουν ότι η αναζήτηση συμβουλής από ένα γλωσσικό μοντέλο σχετικά με τα συμπτώματά τους μπορεί να είναι επικίνδυνη, καθώς μπορεί να οδηγήσει σε λανθασμένες διαγνώσεις και σε αποτυχία αναγνώρισης επειγουσών καταστάσεων. Στη μελέτη, οι συμμετέχοντες χρησιμοποίησαν LLMs για να εντοπίσουν πιθανές παθήσεις και να αποφασίσουν την κατάλληλη ενέργεια, όπως επίσκεψη σε γιατρό γενικής ιατρικής ή μετάβαση στο νοσοκομείο, βασιζόμενοι σε συγκεκριμένα ιατρικά σενάρια που είχαν αναπτυχθεί από γιατρούς.

Στο πλαίσιο της έρευνας πραγματοποιήθηκε τυχαιοποιημένη δοκιμή με σχεδόν 1.300 διαδικτυακούς συμμετέχοντες, οι οποίοι κλήθηκαν να αναγνωρίσουν πιθανές παθήσεις και να προτείνουν την κατάλληλη ενέργεια βάσει προσωπικών ιατρικών σεναρίων. Οι μισοί συμμετέχοντες χρησιμοποίησαν ένα LLM για βοήθεια, ενώ οι υπόλοιποι βασίστηκαν σε παραδοσιακές πηγές, όπως διαδικτυακές αναζητήσεις ή τη δική τους κρίση. Το βασικό εύρημα: όσοι χρησιμοποίησαν τεχνητή νοημοσύνη δεν έλαβαν καλύτερες αποφάσεις από εκείνους που δεν τη χρησιμοποίησαν. Οι χρήστες δεν γνώριζαν ποιες πληροφορίες έπρεπε να δώσουν στο σύστημα. Οι απαντήσεις συχνά περιείχαν συνδυασμό σωστών και λανθασμένων συστάσεων, τις οποίες οι χρήστες δυσκολεύονταν να διακρίνουν. Το αποτέλεσμα ήταν σύγχυση, ιδιαίτερα σε περιπτώσεις όπου απαιτείται άμεση ιατρική παρέμβαση. Οι ερευνητές υπογραμμίζουν ότι, όπως τα φάρμακα υποβάλλονται σε κλινικές δοκιμές πριν κυκλοφορήσουν, έτσι και τα συστήματα τεχνητής νοημοσύνης θα πρέπει να δοκιμάζονται σε πραγματικές συνθήκες χρήσης πριν ενσωματωθούν ευρέως σε υπηρεσίες υγείας.

Πηγή: healthdaily.gr
Facebook
LinkedIn
X