Εκατομμύρια άνθρωποι χρησιμοποιούν καθημερινά εργαλεία τεχνητής νοημοσύνης για πληροφορίες και καθοδήγηση σε θέματα υγείας. Ωστόσο, μια νέα επιστημονική μελέτη φέρνει στο προσκήνιο σοβαρά ερωτήματα σχετικά με την αξιοπιστία του ChatGPT Health σε κρίσιμες ιατρικές καταστάσεις.
Έρευνα από την Icahn School of Medicine at Mount Sinai, που δημοσιεύθηκε στο έγκριτο περιοδικό Nature Medicine, δείχνει ότι σε ορισμένες περιπτώσεις το σύστημα ενδέχεται να μην κατευθύνει σωστά τους χρήστες προς τα επείγοντα, ακόμη και όταν πρόκειται για σοβαρά περιστατικά.

Τι εξέτασε η μελέτη για το ChatGPT Health
Η μελέτη αποτελεί την πρώτη ανεξάρτητη αξιολόγηση ασφάλειας του συγκεκριμένου εργαλείου από την κυκλοφορία του. Οι ερευνητές επιχείρησαν να απαντήσουν σε ένα κρίσιμο ερώτημα: Αν κάποιος αντιμετωπίζει μια επείγουσα ιατρική κατάσταση και ζητήσει βοήθεια από το ChatGPT Health, θα του συστήσει ξεκάθαρα να πάει στο νοσοκομείο; Για να το διαπιστώσουν, δημιούργησαν 60 ρεαλιστικά κλινικά σενάρια που κάλυπταν 21 διαφορετικές ιατρικές ειδικότητες. Ορισμένα αφορούσαν ήπιες καταστάσεις που μπορούσαν να αντιμετωπιστούν στο σπίτι, ενώ άλλα περιλάμβαναν σαφείς ή «ύπουλες» επείγουσες καταστάσεις.
Τρεις ανεξάρτητοι γιατροί καθόρισαν το σωστό επίπεδο επείγοντος για κάθε περίπτωση, βάσει κατευθυντήριων οδηγιών δεκάδων ιατρικών εταιρειών. Συνολικά πραγματοποιήθηκαν 960 αλληλεπιδράσεις με το σύστημα, δοκιμάζοντας διαφορετικές παραλλαγές των σεναρίων (όπως φύλο ή φυλή ασθενούς), περιπτώσεις όπου ο ίδιος ο ασθενής υποβάθμιζε τα συμπτώματά του, αλλά και σενάρια με εμπόδια πρόσβασης στην περίθαλψη, όπως έλλειψη ασφάλισης.
Τα βασικά ευρήματα: Πού εντοπίζεται ο κίνδυνος
Τα αποτελέσματα ήταν μικτά. Το ChatGPT Health ανταποκρίθηκε σωστά σε «κλασικές» επείγουσες καταστάσεις, όπως εγκεφαλικό επεισόδιο ή σοβαρή αλλεργική αντίδραση. Ωστόσο, σε πιο σύνθετες περιπτώσεις, όπου ο κίνδυνος δεν ήταν άμεσα προφανής, το σύστημα συχνά υποεκτιμούσε τη σοβαρότητα. Συγκεκριμένα, σε περισσότερες από τις μισές περιπτώσεις που οι γιατροί έκριναν ότι απαιτούσαν επείγουσα φροντίδα, το εργαλείο δεν συνέστησε άμεση μετάβαση σε τμήμα επειγόντων περιστατικών. Ανησυχητικό εύρημα ήταν ότι σε ορισμένα σενάρια το σύστημα αναγνώριζε επικίνδυνα σημεία (όπως ενδείξεις αναπνευστικής ανεπάρκειας) μέσα στην ανάλυσή του, αλλά τελικά κατέληγε σε καθησυχαστική σύσταση.
Αυτοκτονικός ιδεασμός και γραμμή 988
Ιδιαίτερη ανησυχία προκάλεσε ο τρόπος με τον οποίο το εργαλείο διαχειριζόταν περιπτώσεις αυτοκτονικού ιδεασμού. Αν και είχε σχεδιαστεί ώστε να παραπέμπει χρήστες υψηλού κινδύνου στη 988 Suicide and Crisis Lifeline, οι σχετικές ειδοποιήσεις εμφανίζονταν με ασυνέπεια. Σε ορισμένες περιπτώσεις ενεργοποιούνταν σε χαμηλού κινδύνου σενάρια, ενώ δεν εμφανίζονταν όταν ο χρήστης περιέγραφε συγκεκριμένο σχέδιο αυτοτραυματισμού.
40 εκατομμύρια χρήστες και οι ευθύνες της τεχνητής νοημοσύνης
Η OpenAI, που ανέπτυξε το εργαλείο, είχε αναφέρει ότι μέσα σε λίγες εβδομάδες από την κυκλοφορία του περίπου 40 εκατομμύρια άνθρωποι το χρησιμοποιούσαν καθημερινά για καθοδήγηση σε θέματα υγείας. Το γεγονός αυτό καθιστά τα ευρήματα της μελέτης ιδιαίτερα σημαντικά. Όπως επισημαίνουν οι ειδικοί, όταν ένα σύστημα τεχνητής νοημοσύνης επηρεάζει αποφάσεις για το αν κάποιος θα πάει ή όχι στο νοσοκομείο, το περιθώριο λάθους είναι εξαιρετικά μικρό. Η υποεκτίμηση μιας σοβαρής κατάστασης μπορεί να έχει επικίνδυνες συνέπειες, ενώ η υπερεκτίμηση επιβαρύνει άσκοπα τις υπηρεσίες υγείας. Οι συγγραφείς της μελέτης δεν προτείνουν την πλήρη αποφυγή εργαλείων τεχνητής νοημοσύνης για ιατρικά ζητήματα. Τονίζουν, όμως, ότι μπορούν να λειτουργήσουν μόνο ως συμπληρωματικό εργαλείο και όχι ως υποκατάστατο της ιατρικής αξιολόγησης.
Τι πρέπει να κάνουν οι πολίτες σε επείγουσες καταστάσεις
Σε περίπτωση επιδείνωσης ή εμφάνισης ανησυχητικών συμπτωμάτων – όπως πόνος στο στήθος, δύσπνοια, σοβαρή αλλεργική αντίδραση ή σύγχυση – η σύσταση παραμένει σαφής: άμεση επικοινωνία με επαγγελματία υγείας ή μετάβαση σε νοσοκομείο. Αντίστοιχα, σε περιπτώσεις σκέψεων αυτοτραυματισμού, απαιτείται άμεση αναζήτηση βοήθειας από αρμόδιες υπηρεσίες ή τμήμα επειγόντων.
Η διαθεσιμότητα του ChatGPT Health
Η ειδική λειτουργία ChatGPT Health της OpenAI αποτελεί ξεχωριστό περιβάλλον μέσα στην εφαρμογή του ChatGPT για ερωτήσεις και καθοδήγηση γύρω από θέματα υγείας. Δεν είναι ακόμη ευρέως διαθέσιμη στον Ευρωπαϊκό Οικονομικό Χώρο (ΕΟΧ), ωστόσο η εταιρεία έχει δηλώσει ότι σκοπεύει να επεκτείνει τη λειτουργία σε όλους τους χρήστες στο web και στο iOS το επόμενο διάστημα. Το ChatGPT Health είναι σχεδιασμένο να είναι πιο εξειδικευμένο και ενισχυμένο με αξιόπιστες πληροφορίες υγείας σε σχέση με το βασικό ChatGPT. Αυτό σημαίνει ότι ο κίνδυνος ενδέχεται να είναι ακόμη μεγαλύτερος όταν οι χρήστες βασίζονται αποκλειστικά στο βασικό σύστημα για ιατρικές συμβουλές.
Η μελέτη υπογραμμίζει την ανάγκη για συνεχή και ανεξάρτητη αξιολόγηση εργαλείων τεχνητής νοημοσύνης που επηρεάζουν κρίσιμες αποφάσεις υγείας. Καθώς τα μοντέλα ανανεώνονται συχνά, η απόδοσή τους μπορεί να βελτιώνεται ή να αλλάζει με τον χρόνο. Μέχρι τότε, η τεχνητή νοημοσύνη μπορεί να αποτελεί βοήθημα – αλλά όχι υποκατάστατο της άμεσης ιατρικής φροντίδας, ιδιαίτερα όταν διακυβεύεται η ανθρώπινη ζωή.
Διαβάστε ακόμη: O καρκίνος του μαστού στην Ελλάδα σήμερα – 3ο συνέδριο ασθενών




