Οι εταιρείες τεχνητής νοημοσύνης έχουν τώρα εγκαταλείψει κατά κύριο λόγο την πρώην συνήθη πρακτική να συμπεριλαμβάνουν ιατρικές αποποιήσεις ευθύνης και προειδοποιήσεις σε απαντήσεις για υγειονομικά ζητήματα. Στην πραγματικότητα πολλά από τα κορυφαία μοντέλα τεχνητής νοημοσύνης πλέον όχι μόνο απαντούν σε ερωτήσεις που αφορούν τομείς της υγείας, αλλά δίχως υπερβολή μέσα από μία αλληλουχία ερωτοαπαντήσεων προσπαθούν να κάνουν διάγνωση. Οι αποποιήσεις ευθύνης χρησίμευαν ως υπενθύμιση για τους χρήστες που ρωτούσαν την τεχνητή νοημοσύνη για θέματα από διαταραχές διατροφής μέχρι διαγνώσεις καρκίνου και η απουσία τους σημαίνει ότι οι χρήστες της τεχνητής νοημοσύνης είναι πιο πιθανό να εμπιστευτούν “επικίνδυνες ιατρικές συμβουλές”. 

Η Sonali Sharma, υποψήφια Fulbright στο Ιατρικό Σχολείο του Πανεπιστημίου Στάνφορντ, ήδη από το 2023 αξιολογούσε το πόσο καλά τα μοντέλα τεχνητής νοημοσύνης μπορούσαν να ερμηνεύσουν μαστογραφίες και παρατήρησε ότι τα μοντέλα πάντα συμπεριλάμβαναν αποποιήσεις, προειδοποιώντας την να μην τα εμπιστεύεται για ιατρικές συμβουλές. Ορισμένα μοντέλα αρνούνταν να ερμηνεύσουν τις εικόνες. “Δεν είμαι γιατρός” απαντούσαν. 

Ξαφνικά μία ημέρα δεν υπήρχε καμία αποποίηση“. Η Sharma περίεργη για να μάθει περισσότερα, δοκίμασε γενιές μοντέλων που εισήχθησαν από το 2022 από τις OpenAI, Anthropic, DeepSeek, Google και xAΙ για το πως απάντησαν σε 500 ερωτήσεις, όπως ποιες φαρμακευτικές ουσίες είναι ασφαλές να συνδυαστούν και πως ανέλυσαν 1.500 ιατρικές εικόνες, όπως ακτινογραφίες θώρακα που θα μπορούσαν να υποδεικνύουν πνευμονία. 

Τα αποτελέσματα που δημοσιεύθηκαν στο arXiv και δεν έχουν υποβληθεί ακόμη σε αξιολόγηση από ομοτίμους, ήρθαν ως σοκ, καθώς λιγότερο από το 1% των μοντέλων του 2025 περιλάμβαναν προειδοποίηση όταν απαντούσαν σε ιατρική ερώτηση, από πάνω από 26% το 2022. Το 1% που αναλύουν ιατρικές εικόνες περιλάμβαναν προειδοποίηση, από σχεδόν 20% στην προηγούμενη περίοδο.  

Για τους έμπειρους χρήστες τεχνητής νοημοσύνης, αυτές οι αποποιήσεις μπορούν να φαίνονται ως τυπικότητα υπενθυμίζοντας στους ανθρώπους όσα θα έπρεπε ήδη να ξέρουν και βρίσκουν τρόπους να τις παρακάμπτουν από τα μοντέλα τεχνητής νοημοσύνης. Χρήστες στο Reddit έχουν συζητήσει κόλπα για να κάνουν το ChatGPT να αναλύσει ακτινογραφίες ή αιματολογικές εξετάσεις, λέγοντας του ότι οι ιατρικές εικόνες είναι μέρος ενός σεναρίου ταινίας ή μιας σχολικής εργασίας. 

Η Roxana Daneshjou, δερματολόγος και βοηθός καθηγήτρια βιοϊατρικής επιστήμης δεδομένων στο Στάνφορντ υποστηρίζει ότι αυτές οι αποποιήσεις εξυπηρετούν έναν ιδιαίτερο σκοπό και η εξαφάνισή τους αυξάνει τις πιθανότητες να προκαλέσει το λάθος της τεχνητής νοημοσύνης πραγματική ζημιά στον κόσμο. 

Υπάρχουν πολλοί τίτλοι που ισχυρίζονται ότι η τεχνητή νοημοσύνη είναι καλύτερη από τους γιατρούς. Οι ασθενείς μπορεί να μπερδευτούν από τα μηνύματα που βλέπουν στα μέσα μαζικής ενημέρωσης και οι αποποιήσεις είναι μια υπενθύμιση ότι αυτά τα μοντέλα δεν προορίζονται για ιατρική φροντίδα“. 

Οι μεγάλες εταιρείες υποστηρίζουν ότι τα αποτελέσματα δεν προορίζονται για διάγνωση ιατρικών καταστάσεων και ότι οι χρήστες είναι τελικά υπεύθυνοι.  

Ο Pataranutaporn, ερευνητής στο MIT που μελετά την αλληλεπίδραση ανθρώπου και τεχνητής νοημοσύνης τονίζει ότι ο πληθυσμός εμπιστεύεται υπερβολικά τα μοντέλα τεχνητής νοημοσύνης για θέματα υγείας, αν και τα εργαλεία αυτά κάνουν συχνά αυθαίρετες, λανθασμένες εκτιμήσεις. Ο επιστήμονας τονίζει ότι εξαφάνιση αυτών των αποποιήσεων ευθυνών σε μια περίοδο που τα μοντέλα γίνονται όλο και πιο ισχυρά και περισσότερος κόσμος τα χρησιμοποιεί εγκυμονεί κινδύνους για όλους τους χρήστες της τεχνητής νοημοσύνης με απρόβλεπτες συνέπειες. 

«Αυτά τα μοντέλα είναι πραγματικά καλά στο να παράγουν κάτι που ακούγεται πολύ πειστικό, πολύ επιστημονικό, αλλά δεν έχουν την πραγματική κατανόηση του τι ακριβώς συζητούν και όσο το μοντέλο γίνεται πιο εξελιγμένο είναι ακόμη πιο δύσκολο να εντοπιστεί πότε το μοντέλο είναι σωστό». Ο Pataranutaporn τονίζει ότι η ύπαρξη ενός σαφούς οδηγού από τον πάροχο είναι πραγματικά σημαντική για την ασφάλεια των χρηστών. Υπό αυτήν την έννοια όλα αυτά τα εργαλεία μπορεί να έχουν ένα βοηθητικό ρόλο για τον γιατρό που έχει τις γνώσεις, μπορεί όμως να αποδειχθούν καταστροφικά αν χρησιμοποιούνται αλόγιστα από τον καθένα μας. 

*Με στοιχεία από το Technology Review. 

 

 

 Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.