Η πρώτη κλινική δοκιμή ενός θεραπευτικού bot που χρησιμοποιεί τεχνητή νοημοσύνη δείχνει ότι ήταν εξίσου αποτελεσματικό με την ανθρώπινη θεραπεία για συμμετέχοντες με κατάθλιψη, άγχος ή κίνδυνο ανάπτυξης διαταραχών πρόσληψης τροφής. Παρόλα αυτά δεν δίνει το πράσινο φως στις δεκάδες εταιρείες που προωθούν τέτοιες τεχνολογίες, ενώ λειτουργούν σε ένα ρυθμιστικό γκρίζο πεδίο.
Μια ομάδα ψυχιατρικών ερευνητών και ψυχολόγων από την Ιατρική Σχολή Geisel του Κολεγίου Dartmouth ανέπτυξε το εργαλείο, που ονομάζεται Therabot και τα αποτελέσματα δημοσιεύθηκαν στις 27 Μαρτίου στο New England Journal of Medicine. Πολλές τεχνολογικές εταιρείες έχουν δημιουργήσει εργαλεία AI για θεραπεία, υποσχόμενες ότι οι άνθρωποι μπορούν να συνομιλούν με ένα bot πιο συχνά και με χαμηλότερο κόστος από ό,τι με έναν εκπαιδευμένο θεραπευτή—και ότι αυτή η προσέγγιση είναι ασφαλής και αποτελεσματική.
Πολλοί ψυχολόγοι και ψυχίατροι συμμερίζονται αυτή την προοπτική σημειώνοντας ότι λιγότεροι από τους μισούς ανθρώπους με ψυχική διαταραχή λαμβάνουν θεραπεία και όσοι το κάνουν μπορεί να έχουν μόλις 45 λεπτά συνεδρίας την εβδομάδα. Οι ερευνητές έχουν προσπαθήσει να αναπτύξουν τεχνολογία, ώστε περισσότερα άτομα να έχουν πρόσβαση στη θεραπεία, αλλά αντιμετωπίζουν δύο βασικά εμπόδια.
Πρώτον ένα θεραπευτικό bot που θα πει κάτι λάθος θα μπορούσε να προκαλέσει πραγματική βλάβη. Γι’ αυτόν τον λόγο πολλοί ερευνητές έχουν δημιουργήσει bots με σαφείς προγραμματισμένες απαντήσεις: Το λογισμικό αντλεί από μια περιορισμένη βάση εγκεκριμένων αποκρίσεων (όπως στην περίπτωση του Eliza, ενός υπολογιστικού προγράμματος-μαϊμού ψυχοθεραπευτή που δημιουργήθηκε τη δεκαετία του 1960). Όμως αυτό τα καθιστά λιγότερο ενδιαφέροντα για συνομιλία με αποτέλεσμα οι χρήστες να τα απορρίπτουν σταδιακά.
Το δεύτερο πρόβλημα είναι ότι τα βασικά χαρακτηριστικά των καλών θεραπευτικών σχέσεων—κοινό όραμα και συνεργασία—είναι δύσκολο να αναπαραχθούν μέσω λογισμικού.
Το 2019 καθώς τα πρώιμα μεγάλα γλωσσικά μοντέλα όπως το GPT της OpenAI άρχιζαν να διαμορφώνονται, οι ερευνητές στο Dartmouth σκέφτηκαν ότι η τεχνητή νοημοσύνη θα μπορούσε να βοηθήσει στην αντιμετώπιση αυτών των εμποδίων. Έτσι άρχισαν να αναπτύσσουν ένα AI μοντέλο εκπαιδευμένο να παρέχει απαντήσεις βασισμένες σε επιστημονικά δεδομένα. Αρχικά επιχείρησαν να το εκπαιδεύσουν χρησιμοποιώντας γενικές συνομιλίες για την ψυχική υγεία που είχαν συλλέξει από διαδικτυακά φόρουμ. Στη συνέχεια στράφηκαν σε χιλιάδες ώρες απομαγνητοφωνημένων συνεδριών πραγματικών ψυχοθεραπευτών.
«Πήραμε πολλά ‘χμμ-χμμ’, ‘συνεχίστε’ και μετά ‘τα προβλήματά σας πηγάζουν από τη σχέση σας με τη μητέρα σας’» δήλωσε ο Michael Heinz, ερευνητής ψυχίατρος στο Dartmouth College και στο Dartmouth Health και πρώτος συγγραφέας της μελέτης σε συνέντευξή του. «Περισσότερο στερεότυπα για το τι θα ήταν η ψυχοθεραπεία, παρά αυτό που πραγματικά θέλαμε».
Μη ικανοποιημένοι, οι ερευνητές αποφάσισαν να δημιουργήσουν δικά τους, εξατομικευμένα σύνολα δεδομένων βασισμένα σε επιστημονικά τεκμηριωμένες πρακτικές, τα οποία τελικά ενσωματώθηκαν στο μοντέλο. Σε αντίθεση, πολλά AI θεραπευτικά bots που κυκλοφορούν στην αγορά είναι απλώς ελαφρώς τροποποιημένες εκδόσεις βασικών μοντέλων, όπως το Llama της Meta, εκπαιδευμένα κυρίως σε συνομιλίες από το διαδίκτυο. Αυτό μπορεί να είναι προβληματικό, ειδικά για θέματα όπως οι διατροφικές διαταραχές.
Για να δοκιμάσουν το bot πραγματοποίησαν μια κλινική δοκιμή οκτώ εβδομάδων με 210 συμμετέχοντες που παρουσίαζαν συμπτώματα κατάθλιψης ή γενικευμένης αγχώδους διαταραχής ή είχαν υψηλό κίνδυνο εμφάνισης διατροφικών διαταραχών. Περίπου οι μισοί είχαν πρόσβαση στο Therabot, ενώ η ομάδα ελέγχου όχι. Οι συμμετέχοντες αλληλεπιδρούσαν με το AI, απαντώντας σε προτροπές και ξεκινώντας συνομιλίες με μέσο όρο περίπου 10 μηνύματα την ημέρα.
Τα αποτελέσματα έδειξαν ότι οι συμμετέχοντες με κατάθλιψη παρουσίασαν μείωση των συμπτωμάτων τους κατά 51%, το καλύτερο αποτέλεσμα της μελέτης. Εκείνοι με άγχος είδαν μείωση κατά 31%, ενώ όσοι βρίσκονταν σε κίνδυνο για διατροφικές διαταραχές ανέφεραν μείωση των ανησυχιών τους για την εικόνα του σώματος και το βάρος κατά 19%. Αυτές οι μετρήσεις βασίζονται σε αυτο-αναφορές μέσω ερωτηματολογίων, μια μέθοδος που δεν είναι τέλεια αλλά παραμένει ένα από τα καλύτερα εργαλεία που διαθέτουν οι επιστήμονες.
Αυτά τα αποτελέσματα, λέει ο Heinz, είναι παρόμοια με εκείνα που βρίσκονται σε τυχαιοποιημένες ελεγχόμενες δοκιμές ψυχοθεραπείας με 16 ώρες θεραπείας από ανθρώπινο θεραπευτή, αλλά η δοκιμή του Therabot το πέτυχε σε περίπου τον μισό χρόνο. «Εργάζομαι στον τομέα των ψηφιακών θεραπευτικών μεθόδων εδώ και πολύ καιρό και δεν έχω ξαναδεί επίπεδα αφοσίωσης που να διατηρούνται τόσο σταθερά».
Ο Jean-Christophe Bélisle-Pipon, επίκουρος καθηγητής ηθικής της υγείας στο Πανεπιστήμιο Simon Fraser, ο οποίος έχει γράψει για τα θεραπευτικά bots τεχνητής νοημοσύνης αλλά δεν συμμετείχε στην έρευνα αναφέρει ότι τα αποτελέσματα είναι εντυπωσιακά, ωστόσο επισημαίνει ότι όπως συμβαίνει με κάθε κλινική δοκιμή, αυτή δεν αντικατοπτρίζει απαραίτητα το πώς θα λειτουργούσε η θεραπεία στον πραγματικό κόσμο.
Ένα ζήτημα είναι η εποπτεία που μπορεί να απαιτεί η ευρύτερη διάθεση. Στην αρχή της δοκιμής, ο Heinz λέει ότι παρακολουθούσε προσωπικά όλα τα μηνύματα των συμμετεχόντων (οι οποίοι είχαν συναινέσει σε αυτή τη διαδικασία) για να εντοπίσει προβληματικές απαντήσεις από το bot. Όταν ρωτήθηκε αν τα αποτελέσματα επικυρώνουν τη ραγδαία αναπτυσσόμενη βιομηχανία των θεραπευτικών AI ιστοσελίδων, ο Heinz απάντησε: «Το αντίθετο».
Προειδοποιεί ότι οι περισσότερες από αυτές δεν φαίνεται να εκπαιδεύουν τα μοντέλα τους βάσει επιστημονικά τεκμηριωμένων πρακτικών, όπως η γνωσιακή συμπεριφορική θεραπεία, ούτε απασχολούν εξειδικευμένους ερευνητές για να παρακολουθούν τις αλληλεπιδράσεις. «Έχω πολλές ανησυχίες για τη βιομηχανία και το πόσο γρήγορα προχωράμε χωρίς να αξιολογούμε πραγματικά αυτή τη διαδικασία».
Όταν οι ιστότοποι AI προωθούνται ως πλατφόρμες που προσφέρουν θεραπεία σε ένα νόμιμο, κλινικό πλαίσιο, αυτό σημαίνει ότι υπόκεινται στη ρυθμιστική εποπτεία του Οργανισμού Τροφίμων και Φαρμάκων των ΗΠΑ (FDA). Μέχρι στιγμής ο FDA δεν έχει κινηθεί νομικά εναντίον πολλών από αυτούς τους ιστότοπους. Εάν το έκανε, λέει ο Heinz, «η υποψία μου είναι ότι σχεδόν κανένας—πιθανότατα κανένας—από όσους δραστηριοποιούνται σε αυτόν τον τομέα δεν θα μπορούσε να λάβει έγκριση για τους ισχυρισμούς του».
*Με στοιχεία από το Technology Review.
➪ Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.