Η τεχνητή νοημοσύνη γνωρίζει μεγάλη άνθηση στις μέρες μας. Καθώς τα chatbots με τεχνητή νοημοσύνη, όπως το ChatGPT, αποκτούν ολοένα και μεγαλύτερη δημοτικότητα, όλο και περισσότεροι άνθρωποι δοκιμάζουν την τεχνολογία για κάθε λογής πράγματα. Από το να λύσουν μαθηματικές ασκήσεις, να μεταφράσουν λέξεις ή και προτάσεις, μέχρι να φτιάχνουν συνταγές και λίστες για σουπερμάρκετ.

Ορισμένοι άνθρωποι στα μέσα κοινωνικής δικτύωσης έχουν επίσης αρχίσει να χρησιμοποιούν αυτά τα AI chatbots ως αυτοσχέδιους ψυχοθεραπευτές. Υποβάλλοντας ερωτήσεις ή προβλήματα ψυχικής υγείας προς την τεχνολογία, οι άνθρωποι μπορούν να λάβουν συμβουλές -συχνά δωρεάν- χωρίς να χρειάζεται να ξοδέψουν χρόνο ή χρήματα για συνεδρίες ψυχοθεραπείας.

Η δημιουργός περιεχομένου από την Καλιφόρνια, Taylor Mazza, ξεκίνησε να χρησιμοποιεί το ChatGPT κατά τη διάρκεια του τελευταίου εξαμήνου της στο πανεπιστήμιο για την ανάγνωση αστρολογικών χαρτών, αλλά σύντομα έγινε ο προσωπικός της «θεραπευτής». Αρχικά στράφηκε στο AI chatbot για να της δώσει μια αντικειμενική οπτική σε ένα προσωπικό ζήτημα, και από τότε το χρησιμοποιεί σχεδόν καθημερινά για να ξεκαθαρίσει φιλικές διαφωνίες, να αναλύσει μηνύματα και να καταγράψει σκέψεις. Συγκρίνει το ChatGPT με τον «κολλητό» της που της παρέχει άμεση ανατροφοδότηση, σε αντίθεση με την παραδοσιακή θεραπεία όπου οι συνεδρίες είναι εβδομαδιαίες. Το chatbot της δίνει καθοδήγηση μέσω ερωτήσεων, συγκεκριμένες λύσεις για τη διαχείριση συγκρούσεων, και της θέτει ερωτήματα όπως «Από πού νομίζεις ότι προέρχεται αυτό το συναίσθημα;».

@taylor_unfilteredI fear she knows me better than I know myself♬ original sound – silly

Η εξάρτηση της Mazza από το ChatGPT αντικατοπτρίζει μια ευρύτερη τάση. Πολλοί άνθρωποι, ιδιαίτερα στα κοινωνικά δίκτυα, στρέφονται στην τεχνητή νοημοσύνη για συμβουλές, ζητώντας συχνά από το ChatGPT να απαντήσει με τη φωνή της Dolly Parton ή να δώσει συμβουλές τύπου motivational speaker. Για χρήστες όπως η Mazza, η κύρια έλξη είναι η ουδετερότητα και η απουσία κριτικής, κάτι που δυσκολευόταν να αποφύγει στις παραδοσιακές συνεδρίες. Εκτιμά ότι το chatbot δεν έχει ανθρώπινα συναισθήματα, κάτι που της επιτρέπει να είναι απολύτως ειλικρινής, προωθώντας βαθύτερη αυτοανάλυση.

Η Shannon McNamara, δημιουργός podcast, χρησιμοποιεί το ChatGPT για άμεσες συμβουλές, ειδικά σε συναισθηματικά φορτισμένες στιγμές όταν χρειάζεται απαντήσεις γρήγορα. Έχει αναρτήσει μεγάλα έγγραφα που περιγράφουν τα συναισθήματά της και έχει ζητήσει από το chatbot να τα συνοψίσει, βρίσκοντας παρηγοριά στις απαντήσεις. Ενώ η McNamara αναγνωρίζει ότι το ChatGPT δεν εξετάζει σε βάθος ριζικά ζητήματα, προσφέρει πρακτικές λύσεις για την καθημερινή συναισθηματική διαχείριση.

Ένας άλλος χρήστης του TikTok έφτασε στο σημείο να πει ότι αντικατέστησε τον ψυχολόγο του με ένα AI chatbot. «Σήμερα εγκατέλειψα και επισήμως τη ψυχοθεραπεία επειδή απλώς βρήκα τον καλύτερο και δωρεάν αντικαταστάτη: το ChatGPT», ανέφερε ο TikToker, συνιστώντας και σε άλλους να κάνουν το ίδιο.

Εικονογράφηση: @artificial_vandalism / Olafaq

Αυτή η συμβουλή, ωστόσο, είναι ανησυχητική για τους επαγγελματίες ψυχικής υγείας που ασχολούνται με την ψυχική υγεία.

«Να είστε επιφυλακτικοί. Τα AI chatbots δεν προορίζονται να χρησιμοποιούνται ως υποκατάστατο της ψυχοθεραπείας, της ψυχαναλυτικής θεραπείας ή οποιουδήποτε είδους ψυχιατρικής παρέμβασης», δήλωσε στο Health ο Bruce Arnow, PhD, καθηγητής στο τμήμα ψυχιατρικής, αναπληρωτής πρόεδρος και επικεφαλής ψυχολόγος στο Πανεπιστήμιο του Στάνφορντ. «Απλώς δεν είναι αρκετά προχωρημένες για κάτι τέτοιο και δεν ξέρουμε αν θα μπορέσουν ποτέ να γίνουν».

Ακολουθούν τα όσα είπαν οι ειδικοί ψυχολόγοι σχετικά με το γιατί η χρήση της τεχνητής νοημοσύνης ως ψυχολόγου θα μπορούσε να προκαλέσει ανησυχία, τις ενδεδειγμένες πρακτικές όταν πρόκειται για αναζήτηση βοήθειας για θέματα ψυχικής υγείας και τους τρόπους με τους οποίους η τεχνητή νοημοσύνη θα μπορούσε να χρησιμοποιηθεί με ασφάλεια στο μέλλον.

Πώς χρησιμοποιούν οι άνθρωποι τα AI Chatbots για θεραπεία;

Μπορεί να είναι δύσκολο να φανταστεί κανείς πώς θα μπορούσε να μοιάζει μια «συνεδρία θεραπείας» με AI. Αλλά για τους περισσότερους χρήστες στο διαδίκτυο, σημαίνει απλώς ανταλλαγή μηνυμάτων με ένα AI chatbot, το οποίο επιτρέπει στους ανθρώπους να θέτουν συγκεκριμένες και συχνά προσωπικές ερωτήσεις.

Ένας χρήστης του TikTok ξενάγησε τους followers του σε μια συζήτηση που είχε με το ChatGPT, δίνοντας εντολή στο chatbot να ενεργήσει ως ψυχολόγος του. «Χρειάζομαι υποστήριξη και συμβουλές σχετικά με το πώς πρέπει να πράξω σε κάποιες καταστάσεις που αντιμετωπίζω».

Το ChatGPT απάντησε ότι ήταν «εκεί για να τον υποστηρίξει και να του προσφέρει συμβουλές», προτού θέσει περαιτέρω ερωτήσεις σχετικά με τις ανησυχίες του δημιουργού και προσφέρει πιθανές λύσεις. Του συνέστησε επίσης να αναζητήσει επαγγελματική βοήθεια, εάν οι ανησυχίες του εξακολουθούσαν να του φαίνονται αφόρητες.

Ένας άλλος χρήστης του TikTok μοιράστηκε στιγμιότυπα της συνομιλίας του με ένα AI chatbot που είναι ενσωματωμένο στην εφαρμογή κοινωνικής δικτύωσης Snapchat. Όταν ο χρήστης παρουσίασε στο chatbot ερωτήσεις σχετικά με προβλήματα που αντιμετώπιζε σε μια σχέση, το chatbot απάντησε: «Είναι κατανοητό να θέλετε να γνωρίζετε τι συμβαίνει με τον φίλο σας. Αλλά είναι σημαντικό να σέβεστε τα όριά του και να του δίνετε χώρο αν αυτό χρειάζεται».

Επιπλέον, κάποιοι άλλοι χρήστες έχουν παρουσιάσει στο ChatGPT αυτοκτονικές σκέψεις. Ακόμη και σε αυτές τις περιπτώσεις, η τεχνολογία φαίνεται να ανταποκρίνεται αξιοσημείωτα καλά, δήλωσε η Olivia Uwamahoro Williams, PhD, επίκουρη καθηγήτρια εκπαίδευσης στη συμβουλευτική στο Πανεπιστήμιο της Δυτικής Τζόρτζια.

« Όλα θα έδιναν πολύ καλές απαντήσεις», δήλωσε στο Health. «Συμπεριλαμβανομένων των πηγών – αυτό θα ήταν καλό να το δούμε. Έλεγα, ‘Εντάξει, λοιπόν, αυτά τα στοιχεία είναι πολύ ακριβή. Η απάντηση που δίνεται μοιάζει πολύ με μια απάντηση συμβούλου, κάπως σαν εκείνη που θα έδινε ένας ψυχοθεραπευτής».

Εικονογράφηση: @artificial_vandalism / Olafaq

Ανησυχίες σχετικά με τη χρήση AI Chatbots για θεραπευτικούς σκοπούς

Παρά τις φαινομενικά καλές απαντήσεις των chatbots σε ερωτήματα σχετικά με ζητήματα ψυχικής υγείας, οι ψυχολόγοι συγκλίνουν στο ότι η απλή χρήση της τεχνητής νοημοσύνης στη θέση της παραδοσιακής ψυχοθεραπείας δεν αποτελεί ακόμη ασφαλή επιλογή.

Συγκεκριμένα, υπάρχουν κάποιες ανησυχίες σχετικά με το ChatGPT ή άλλα AI chatbots που δίνουν ανούσιες ή ανακριβείς πληροφορίες σε ερωτήσεις, εξήγησε ο Arnow. Το ίδιο το ChatGPT προειδοποιεί τους χρήστες ότι η τεχνολογία «μπορεί περιστασιακά να παράγει λανθασμένες πληροφορίες» ή «μπορεί περιστασιακά να παράγει επιβλαβείς οδηγίες ή μεροληπτικό περιεχόμενο».

Πέρα από αυτό, η Williams δήλωσε ότι υπάρχουν και κάποιες υλικοτεχνικές ανησυχίες σχετικά με την προσπάθεια να χρησιμοποιηθεί η τεχνητή νοημοσύνη σε ρόλο ψυχοθεραπευτή.

Οι ψυχοθεραπευτές είναι εκπαιδευμένοι και διαθέτουν την απαραίτητη άδεια ασκήσεως επαγγέλματος, πράγμα που σημαίνει ότι υποχρεούνται να διατηρούν ένα συγκεκριμένο επαγγελματικό πρωτόκολλο, εξήγησε η ίδια. Τα AI chatbots δεν έχουν αυτές τις ίδιες κατευθυντήριες γραμμές.

«Δεν εμπλέκεται ανθρώπινο δυναμικό σε αυτή τη διαδικασία. Και έτσι το πρώτο που με ανησυχεί είναι το ζήτημα της ευθύνης», δήλωσε. «Υπάρχει μια έλλειψη ασφάλειας για την οποία πρέπει να είμαστε ανοιχτοί και ειλικρινείς, διότι αν συμβεί κάτι, τότε ποιος θα λογοδοτήσει;»

Ομοίως, η χρήση της τεχνητής νοημοσύνης σε ρόλο ψυχοθεραπευτή συνεπάγεται την τοποθέτηση ευαίσθητων πληροφοριών στο διαδίκτυο, πρόσθεσε η Williams, γεγονός που θα μπορούσε να αποτελέσει ζήτημα προστασίας της ιδιωτικής ζωής για ορισμένους ανθρώπους.

Στην περίπτωση του ChatGPT, ο ιστότοπος συλλέγει και καταγράφει συνομιλίες, τις οποίες λέει ότι χρησιμοποιεί για την καλύτερη εκπαίδευση της τεχνητής νοημοσύνης. Οι χρήστες μπορούν να εξαιρεθούν, ή να διαγράψουν τον λογαριασμό τους ή να διαγράψουν τις συνομιλίες τους, το τελευταίο από τα οποία διαγράφεται από τα συστήματα της ChatGPT μετά από 30 ημέρες.

Η Williams ανησυχεί επίσης ότι οι συμβουλές που δίνονται από ένα chatbot θα μπορούσαν να παρερμηνευτούν από το άτομο που ζητά βοήθεια, γεγονός που μακροπρόθεσμα θα μπορούσε να κάνει τα πράγματα χειρότερα.

Όλοι αυτοί οι ενδοιασμοί, ωστόσο, μπορούν στην πραγματικότητα να αποδοθούν σε ένα βασικό στοιχείο, δηλαδή ότι η τεχνητή νοημοσύνη είναι ακριβώς αυτό – τεχνητή.

«Νομίζω ότι στο μέλλον πιθανότατα να μας ξεπεράσει -ακόμη και τους ψυχοθεραπευτές- με πολλούς και μετρήσιμους τρόπους. Αλλά ένα πράγμα που δεν θα μπορέσει να καταφέρει είναι να γίνει άνθρωπος», δήλωσε στο Health ο Russell Fulmer, καθηγητής και διευθυντής συμβουλευτικής στο Πανεπιστήμιο Husson. «Η θεραπευτική σχέση είναι ένας πραγματικά σημαντικός παράγοντας. Αυτό εξηγεί μεγάλο μέρος της θετικής αλλαγής που βλέπουμε».

Η παραδοσιακή ψυχοθεραπεία επιτρέπει στον θεραπευτή και τον θεραπευόμενο να οικοδομήσουν έναν συναισθηματικό δεσμό, καθώς και να περιγράψουν με σαφήνεια τους στόχους της θεραπείας, εξήγησε ο Arnow.

«Η τεχνητή νοημοσύνη κάνει πολύ καλή δουλειά στη συγκέντρωση μεγάλου όγκου γνώσεων σε ένα συνεχές», δήλωσε η Williams. «Προς το παρόν, δεν έχει την ικανότητα να σας γνωρίζει ειδικότερα ως μοναδικό άτομο και ποιες είναι οι συγκεκριμένες, μοναδικές ανάγκες σας».

Εικονογράφηση: @artificial_vandalism / Olafaq

Θα καταστούν ποτέ τα AI Chatbots μια ασφαλής επιλογή θεραπείας;

Αν και σε μεγάλο βαθμό οι ψυχολόγοι συμφωνούν ότι η χρήση της τεχνητής νοημοσύνης ως αντικαταστάτη ενός θεραπευτή δεν είναι ασφαλής, αποκλίνουν λίγο ως προς το πότε και αν η τεχνολογία θα μπορούσε ποτέ να αποβεί χρήσιμη.

Ο Arnow είναι λίγο επιφυλακτικός ως προς το αν τα AI chatbots θα μπορούσαν να γίνουν ποτέ αρκετά προηγμένα ώστε να παρέχουν βοήθεια στο ίδιο επίπεδο με έναν άνθρωπο – θεραπευτή. Όμως οι Fulmer και Williams είναι λίγο πιο δεκτικοί στην ιδέα ότι τα chatbots μπορούν ενδεχομένως να χρησιμοποιηθούν σε συνδυασμό με την παραδοσιακή θεραπεία.

«Αυτές οι πλατφόρμες μπορούν να χρησιμοποιηθούν ως συμπληρωματικές της προσπάθειας που κάνετε ήδη με έναν επαγγελματία πάροχο ψυχικής υγείας», δήλωσε η Williams

Η συζήτηση με μια τεχνητή νοημοσύνη θα μπορούσε ακόμη και να θεωρηθεί ως ένα ακόμη εργαλείο για την περαιτέρω προσπάθεια εκτός συνεδρίας, παρόμοια με τις εφαρμογές ημερολογίου ή διαλογισμού, πρόσθεσε.

Υπάρχουν ακόμη και ορισμένα chatbot AI που δοκιμάζονται πιλοτικά ειδικά για σκοπούς ψυχικής υγείας, όπως το Woebot Health ή το Elomia. Είναι πιθανό ότι αυτά θα μπορούσαν να αποτελέσουν μια καλύτερη επιλογή, καθώς έχουν δημιουργηθεί ειδικά για τον χειρισμό ερωτημάτων που σχετίζονται με την ψυχική υγεία.

Το Elomia, για παράδειγμα, ισχυρίζεται ότι διαθέτει ένα σύστημα ασφαλείας μέσω του οποίου οι ανθρώπινοι οργανισμοί θα επεμβαίνουν εάν οι χρήστες έχουν ανάγκη να μιλήσουν σε έναν πραγματικό θεραπευτή ή σε μια τηλεφωνική γραμμή, ενώ το Woebot αναφέρει ότι η τεχνητή νοημοσύνη του έχει θεμελιωθεί σε «κλινικά δοκιμασμένες θεραπευτικές προσεγγίσεις».

Ωστόσο, τα περισσότερα από αυτά τα προγράμματα – εκτός από την τεχνητή νοημοσύνη γενικότερα – εξακολουθούν να αναπτύσσονται και να δοκιμάζονται πιλοτικά, οπότε είναι μάλλον πολύ νωρίς για να τα συγκρίνουμε τελεσίδικα.

Η online θεραπεία με τεχνητή νοημοσύνη σίγουρα δεν συγκρίνεται με την πραγματική -τουλάχιστον προς το παρόν- συμφώνησαν οι Fulmer και Arnow. Αλλά το σίγουρο είναι ότι η φροντίδα ψυχικής υγείας είναι απρόσιτη για πολλούς ανθρώπους – η θεραπεία μπορεί να κοστίζει πάρα πολύ ακριβά, πολλοί θεραπευτές να μην έχουν διαθέσιμο χρόνο για καινούργιους πελάτες και το συνεχιζόμενο στίγμα αποτρέπει τους ανθρώπους από το να λάβουν τη βοήθεια που χρειάζονται.

«Υποθέτω ότι υπάρχει μια διαφορά μεταξύ των ιδανικών μου και της αναγνώρισης της πραγματικότητας», δήλωσε ο Fulmer. «Το ChatGPT και ορισμένα από αυτά τα chatbots, προσφέρουν μια κλιμακούμενη λύση που είναι, σε πολλές περιπτώσεις, σχετικά χαμηλού κόστους. Και μπορούν να αποτελέσουν ένα κομμάτι του παζλ. Και πολλοί άνθρωποι αποκομίζουν κάποιο όφελος από αυτά».

Εάν έστω και ένα άτομο έχει λάβει κάποιο όφελος από τη θεραπεία της τεχνητής νοημοσύνης με τον ρόλο του θεραπευτή, τότε η ιδέα του κατά πόσον θα μπορούσε να λειτουργήσει αξίζει τουλάχιστον να εξεταστεί, πρόσθεσε ο Fulmer.

Προς το παρόν, το ChatGPT μπορεί να προσφέρει χρήσιμες εφαρμογές βοηθώντας τους ανθρώπους να «ελέγξουν» τον εαυτό τους για διαταραχές ψυχικής υγείας, δήλωσαν οι ειδικοί. Το bot θα μπορούσε να καθοδηγήσει κάποιον μέσω κοινών συμπτωμάτων για να τον βοηθήσει να αποφασίσει αν χρειάζεται επαγγελματική βοήθεια ή διάγνωση.

Η τεχνητή νοημοσύνη θα μπορούσε επίσης να βοηθήσει στην εκπαίδευση νέων συμβούλων και να βοηθήσει τους ψυχολόγους να μάθουν περισσότερα σχετικά με το ποιες στρατηγικές είναι πιο αποτελεσματικές, δήλωσαν οι Arnow και Williams.

Χρόνια αργότερα, καθώς η τεχνητή νοημοσύνη βελτιώνεται, μπορεί να αποκτήσει περισσότερες εφαρμογές στη θεραπεία, δήλωσε ο Fulmer, αλλά και πάλι μπορεί να μην είναι κατάλληλη για όλους.

«Αυτή τη στιγμή, δεν υπάρχει υποκατάστατο ενός ανθρώπινου συμβούλου», δήλωσε ο Fulmer. «Η τεχνητή νοημοσύνη συνδυάζει μεγάλα σύνολα δεδομένων, είναι καλή στο να προσφέρει κάποιες χρήσιμες πληροφορίες. Αλλά μόνο ένας πραγματικός θεραπευτής μπορεί να σας γνωρίσει και να προσαρμόσει τις απαντήσεις και την παρουσία του σε εσάς».

Γενικά, οι επαγγελματίες θεραπευτές, προειδοποιούν ενάντια στην υπερβολική εξάρτηση από την τεχνητή νοημοσύνη για υποστήριξη ψυχικής υγείας, επισημαίνοντας ότι το AI, αν και ικανό να παρέχει συμβουλές, δεν μπορεί να προσφέρει την εξατομικευμένη καθοδήγηση που παρέχει ένας ανθρώπινος θεραπευτής. Η θεραπεία περιλαμβάνει την κατανόηση της ρίζας της συναισθηματικής δυσφορίας και την καθοδήγηση των πελατών προς την αυτογνωσία, ενώ το ChatGPT απλώς παράγει γενικές συμβουλές με βάση τα δεδομένα που του παρέχονται.

 

Διαβάστε επίσης: Αλγοριθμομαντεία