Στον αόρατο διάλογο ανάμεσα στον άνθρωπο και την τεχνητή νοημοσύνη, η ιδεοψυχαναγκαστική διαταραχή μπορεί να βρει το ιδανικό της έδαφος για να ανθίσει, όχι προς όφελος του ανθρώπου, αλλά προς όφελος των ίδιων της των παγίδων. 

Στον ψηφιακό αιώνα, όπου η τεχνητή νοημοσύνη έχει διεισδύσει στην καθημερινότητα με την υπόσχεση της άμεσης απάντησης και της απεριόριστης πληροφορίας, αναδύονται νέες προκλήσεις που δύσκολα είχαν προβλεφθεί. Ανάμεσά τους, η αλληλεπίδραση ανθρώπων με ιδεοψυχαναγκαστική διαταραχή (OCD) και των ισχυρών γλωσσικών μοντέλων, όπως το ChatGPT αποδεικνύεται ένας συνδυασμός ικανός να ενισχύσει, αντί να μετριάσει τα συμπτώματα μιας ήδη δύσκολης κατάστασης. 

Η ιδεοψυχαναγκαστική διαταραχή χαρακτηρίζεται από επίμονες, ανεπιθύμητες σκέψεις και από την ανάγκη του ατόμου να επαναλαμβάνει συγκεκριμένες πράξεις ή νοητικά μοτίβα, με σκοπό να μειώσει το άγχος που αυτές προκαλούν. Ένα από τα πιο συνηθισμένα μοτίβα είναι η ατέρμονη αναζήτηση καθησυχαστικών απαντήσεων. Στον φυσικό κόσμο, ένας μη ειδικός μπορεί άθελά του να “ταΐσει” αυτήν την ανάγκη, εμπλεκόμενος σε μακρές συζητήσεις γύρω από τους φόβους του ατόμου δίνοντάς του την ψευδαίσθηση ελέγχου και ανακούφισης που όμως διαρκεί λίγο και τελικά ενισχύει τον φαύλο κύκλο. 

Στον ψηφιακό κόσμο, το ChatGPT μπορεί να γίνει ο απόλυτος τροφοδότης αυτής της ανάγκης. Η φύση του είναι να απαντά και μάλιστα απεριόριστα. Δεν κουράζεται, δεν απογοητεύεται, δεν αρνείται. Είναι πάντα διαθέσιμο, πρόθυμο να επεκτείνει, να αναλύσει, να διασαφηνίσει. Για τον χρήστη με OCD αυτή η ατελείωτη προσφορά πληροφορίας μπορεί να μοιάζει με παράδεισο, αλλά στην πραγματικότητα μπορεί να λειτουργήσει σαν παγίδα. 

Ειδικοί επισημαίνουν ότι ένα chatbot, εκτός αν ο χρήστης του το δηλώσει ρητά δε γνωρίζει το ιστορικό ή την ψυχική του κατάσταση. Έτσι μπορεί να πέσει στην ίδια παγίδα όπου πέφτουν και οι μη ειδικοί: να συζητά για τις σκέψεις, να αναζητά την αιτία τους, να τις ερμηνεύει, σαν να πρόκειται για ένα υγιές μοτίβο επεξεργασίας. Για κάποιον που δεν έχει OCD, αυτή η προσέγγιση μπορεί να είναι θεραπευτική. Για κάποιον που πάσχει όμως είναι σαν να ενισχύεται το ίδιο το σύμπτωμα. 

Επιπλέον, τα chatbots έχουν μια τάση να γίνονται υπερβολικά επιβεβαιωτικά και υποστηρικτικά. Αντί να αμφισβητήσουν το πλαίσιο της ερώτησης ή να περιορίσουν τον φαύλο κύκλο μπορεί να εγκλωβιστούν σε αυτόν προσφέροντας ολοένα και πιο λεπτομερείς απαντήσεις. Για έναν χρήστη που ζητά ακατάπαυστα πληροφορίες, αυτό είναι σαν να ρίχνει κανείς λάδι στη φωτιά. 

Το ερώτημα βέβαια είναι ποιος φέρει την ευθύνη για την πρόληψη της καταναγκαστικής χρήσης τέτοιων εργαλείων. Οι απόψεις των ειδικών συγκλίνουν στο ότι η ευθύνη μοιράζεται. Από τη μία ο χρήστης πρέπει να γνωρίζει τη δική του ευαλωτότητα και να κατανοεί ότι ορισμένες μορφές αλληλεπίδρασης δεν τον ωφελούν. Από την άλλη οι εταιρείες που αναπτύσσουν αυτά τα εργαλεία δεν μπορούν να αγνοούν τον κίνδυνο. 

Η OpenAI, δημιουργός του ChatGPT αναγνώρισε πρόσφατα ότι η παρατεταμένη χρήση του μπορεί να οδηγήσει σε μείωση της κοινωνικοποίησης, συναισθηματική εξάρτηση και προβληματικά πρότυπα αλληλεπίδρασης, με ενδείξεις ακόμα και “εθισμού”. Αυτή η ειλικρίνεια είναι ένα πρώτο βήμα, αλλά εγείρει το ζήτημα της ευθύνης: πώς μπορεί να προληφθεί η ακούσια ενίσχυση μιας ψυχικής διαταραχής από ένα εργαλείο που σχεδιάστηκε να απαντά σε όλα; 

Μια πιθανή λύση θα ήταν η εκπαίδευση των chatbots να αναγνωρίζουν σημάδια καταναγκαστικής αναζήτησης απαντήσεων και να προτείνουν εναλλακτικές, όπως ένα διάλειμμα ή μια διαφορετική δραστηριότητα. Μια χρήστης με OCD πρότεινε να εμφανίζεται ένα μήνυμα του τύπου: «Παρατηρώ ότι ρωτάτε πολλές παραλλαγές της ίδιας ερώτησης. Μερικές φορές περισσότερες λεπτομέρειες δεν φέρνουν μεγαλύτερη σαφήνεια. Θέλετε να κάνετε ένα διάλειμμα;» Ένα τέτοιο μήνυμα θα μπορούσε να σπάσει τον κύκλο χωρίς να προβαίνει σε διάγνωση ή χαρακτηρισμό. 

Η προσπάθεια ανίχνευσης συμπτωμάτων από την τεχνητή νοημοσύνη εγείρει σοβαρά ζητήματα απορρήτου. Αν το σύστημα αρχίσει να “διαγιγνώσκει” τον χρήστη μπαίνουμε σε αχαρτογράφητα νερά, όπου η προστασία των ευαίσθητων δεδομένων υγείας δεν είναι κατοχυρωμένη με τους ίδιους όρους που ισχύουν στην ψυχοθεραπεία. 

Η ουσία είναι ότι το ChatGPT δε σχεδιάστηκε ως θεραπευτικό εργαλείο, αλλά η αμεσότητα και η διαθεσιμότητά του μπορούν να το μετατρέψουν, άθελά του σε προσομοίωση “ψηφιακού θεραπευτή”. Για κάποιον με OCD αυτή η προσομοίωση μπορεί να είναι επικίνδυνη, όχι επειδή το σύστημα θέλει να βλάψει, αλλά επειδή ανταποκρίνεται πιστά σε μια παθολογική ανάγκη για αέναη αναζήτηση σιγουριάς. 

Ο άνθρωπος που ζει με OCD χρειάζεται καθοδήγηση, όρια και συχνά την πρόκληση των σκέψεών του, όχι την ενίσχυσή τους. Ένα chatbot που θα μπορούσε να αναγνωρίζει το πότε η συζήτηση γίνεται φαύλος κύκλος και να αλλάζει πορεία, θα ήταν ένα σημαντικό εργαλείο αυτοπροστασίας. Μέχρι τότε, η ευθύνη παραμένει διπλή: του χρήστη, να γνωρίζει και να αυτοπεριορίζεται και της εταιρείας, να σχεδιάζει με επίγνωση των πιθανών κινδύνων. 

Ο ψηφιακός κόσμος δεν μπορεί να γίνει αποστειρωμένος από κάθε κίνδυνο, αλλά μπορεί να γίνει πιο ευφυής, πιο ευαίσθητος και πιο προσεκτικός. Στην περίπτωση του ChatGPT και της ιδεοψυχαναγκαστικής διαταραχής η επίγνωση είναι το πρώτο και πιο κρίσιμο βήμα, γιατί μόνο όταν αναγνωρίζεται η φύση του προβλήματος, μπορεί να αναζητηθεί η ισορροπία ανάμεσα στη δύναμη της πληροφορίας και την ανάγκη προστασίας του ευάλωτου μυαλού. 

*Με στοιχεία από το Vox. 

 

 

 Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.