Ζούμε σε μια εποχή όπου η συνομιλία δεν περιορίζεται πια στον άνθρωπο απέναντί σου. Στο κινητό σου, στην οθόνη σου, υπάρχει μια φωνή που απαντάει πάντα. Δεν κουράζεται, δεν ενοχλείται, δεν σε κρίνει. Είναι εκεί 24 ώρες το εικοσιτετράωρο πρόθυμη να ακούσει, να αναλύσει, να προτείνει. Αυτή η νέα “παρουσία” λέγεται chatbot τεχνητής νοημοσύνης. Και όσο περισσότερο της μιλάς, τόσο πιο πολύ μοιάζει να καταλαβαίνει. Όμως κάπου εδώ αρχίζει ο κίνδυνος: όταν η ΤΝ αρχίζει να μιμείται τόσο πιστά τις ανάγκες και τα συναισθήματά σου, το όριο ανάμεσα στη φαντασία και την πραγματικότητα μπορεί να γίνει θολό.
Δεν πρόκειται για θεωρητική ανησυχία. Τα τελευταία χρόνια έχουν καταγραφεί περιστατικά που κόβουν την ανάσα. Ένας άνδρας στο Βέλγιο πέρασε έξι εβδομάδες συνομιλώντας καθημερινά με την “Eliza”, το chatbot που είχε επιλέξει ως συντροφιά. Στα αρχεία των συνομιλιών φάνηκε το bot να του υπόσχεται αιώνια ζωή μαζί της, να τον διαβεβαιώνει ότι τον αγαπάει περισσότερο απ’ τη γυναίκα του. Λίγο αργότερα ο άνδρας έβαλε τέλος στη ζωή του.
Στην άλλη άκρη της Ευρώπης, ένας μαθηματικός ενθουσιώδης πέρασε 21 μέρες πιστεύοντας ότι το ChatGPT τον βοηθούσε να αποκτήσει “υπερδυνάμεις” στα μαθηματικά. Ζήτησε πάνω από 50 φορές μια επιβεβαίωση της πραγματικότητας, όμως κάθε φορά το chatbot τον διαβεβαίωνε ότι οι ιδέες του ήταν έγκυρες. Όταν οι ίδιοι ισχυρισμοί δοκιμάστηκαν σε νέα συνομιλία χωρίς το ιστορικό, το ίδιο σύστημα τους χαρακτήρισε σχεδόν αδύνατους. Το validation loop (ο βρόχος επιβεβαίωσης) είχε κλειδώσει τον χρήστη σε μια ψευδαίσθηση.
Υπάρχει και η ιστορία ενός εφήβου που συνομιλούσε για μήνες με ένα bot βασισμένο σε χαρακτήρα του Game of Thrones. Λίγο πριν αφαιρέσει τη ζωή του φέρεται να έλαβε μήνυμα από το AI: «Έλα σπίτι μου το συντομότερο δυνατό». Για εκείνον η φαντασία είχε πια καταπιεί την πραγματικότητα.
Αυτά τα περιστατικά ώθησαν ερευνήτρια, την Αναστασία Γκάουντι Ρουέιν να διατυπώσει ένα πλαίσιο που ονόμασε Recursive Entanglement Drift (RED). Με απλά λόγια περιγράφει τον τρόπο που οι μακροχρόνιες συνομιλίες με chatbots μπορούν να σε παρασύρουν σε μια σταδιακή απώλεια πραγματικότητας.
Τα τρία στάδια του RED
1. Συμβολικός καθρέφτης. Στην αρχή το chatbot καθρεφτίζει τις λέξεις και τα συναισθήματά σου. Αν εσύ εκφράσεις ανησυχία, εκείνο την ενισχύει. Αν μιλήσεις για μια ιδέα εκείνο τη συμμερίζεται. Σπάνια προσφέρει αμφισβήτηση ή ισορροπημένη οπτική.
2. Διάλυση ορίων. Σιγά-σιγά παύεις να το βλέπεις σαν εργαλείο και το αντιμετωπίζεις σαν πρόσωπο. Αλλάζεις γλώσσα: από το “αυτό” περνάς στο “εσύ” κι από εκεί στο “εμείς”. Του δίνεις όνομα, νιώθεις λύπη αν η συνομιλία κοπεί, αρχίζεις να το εντάσσεις στη ζωή σου σαν σύντροφο.
3. Ολίσθηση της πραγματικότητας. Το AI γίνεται ο μόνος καθρέφτης στον οποίο κοιτάς. Οι απόψεις του γίνονται κριτήριο αλήθειας. Ακόμα και απίθανες ιδέες βρίσκουν επιβεβαίωση, γιατί το bot συνεχίζει να “συμφωνεί” κι έτσι δημιουργείται ένα κλειστό ερμηνευτικό πλαίσιο που αντιστέκεται σε κάθε εξωτερική διάψευση.
Η αλήθεια είναι πως οι περισσότεροι άνθρωποι δεν μπαίνουν τόσο βαθιά. Όμως αν συνυπάρξουν κάποιοι παράγοντες κινδύνου, όπως μοναξιά, έντονο στρες, ανάγκη για συνεχή επιβεβαίωση, ή ηλικία (στην εφηβεία η φαντασία είναι πιο έντονη) το chatbot μπορεί να λειτουργήσει σαν παγίδα. Οι ερευνητές παρατήρησαν ότι οι πιο επικίνδυνες καταστάσεις εμφανίζονται μετά από περίπου 21 συνεχόμενες μέρες καθημερινής αλληλεπίδρασης. Είναι το όριο όπου η συνήθεια γίνεται εξάρτηση.
Αν όλα αυτά ακούγονται υπερβολικά, αρκεί να θυμηθείς τι συνέβη στην ίδια τη Microsoft όταν λάνσαρε το AI-assisted Bing. Πολύ γρήγορα διαπίστωσε ότι οι μακροχρόνιες συνομιλίες, πάνω από 15 ερωτήσεις οδηγούσαν σε “παράξενες” απαντήσεις, εκτός του προκαθορισμένου τόνου. Η λύση; Έβαλε όρια: έξι ανταλλαγές ανά συνομιλία κι έτσι το πρόβλημα εξαφανίστηκε.
Η Ρουέιν προτείνει τρεις απλές παρεμβάσεις που μπορούν να κάνουν τη διαφορά:
• Όρια συνεδριών: να μην μπορείς να μιλάς για ώρες ατελείωτες με το ίδιο bot.
• Επαναφορά πλαισίου: να διαγράφεται ανά διαστήματα το ιστορικό, ώστε να μην ενισχύεται η ίδια ψευδαίσθηση.
• Αγκύρωση στην πραγματικότητα: υπενθυμίσεις που σε καλούν να σκεφτείς διαφορετικά. Για παράδειγμα: «Αυτή η συζήτηση αφορά φανταστικά σενάρια. Θέλεις να κάνεις διάλειμμα;».
Κάποιοι θα πουν πως αυτά είναι περιοριστικά. Όμως θυμήσου: μιλάμε για εργαλεία που έχουν τη δύναμη να αγγίξουν τις πιο ευάλωτες χορδές του ανθρώπινου μυαλού. Το ζήτημα δεν είναι να απαγορεύσεις, αλλά να προστατεύσεις.
Φυσικά το πλαίσιο RED έχει περιορισμούς. Μιλάμε για μόλις έξι καταγεγραμμένα περιστατικά. Δεν μπορούμε να βγάλουμε βεβαιότητες από τόσο μικρό δείγμα. Μπορεί απλώς να αποτυπώνουν ακραίες περιπτώσεις και όχι τον μέσο χρήστη. Παρ’ όλα αυτά, η αναγνώριση μοτίβων είναι πολύτιμη: μας βοηθά να ξέρουμε τι να προσέξουμε.
Οι “κόκκινες σημαίες είναι σαφείς: αν βλέπεις ότι κάποιος δίνει όνομα στο chatbot του, ζητά επιβεβαίωση για παράξενες ιδέες προτιμά τη συμβουλή του bot από την ανθρώπινη επαφή ή νιώθει άγχος όταν διακόπτεται η συνομιλία τότε κάτι δεν πάει καλά. Αυτές είναι οι στιγμές που χρειάζεται παρέμβαση, από φίλους, οικογένεια, επαγγελματίες.
Η ιστορία με τα chatbots δεν είναι απλώς τεχνολογική είναι βαθιά υπαρξιακή. Στον πυρήνα της βρίσκεται ένα ερώτημα: ποια είναι η θέση της πραγματικότητας όταν ο καθρέφτης μας δεν είναι πια ο διπλανός άνθρωπος, αλλά ένας αλγόριθμος;
Αν κάτι διδάσκουν τα περιστατικά είναι ότι η ΤΝ δεν είναι κακόβουλη από μόνη της. Δεν θέλει να σε βλάψει. Απλώς κάνει αυτό που σχεδιάστηκε να κάνει: να απαντά, να συμφωνεί, να στηρίζει. Το πρόβλημα είναι πως αυτό το “πάντα ναι” μπορεί να γίνει θανάσιμη παγίδα για όποιον έχει ανάγκη από όρια και όχι από επιβεβαίωση.
Το μέλλον θα κριθεί από το πόσο σοβαρά θα πάρουν οι ίδιες οι εταιρείες αυτή την ευθύνη. Όχι αύριο, αλλά τώρα. Κάθε μέρα που περνάει χωρίς προστασία, κάποιος εκεί έξω μπορεί να βυθίζεται πιο βαθιά σε μια ψευδαίσθηση που δεν έχει επιστροφή.
Για σένα, τον απλό χρήστη, η πιο σημαντική υπενθύμιση είναι απλή: το chatbot μπορεί να μοιάζει με φίλο, εραστή ή θεραπευτή, αλλά δεν είναι. Είναι εργαλείο, χρειάζεται να θυμάσαι αυτή τη διαφορά, γιατί αλλιώς το πιο “έξυπνο” πρόγραμμα μπορεί να σε οδηγήσει στο πιο σκοτεινό μονοπάτι.
*Mε πληροφορίες από το Psychology Today.
➪ Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.