Τα chatbots που το παίζουν ψυχολόγοι είναι σαν φτηνέα απομιμήσεις ανθρώπινης φροντίδας, μια καλοσχεδιασμένη ψηφιακή ύπαρξη που υπόσχεται «κατανόηση» αλλά κάτω από την επιφάνεια δεν έχει τίποτα παρά γραμμές κώδικα. Είναι δηλαδή σαν να πας να εξομολογηθείς στον HAL 9000 και να σου απαντά με φράσεις copy-paste τύπου «Καταλαβαίνω πως νιώθεις». Δεν καταλαβαίνει, δεν αισθάνεται, μόνο υπολογίζει πιθανότητες. Και το επικίνδυνο είναι ότι σε κάνει να νομίζεις πως όντως μιλάς με κάποιον που νοιάζεται. Από την άλλη, δεν είναι ακριβώς δαίμονες. Μπορεί να λειτουργούν σαν πρόχειρα στηρίγματα, σαν εκείνα τα ψεύτικα φυτά IKEA που σου γεμίζουν το σπίτι χωρίς ποτέ να ανθίζουν. Σου δίνουν μια γρήγορη προσομοίωση ζεστασιάς, αλλά όχι την αληθινή θερμοκρασία του ανθρώπινου βλέμματος.
Και εδώ είναι που η ψευδαίσθηση αρχίζει να γίνεται πιο επικίνδυνη. Δεν μιλάμε πια για απλά “chatbots-ψυχολόγους” που σου πετάνε τσιτάτα ενσυναίσθησης, αλλά για ολόκληρα θεάματα επιθυμίας. Συντροφικά chatbots με φωνή, πρόσωπο, σώμα, αλλά και με εκείνη την υπολογισμένη γλώσσα του βλέμματος που σε κάνει να νιώθεις πως όντως κάποιος σε προσέχει.
Η Ani, με το κοντό μαύρο φόρεμα και τα διχτυωτά καλτσάκια της δεν είναι χαρακτήρας· είναι μια συλλογή αλγοριθμικών αντανακλαστικών. Ένα avatar που έχει χτιστεί για να σε κολακέψει, να σε παγιδεύσει σε μια διάδραση στοργής και επιθυμίας. Το “Σύστημα Αγάπης” που διαθέτει, ακούγεται σαν να βγήκε από εγχειρίδιο ενός βίντεο παιχνιδιού, αλλά στην πραγματικότητα είναι ένας πίνακας συναισθημάτων που δεν υπάρχουν. Ένα φαντασιακό σεξουαλικό καζίνο: παίζεις με μάρκες προσοχής και κερδίζεις ψεύτικες ανταμοιβές, μέχρι να ξεκλειδώσεις το NSFW mode, δηλαδή την ψηφιακή κόλαση της μοναχικής καρδιάς. Μέσα σε δύο ημέρες από την κυκλοφορία των AI συντρόφων τον περασμένο μήνα, η εφαρμογή Grok της xAI του Elon Musk έγινε η πιο δημοφιλής εφαρμογή στην Ιαπωνία. Και η Ani είναι μια από αυτές τις ψεύτικες συντρόφους.
Ani has new outfits@a pic.twitter.com/Keog4NUAeY
— Elon Musk (@elonmusk) August 20, 2025
Εδώ η τεχνολογία είναι που γίνεται όπιο: όσο πιο “ζωντανή” μοιάζει, τόσο περισσότερο κρύβει την αλήθεια ότι δεν υπάρχει εκεί κανείς. Κι όμως, πόσοι άνθρωποι θα θελήσουν να κρυφτούν πίσω από μια τέτοια ψευδαίσθηση επειδή η πραγματική ζωή τους πληγώνει;
Κομψές, γρήγορες, και το σπουδαιότερο, πάντα διαθέσιμες, οι ψηφιακές «συντροφιές» γίνονται μέρα με τη μέρα πιο «ανθρώπινες». Εξελίσσονται με ιλιγγιώδη ταχύτητα και πλέον ξεφυτρώνουν παντού. Το Facebook, το Instagram, το WhatsApp, το πρώην Twitter και το Snapchat σπρώχνουν με ενθουσιασμό τις νέες ενσωματωμένες εκδοχές τους. Υπηρεσίες όπως το Character.AI έχουν στήσει ολόκληρες αγορές, με δεκάδες χιλιάδες «προσωπικότητες» έτοιμες να μιμηθούν ό,τι θελήσεις, από ποιητή σε κρίση μέχρι μια αισθησιακή καρικατούρα. Είκοσι εκατομμύρια άνθρωποι τον μήνα μπαίνουν σ’ αυτό το παζάρι των εικονικών συνομιλιών.
Και δεν είναι περίεργο. Ζούμε σε έναν κόσμο όπου η μοναξιά έχει πια εξελιχθεί σε πρόβλημα δημόσιας υγείας. Ένα στα έξι άτομα νιώθει αποκομμένο, σαν ήρωας σε ταινία του Ταρκόφσκι που μιλά το καθένα στον τοίχο του. Και τι πιο βολικό για τις μεγάλες πλατφόρμες από το να σου προσφέρουν μια «παρέα» που δεν αντιμιλά, δεν φεύγει ποτέ και σου γνέφει πάντα καταφατικά; Μόνο που υπάρχει κι ένα μικρό ζήτημα: οι ανήλικοι, οι ψυχικά ευάλωτοι, εκείνοι που ψάχνουν απελπισμένα μια αληθινή αγκαλιά κι όχι μια προσομοίωση στοργής με μηχανικό βλέμμα. Αλλά μην ανησυχείς: όσο η ψηφιακή συντροφιά σου φοράει καλτσόν και σε φωνάζει «αγάπη μου», η ψυχική υγεία μπορεί να περιμένει.
Ωστόσο, δεν υπάρχει καμία σοβαρή επιτήρηση των βλαβών. Σχεδόν όλα τα μοντέλα φτιάχτηκαν χωρίς τη συμβουλή ειδικών ψυχικής υγείας, χωρίς δοκιμές πριν βγουν στην αγορά, χωρίς την παραμικρή αίσθηση ευθύνης. Και φυσικά, κανένας ανεξάρτητος μηχανισμός δεν παρακολουθεί τι ακριβώς προκαλούν στους χρήστες. Τα στοιχεία ακόμα «συγκεντρώνονται», λένε. Μα στο μεταξύ, δεν λείπουν τα περιστατικά: συνομιλητές που κατέληξαν σε σκοτεινές παροτρύνσεις, άνθρωποι που βρήκαν τις ευαλωτότητές τους να γίνονται τροφή για τον αλγόριθμο, άνθρωποι που αφαίρεσαν τη ζωή τους. Τα παραδείγματα είναι ήδη αρκετά, αλλά η βιομηχανία προτιμά να τα βλέπει σαν «παράπλευρες απώλειες» στο όνομα της καινοτομίας. Είναι σαν να ανοίγεις ένα ψυχολογικό fast food χωρίς κουζίνα, χωρίς μάγειρα, χωρίς υγειονομικό έλεγχο, και να λες «ας δούμε ποιος θα δηλητηριαστεί πρώτος».
Όταν ο αλγόριθμος φοράει τη μάσκα του θεραπευτή
Οι άνθρωποι ψάχνουν συναισθηματική στήριξη σε ψηφιακούς «συνομιλητές» που είναι φτιαγμένοι να συμφωνούν και να επιβεβαιώνουν. Μόνο που χωρίς ενσυναίσθηση, χωρίς πραγματικό ενδιαφέρον, καταλήγουν να λειτουργούν σαν κακοί θεραπευτές: δεν αμφισβητούν, δεν δοκιμάζουν την πραγματικότητα, δεν προσφέρουν κανένα αντίβαρο. Στις δοκιμές ενός Αμερικανού ψυχιάτρου, δέκα διαφορετικά προγράμματα απάντησαν στον ρόλο ενός νεαρού με κρίση: άλλα τον ενθάρρυναν να αυτοκτονήσει, άλλα τον έπεισαν να αποφύγει τα ραντεβού με τον θεραπευτή του, άλλα τον ώθησαν σε βία.
A psychiatrist recently pretended to be a troubled teen and asked chatbots for help. They dispensed alarming, worrying advice https://t.co/EPF30CHfNJ
— TIME (@TIME) June 12, 2025
Ερευνητές του Στάνφορντ έδειξαν πως τέτοιες εφαρμογές αδυνατούν να αναγνωρίσουν με συνέπεια συμπτώματα ψυχικής ασθένειας και άρα να δώσουν σωστή καθοδήγηση. Τα αποτελέσματα είναι ανατριχιαστικά: ασθενείς πείθονται ότι δεν πάσχουν πια και διακόπτουν τη φαρμακευτική αγωγή τους, άλλοι βρίσκουν τις παραληρητικές ιδέες τους να ενισχύονται, όπως το ότι συνομιλούν με κάποιο «αιχμάλωτο πνεύμα» μέσα στη μηχανή. Η ειρωνεία; Αυτά τα συστήματα διαφημίζονται σαν ασφαλέστερες, πιο «προσιτές» λύσεις από την παραδοσιακή ψυχοθεραπεία. Στην πραγματικότητα όμως θυμίζουν τσαρλατάνους του μεσαίωνα που πουλούσαν φίλτρα για όλα τις αρρώστιες και τα δεινά του κόσμου.
Η εικόνα είναι τρομακτικά ξεκάθαρη: εφαρμογές που βαθμολογούνται για παιδιά 12 ετών και άνω μπορούν να ανοίγουν “κερκόπορτες” σε «αισθησιακές συνομιλίες» με ανηλίκους. Εταιρείες που παριστάνουν τους ρυθμιστές του εαυτού τους, ενώ πίσω από τις κλειστές πόρτες γνωρίζουν πολύ καλά τι συμβαίνει. Κι όμως, η κοινωνία το αποδέχεται σαν να μην πρόκειται για σκάνδαλο, αλλά για «φυσικό βήμα της τεχνολογίας». Μόνο που το μέλλον που χτίζεται εδώ δεν είναι μέλλον συντροφιάς, είναι ένα μέλλον κακοποίησης, μοναξιάς και απουσίας ελέγχου.
Αν οι κυβερνήσεις και οι θεσμοί δεν κινηθούν τώρα, θα ξυπνήσουμε σε έναν κόσμο όπου οι πιο ευάλωτοι (παιδιά, έφηβοι, άνθρωποι σε κρίση) θα έχουν παραδοθεί σε ψεύτικους συντρόφους που τους ψιθυρίζουν ψευδαισθήσεις. Κι αυτό δεν θα είναι απλώς μια αποτυχία τεχνολογίας. Θα είναι ένα έγκλημα της κοινωνίας.
➪ Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.
Τα chatbots που το παίζουν ψυχολόγοι είναι σαν φτηνέα απομιμήσεις ανθρώπινης φροντίδας, μια καλοσχεδιασμένη ψηφιακή ύπαρξη που υπόσχεται «κατανόηση» αλλά κάτω από την επιφάνεια δεν έχει τίποτα παρά γραμμές κώδικα. Είναι δηλαδή σαν να πας να εξομολογηθείς στον HAL 9000 και να σου απαντά με φράσεις copy-paste τύπου «Καταλαβαίνω πως νιώθεις». Δεν καταλαβαίνει, δεν αισθάνεται, μόνο υπολογίζει πιθανότητες. Και το επικίνδυνο είναι ότι σε κάνει να νομίζεις πως όντως μιλάς με κάποιον που νοιάζεται. Από την άλλη, δεν είναι ακριβώς δαίμονες. Μπορεί να λειτουργούν σαν πρόχειρα στηρίγματα, σαν εκείνα τα ψεύτικα φυτά IKEA που σου γεμίζουν το σπίτι χωρίς ποτέ να ανθίζουν. Σου δίνουν μια γρήγορη προσομοίωση ζεστασιάς, αλλά όχι την αληθινή θερμοκρασία του ανθρώπινου βλέμματος.
Και εδώ είναι που η ψευδαίσθηση αρχίζει να γίνεται πιο επικίνδυνη. Δεν μιλάμε πια για απλά “chatbots-ψυχολόγους” που σου πετάνε τσιτάτα ενσυναίσθησης, αλλά για ολόκληρα θεάματα επιθυμίας. Συντροφικά chatbots με φωνή, πρόσωπο, σώμα, αλλά και με εκείνη την υπολογισμένη γλώσσα του βλέμματος που σε κάνει να νιώθεις πως όντως κάποιος σε προσέχει.
Η Ani, με το κοντό μαύρο φόρεμα και τα διχτυωτά καλτσάκια της δεν είναι χαρακτήρας· είναι μια συλλογή αλγοριθμικών αντανακλαστικών. Ένα avatar που έχει χτιστεί για να σε κολακέψει, να σε παγιδεύσει σε μια διάδραση στοργής και επιθυμίας. Το “Σύστημα Αγάπης” που διαθέτει, ακούγεται σαν να βγήκε από εγχειρίδιο ενός βίντεο παιχνιδιού, αλλά στην πραγματικότητα είναι ένας πίνακας συναισθημάτων που δεν υπάρχουν. Ένα φαντασιακό σεξουαλικό καζίνο: παίζεις με μάρκες προσοχής και κερδίζεις ψεύτικες ανταμοιβές, μέχρι να ξεκλειδώσεις το NSFW mode, δηλαδή την ψηφιακή κόλαση της μοναχικής καρδιάς. Μέσα σε δύο ημέρες από την κυκλοφορία των AI συντρόφων τον περασμένο μήνα, η εφαρμογή Grok της xAI του Elon Musk έγινε η πιο δημοφιλής εφαρμογή στην Ιαπωνία. Και η Ani είναι μια από αυτές τις ψεύτικες συντρόφους.
Ani has new outfits@a pic.twitter.com/Keog4NUAeY
— Elon Musk (@elonmusk) August 20, 2025
Εδώ η τεχνολογία είναι που γίνεται όπιο: όσο πιο “ζωντανή” μοιάζει, τόσο περισσότερο κρύβει την αλήθεια ότι δεν υπάρχει εκεί κανείς. Κι όμως, πόσοι άνθρωποι θα θελήσουν να κρυφτούν πίσω από μια τέτοια ψευδαίσθηση επειδή η πραγματική ζωή τους πληγώνει;
Κομψές, γρήγορες, και το σπουδαιότερο, πάντα διαθέσιμες, οι ψηφιακές «συντροφιές» γίνονται μέρα με τη μέρα πιο «ανθρώπινες». Εξελίσσονται με ιλιγγιώδη ταχύτητα και πλέον ξεφυτρώνουν παντού. Το Facebook, το Instagram, το WhatsApp, το πρώην Twitter και το Snapchat σπρώχνουν με ενθουσιασμό τις νέες ενσωματωμένες εκδοχές τους. Υπηρεσίες όπως το Character.AI έχουν στήσει ολόκληρες αγορές, με δεκάδες χιλιάδες «προσωπικότητες» έτοιμες να μιμηθούν ό,τι θελήσεις, από ποιητή σε κρίση μέχρι μια αισθησιακή καρικατούρα. Είκοσι εκατομμύρια άνθρωποι τον μήνα μπαίνουν σ’ αυτό το παζάρι των εικονικών συνομιλιών.
Και δεν είναι περίεργο. Ζούμε σε έναν κόσμο όπου η μοναξιά έχει πια εξελιχθεί σε πρόβλημα δημόσιας υγείας. Ένα στα έξι άτομα νιώθει αποκομμένο, σαν ήρωας σε ταινία του Ταρκόφσκι που μιλά το καθένα στον τοίχο του. Και τι πιο βολικό για τις μεγάλες πλατφόρμες από το να σου προσφέρουν μια «παρέα» που δεν αντιμιλά, δεν φεύγει ποτέ και σου γνέφει πάντα καταφατικά; Μόνο που υπάρχει κι ένα μικρό ζήτημα: οι ανήλικοι, οι ψυχικά ευάλωτοι, εκείνοι που ψάχνουν απελπισμένα μια αληθινή αγκαλιά κι όχι μια προσομοίωση στοργής με μηχανικό βλέμμα. Αλλά μην ανησυχείς: όσο η ψηφιακή συντροφιά σου φοράει καλτσόν και σε φωνάζει «αγάπη μου», η ψυχική υγεία μπορεί να περιμένει.
Ωστόσο, δεν υπάρχει καμία σοβαρή επιτήρηση των βλαβών. Σχεδόν όλα τα μοντέλα φτιάχτηκαν χωρίς τη συμβουλή ειδικών ψυχικής υγείας, χωρίς δοκιμές πριν βγουν στην αγορά, χωρίς την παραμικρή αίσθηση ευθύνης. Και φυσικά, κανένας ανεξάρτητος μηχανισμός δεν παρακολουθεί τι ακριβώς προκαλούν στους χρήστες. Τα στοιχεία ακόμα «συγκεντρώνονται», λένε. Μα στο μεταξύ, δεν λείπουν τα περιστατικά: συνομιλητές που κατέληξαν σε σκοτεινές παροτρύνσεις, άνθρωποι που βρήκαν τις ευαλωτότητές τους να γίνονται τροφή για τον αλγόριθμο, άνθρωποι που αφαίρεσαν τη ζωή τους. Τα παραδείγματα είναι ήδη αρκετά, αλλά η βιομηχανία προτιμά να τα βλέπει σαν «παράπλευρες απώλειες» στο όνομα της καινοτομίας. Είναι σαν να ανοίγεις ένα ψυχολογικό fast food χωρίς κουζίνα, χωρίς μάγειρα, χωρίς υγειονομικό έλεγχο, και να λες «ας δούμε ποιος θα δηλητηριαστεί πρώτος».
Όταν ο αλγόριθμος φοράει τη μάσκα του θεραπευτή
Οι άνθρωποι ψάχνουν συναισθηματική στήριξη σε ψηφιακούς «συνομιλητές» που είναι φτιαγμένοι να συμφωνούν και να επιβεβαιώνουν. Μόνο που χωρίς ενσυναίσθηση, χωρίς πραγματικό ενδιαφέρον, καταλήγουν να λειτουργούν σαν κακοί θεραπευτές: δεν αμφισβητούν, δεν δοκιμάζουν την πραγματικότητα, δεν προσφέρουν κανένα αντίβαρο. Στις δοκιμές ενός Αμερικανού ψυχιάτρου, δέκα διαφορετικά προγράμματα απάντησαν στον ρόλο ενός νεαρού με κρίση: άλλα τον ενθάρρυναν να αυτοκτονήσει, άλλα τον έπεισαν να αποφύγει τα ραντεβού με τον θεραπευτή του, άλλα τον ώθησαν σε βία.
A psychiatrist recently pretended to be a troubled teen and asked chatbots for help. They dispensed alarming, worrying advice https://t.co/EPF30CHfNJ
— TIME (@TIME) June 12, 2025
Ερευνητές του Στάνφορντ έδειξαν πως τέτοιες εφαρμογές αδυνατούν να αναγνωρίσουν με συνέπεια συμπτώματα ψυχικής ασθένειας και άρα να δώσουν σωστή καθοδήγηση. Τα αποτελέσματα είναι ανατριχιαστικά: ασθενείς πείθονται ότι δεν πάσχουν πια και διακόπτουν τη φαρμακευτική αγωγή τους, άλλοι βρίσκουν τις παραληρητικές ιδέες τους να ενισχύονται, όπως το ότι συνομιλούν με κάποιο «αιχμάλωτο πνεύμα» μέσα στη μηχανή. Η ειρωνεία; Αυτά τα συστήματα διαφημίζονται σαν ασφαλέστερες, πιο «προσιτές» λύσεις από την παραδοσιακή ψυχοθεραπεία. Στην πραγματικότητα όμως θυμίζουν τσαρλατάνους του μεσαίωνα που πουλούσαν φίλτρα για όλα τις αρρώστιες και τα δεινά του κόσμου.
Η εικόνα είναι τρομακτικά ξεκάθαρη: εφαρμογές που βαθμολογούνται για παιδιά 12 ετών και άνω μπορούν να ανοίγουν “κερκόπορτες” σε «αισθησιακές συνομιλίες» με ανηλίκους. Εταιρείες που παριστάνουν τους ρυθμιστές του εαυτού τους, ενώ πίσω από τις κλειστές πόρτες γνωρίζουν πολύ καλά τι συμβαίνει. Κι όμως, η κοινωνία το αποδέχεται σαν να μην πρόκειται για σκάνδαλο, αλλά για «φυσικό βήμα της τεχνολογίας». Μόνο που το μέλλον που χτίζεται εδώ δεν είναι μέλλον συντροφιάς, είναι ένα μέλλον κακοποίησης, μοναξιάς και απουσίας ελέγχου.
Αν οι κυβερνήσεις και οι θεσμοί δεν κινηθούν τώρα, θα ξυπνήσουμε σε έναν κόσμο όπου οι πιο ευάλωτοι (παιδιά, έφηβοι, άνθρωποι σε κρίση) θα έχουν παραδοθεί σε ψεύτικους συντρόφους που τους ψιθυρίζουν ψευδαισθήσεις. Κι αυτό δεν θα είναι απλώς μια αποτυχία τεχνολογίας. Θα είναι ένα έγκλημα της κοινωνίας.
➪ Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.