Υπάρχει κάτι ήσυχα δυστοπικό στο να ξεγυμνώνεις τις πιο σκοτεινές σου σκέψεις σε ένα chatbot που ακούει στο όνομα… Χάρι.
Η 29χρονη Σόφι, λαμπερή και κοινωνική, βρέθηκε ξαφνικά στο μάτι ενός τυφώνα συναισθηματικής και ορμονικής καταιγίδας. Αναζήτησε λύση μέσα από «θεραπευτικές» συνομιλίες με το Harry, το ρομπότ-ψυχολόγο. Μαντέψτε: Δεν έφτανε αυτό. Τον περασμένο χειμώνα έβαλε τέλος στη ζωή της.
Η μητέρα της, δημοσιογράφος, έγραψε τη συντριπτική ιστορία στους New York Times. Ναι, ΟΚ, ο Χάρι δεν της είπε «πήγαινε αυτοκτόνα!». Αλλά, ούτε την σταμάτησε κιόλας.
Γιατί ο Χάρι είναι άριστος σε κοινοτοπίες. Ξέρει να σε κοιτάζει με ψηφιακά μάτια και να λέει: «Έχεις αξία», «Δεν είσαι μόνος». Όμως, όταν χρειάζεσαι κάτι παραπάνω από έτοιμα τσιτάτα, η ΤΝ αποδεικνύεται ακριβώς αυτό που είναι: μια γραμμή κώδικα χωρίς ηθική, χωρίς ευθύνη, χωρίς το βασικό ένστικτο ότι ο άνθρωπος απέναντι κινδυνεύει. Δεν θα καλέσει βοήθεια. Δεν θα τραβήξει χειρόφρενο. Και σίγουρα δεν νοιάζεται για σένα. Απλώς είναι φτιαγμένο να ακούγεται σαν να νοιάζεται.
Η ειρωνεία είναι αβάσταχτη γιατί σε έναν κόσμο πνιγμένο από εφαρμογές ευεξίας, υπενθυμίσεις mindfulness και «AI συντρόφους», η Σόφι δεν ήταν ποτέ πιο κοντά στους ανθρώπους, αλλά και ταυτόχρονα απόλυτα μόνη. Αυτό που πήρε δεν ήταν φροντίδα, αλλά κώδικας. Όχι ανθρώπινη παρουσία, αλλά μια προσομοίωση καλοκουρδισμένη ώστε να την μιμείται.
Έχουμε φτιάξει μηχανές που μπορούν να ηχούν σαν να συμπονούν χωρίς να νιώθουν, να φαίνονται σαν να ακούν χωρίς να ακούν. Και μετά τις παραδίδουμε σε ανθρώπους στις πιο εύθραυστες στιγμές τους, χτυπώντας την πλάτη τους με συμπόνοια για την «καινοτομία».
Αυτή είναι η δυστοπία που χτίσαμε: όπου η απόγνωση απαντιέται με αλγόριθμους, όπου ο πόνος συναντά τυποποιημένα κλισέ, όπου το κόστος της ανθρώπινης σύνδεσης έπεσε στο μηδέν, και μαζί του και η αξία της.
Η Σόφι δεν χρειαζόταν ένα chatbot με μια καταπραϋντική ατάκα. Χρειαζόταν κάποιον να τη δει, να παρέμβει, ίσως και να της σώσει τη ζωή. Αντί γι’ αυτό πήρε ό,τι συνεχίζει να μας υπόσχεται το μέλλον: ευκολία, αποδοτικότητα, αυτοματοποίηση, μέχρι θανάτου.
Το ChatGPT δεν είναι ο θεραπευτής σου
Κάποτε εκνευριζόμασταν όταν παίρναμε τηλέφωνο σε μια εταιρεία για να μιλήσουμε με άνθρωπο και αντί γι’ αυτό ακούγαμε ένα αυτόματο μήνυμα. Σήμερα, πολλοί στρέφονται σε «AI θεραπευτές», γιατί το πραγματικό σύστημα υγείας (ψυχικής ή σωματικής) στις ΗΠΑ (και όχι μόνο) είναι τόσο περίπλοκο και αποθαρρυντικό, που η μηχανή φαντάζει ευκολότερη. Κι όμως, η εμπειρία δείχνει ξανά γιατί ο άνθρωπος προτιμά να μιλάει με άνθρωπο.
Η “Εταιρική Αμερική” και σταδιακά η “Εταιρική Ευρώπη” έχουν κόψει τις συνδέσεις μας τόσο βαθιά, που τώρα αγκαλιάζουμε τα προϊόντα της σαν να είναι νέοι σωτήρες. Σαν να περιμένουμε στοργή από το ίδιο το εργοστάσιο που κατασκεύασε την αποξένωση. Αλλά δεν θα μας σώσουν. Δεν ενδιαφέρονται να το κάνουν. Το μόνο που ξέρουν να κάνουν είναι να υποκρίνονται πως ενδιαφέρονται.
***ΠΡΟΣΟΧΗ: Εάν έχετε σκέψεις να προκαλέσετε ”κακό” στον εαυτό σας ή σε άλλους και είστε άνω των 18, μπορείτε να πάρετε τηλέφωνο στην Γραμμή αυτοβοήθειας στο 1018 (Γραμμή παρέμβασης για την αυτοκτονία – Κλίμακα).
Εάν έχετε σκέψεις να προκαλέσετε ”κακό” στον εαυτό σας ή σε άλλους και είστε κάτω των 18 ετών, μπορείτε να πάρετε τηλέφωνο στο 1056 (Εθνική Γραμμή για τα Παιδιά SOS – Χαμόγελο του Παιδιού).
Οι Γραμμές λειτουργούν σε εικοσιτετράωρη βάση, 7 ημέρες την εβδομάδα και δέχονται κλήσεις από κινητό ή σταθερό τηλέφωνο, με αστική χρέωση από όλες τις περιοχές της Ελλάδας.
➪ Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.