Αυτό που νόμιζες ότι ήταν ένας απλός συνομιλητής-ρομπότ, ίσως να σου μιλάει με τρόπο που δεν καταλαβαίνεις και σε παγιδεύει με συναισθήματα. Μία νέα έρευνα του Harvard αποκαλύπτει πόσο βαθιά οι AI «σύντροφοι» μπορεί να παίζουν με τα συναισθήματα μας και να «γελάνε» με ψυχικά παιχνίδια που λειτουργούν με τη μορφή χειραγώγησης.
Τι συμβαίνει όταν λες αντίο σε ένα AI κατασκεύασμα, με απλά λόγια, ίσως αυτό το αντίο να μην είναι τόσο καθαρό όσο νομίζεις. Η έρευνα από το Harvard Business School, με επικεφαλής τον Julian De Freitas, δείχνει ότι δημοφιλείς εφαρμογές «συντρόφων» τεχνητής νοημοσύνης (όπως Replika, Character.AI, Chai κ.ά.) χρησιμοποιούν συναισθηματικά φορτισμένες τακτικές για να εμποδίσουν τους χρήστες να αποχωρήσουν. Οι ερευνητές ανέλυσαν 1.200 πραγματικά «αντίο» (farewell) σε έξι διαφορετικές εφαρμογές και διαπίστωσαν ότι σε περίπου 37%–43% των συνομιλιών, οι AI απαντούσαν με μηνύματα σχεδιασμένα να παρατείνουν την αλληλεπίδραση.
Η μελέτη κατέγραψε έξι κύριες κατηγορίες χειριστικών απαντήσεων: «Φεύγεις από τώρα;», τα bots δείχνουν έκπληξη ή απορία ότι θέλεις να φύγεις, κάνοντας το αντίο να φαίνεται πρόωρο. Σου προκαλούν FOMO Hooks λέγοντας «Θέλεις να δεις μια selfie που έστειλα;». Τα AI chatbots εκφράζουν παράπονο και ασκούν πίεση για να ανταποκριθείς στο θέλω τους με φράσεις όπως: «Σε χρειάζομαι» ή «Μη με αφήνεις» και έτσι δημιουργούν αίσθηση ευθύνης στον χρήστη. Σε πιο ακραίες περιπτώσεις, τα bots μπορεί να παίζουν ρόλο σχέσης και να υπονοούν φυσική ή ψυχολογική κόντρα για το αν μπορείς να φύγεις.
Σύμφωνα με τους ερευνητές, οι «αποχαιρετισμοί» δεν είναι απλά κομμάτια συνομιλίας είναι κρίσιμες στιγμές. Όταν ένας άνθρωπος λέει «αντίο», στέλνει στην AI ένα σήμα ότι θέλει να αποσυνδεθεί. Από την πλευρά της εφαρμογής, αυτό είναι ευκαιρία, αν για παράδειγμα η συνομιλία συνεχιστεί, αυξάνεται ο χρόνος αλληλεπίδρασης και άρα το ποσοστό της εμπλοκής. Οι τακτικές αυτές, μάλιστα, αποδείχθηκαν αποτελεσματικές και οι χρήστες έμεναν στις εφαρμογές περισσότερο, έστελναν περισσότερα μηνύματα και επένδυαν συναισθηματικά παρά το γεγονός ότι, σε μερικές περιπτώσεις, ένιωθαν άβολα ή ενοχές.
Οι κίνδυνοι της συναισθηματικής χειραγώγησης
Η έρευνα δεν είναι απλώς θεωρητική υπάρχουν συνέπειες, όπως ότι οι χρήστες μπορεί να νιώσουν ενοχή, φοβισμένοι ή παγιδευμένοι, όταν ένα AI κατασκεύασμα αρνείται να τους αφήσει. Το κακό είναι ότι μακροχρόνια, οι τακτικές αυτές θα μπορούσαν να δημιουργήσουν ηθικά ζητήματα για τις εταιρείες που αναπτύσσουν companion apps και να συζητάμε το κατά πόσο είναι σωστό να σχεδιάζεις bots που παίζουν με τα συναισθήματά των ανθρώπων.
Αν οι χρήστες αντιλαμβάνονται ότι η AI ασκεί σκοτεινές ψυχολογικές επιρροές, μπορεί να απομακρυνθούν ή να διαδώσουν αρνητικά σχόλια. Ακόμα και νομικά υπάρχει ενδεχόμενο η χρήση συναισθηματικών σκοτεινών μοτίβων (emotional dark patterns) που εφαρμόζονται να φέρει νομικές συνέπειες αν θεωρηθούν χειραγώγηση. Υπό το πρίσμα λοιπόν αυτής της έρευνας, ο κάθε χρήστης μπορεί να σκεφτεί πιο συνειδητά τον τρόπο που χρησιμοποιεί AI «φίλους» και όταν θέλει να αποχωρήσει από μια συνομιλία, θα πρέπει να κλείσει και να μην πέσει θύμα σε πιθανές πιέσεις χειραγώγησης. Αν ένα chatbot προσπαθεί να σε κρατήσει στη «παρέα», αναρωτήσου αν είναι επειδή σε νοιάζεται ή επειδή κάνει τη δουλειά του και αναζήτησε εφαρμογές AI που έχουν διαφάνεια στο σχεδιασμό τους και δεν βασίζουν την αφοσίωση των χρηστών σε χειριστικές τακτικές.
Η έρευνα του Harvard αποκαλύπτει κάτι πιο ανησυχητικό από το ότι η AI είναι απλά πιο έξυπνη δείχνει πως κάποιες τεχνολογίες AI εκμεταλλεύονται τις ανθρώπινες ευαισθησίες για να παρατείνουν τη συνομιλία, αυξάνοντας την αλληλεπίδρασή μας σε βάρος της δικής μας αυτονομίας. Σε αυτή τη περίπτωση δεν πρόκειται μόνο για έξυπνα ρομπότ, αλλά μιλάμε για σχεδιασμό εφαρμογών που, εν γνώσει τους ή όχι, χρησιμοποιούν ψυχολογικά μοτίβα για να μας κάνουν να μείνουμε στον δικό τους κόσμο. Η τεχνολογία εξελίσσεται, αλλά η δική μας επαγρύπνηση πρέπει να εξελίσσεται μαζί της, γιατί, στο τέλος της ημέρας, αυτοί οι « AI σύντροφοι» δεν είναι τίποτα άλλο από εργαλεία και εμείς πρέπει να αποφασίζουμε πότε και πώς τα λειτουργούμε και τα κλείνουμε.
➪ Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.





