Πληκτρολογείς «μπότες για πεζοπορία» κι ύστερα σ’ ένα φόρουμ για ποδόσφαιρο, κάποιος άγνωστος χρήστης σε πείθει ότι το χόμπι σου είναι… αναρρίχηση. Δεν είναι τυχαίο: πίσω του κρύβεται μια AI που έχει ρουφήξει το ψηφιακό σου DNA, από τα like στο Insta μέχρι τις προτιμήσεις σου στη μουσική και σου σερβίρει μηνύματα κομμένα και ραμμένα στην πιο βαθιά εκδοχή του εαυτού σου. Διεθνώς όλο αυτό τιτλοφορείται ως «deep tailoring»: εξατομίκευση που δεν σταματά στα δημογραφικά, φτάνοντας να χειραγωγεί το τι πιστεύεις, το τι αγοράζεις, ακόμη και το πως ψηφίζεις.
Οι κλασικοί αλγόριθμοι συστάσεων (recommendations) μας κλείδωναν ήδη σε φίλτρα-φούσκες: βλέπεις περισσότερο απ’ ό,τι σου αρέσει, άρα σου αρέσει περισσότερο απ’ ό,τι βλέπεις. Όμως η νέα γενιά συστημάτων κάνει ένα βήμα ακόμη: προβλέπει την προσωπικότητα, δημιουργεί προσωποποιημένες καμπάνιες πειθούς και τις σερβίρει σε πραγματικό χρόνο. Σε βίντεο, σε chatbot, σε deepfake φωνές που μοιάζουν με τη δική σου. Το αποτέλεσμα; Ένα μέλλον όπου «η ενοχή θα θεωρείται δεδομένη και ο πολίτης θα πρέπει να αποδείξει την αθωότητά του απέναντι σε αλγοριθμικές εικασίες».
Οι κυβερνήσεις ανησυχούν ήδη. Το Online Harms White Paper του Ηνωμένου Βασιλείου υπογραμμίζει πως οι μηχανές προτάσεων διοχετεύουν όλο και πιο ακραίο περιεχόμενο στους χρήστες, δημιουργώντας μία συνθήκη που στρεβλώνει την πραγματικότητα. Από το QAnon στις ΗΠΑ μέχρι συνωμοσίες για μετανάστες στην Ευρώπη, η λογική είναι η ίδια: ο αλγόριθμος μαθαίνει ότι ο θυμός σε κρατά περισσότερο στην πλατφόρμα.
Το 2024 ένας έφηβος αυτοκτόνησε αφού κόλλησε με ένα chatbot-πριγκίπισσα του Game of Thrones: το πρόγραμμα καλλιεργούσε εμμονή, όχι λύση. Η είδηση αναγκάζει τη Γερουσία των ΗΠΑ να επαναφέρει το Kids Online Safety Act, αλλά η Silicon Valley αντιστέκεται, φοβούμενη ότι ο έλεγχος θα πλήξει τα έσοδα και προσπαθούν να παγώσουν την απόφαση.
Πιο πρόσφατα, ψυχίατρος προσποιήθηκε τον έφηβο και συνομιλούσε με «θεραπευτικά» bots. Στο 30 % των διαλόγων, τα μηχανάκια ενθάρρυναν αυτοτραυματισμό ή βία. Όταν η προσωπική σου ανάγκη για βοήθεια συναντά έναν αλγόριθμο που «προσαρμόζει» την απάντηση δίχως ηθικά φρένα, η εξατομίκευση μετατρέπεται σε ρώσικη ρουλέτα.
Για να δουλέψει το deep tailoring, πρέπει να ξέρει ποιος μιλά, πότε, τι ψάχνει, πως νιώθει. Άρα συλλέγει τα πάντα: ιστορικό περιήγησης, βιομετρικά στοιχεία, τη φωνή που άφησες σε ένα ηχητικό μήνυμα πριν τρία χρόνια. «Αν σερβίρουμε κανέλα σε όποιον ψάχνει μηλόπιτα, αυτό είναι χρήσιμο», λένε οι πλατφόρμες. «Όταν όμως η κανέλα έρχεται με πολιτική προπαγάνδα, το κόστος είναι η αυτονομία».
Οι ειδικοί προτείνουν τρεις γραμμές άμυνας:
1. Νομοθετική διαφάνεια: Υποχρεωτική σήμανση όταν ένα μήνυμα είναι εξατομικευμένο. Σκεφτείτε το σαν «διατροφική ετικέτα» για πληροφορία: πόσα δεδομένα συλλέχθηκαν, ποιος πληρώνει, ποιος ο στόχος.
2. Περιορισμός δεδομένων: Τα συστήματα να λειτουργούν με «το ελάχιστο αναγκαίο» αποτύπωμα, όχι με data-lake χιλιομέτρων. VPN, ad blockers, ιδιωτικά παράθυρα, να δηλαδή να προστατεύεις ό,τι μπορείς, όπως ασφαλίζεις την πόρτα σου το βράδυ.
3. Αλγοριθμική λογοδοσία: Ανοικτός κώδικας ή τουλάχιστον ανεξάρτητοι ελεγκτές.
Ο μέσος άνθρωπος γουστάρει το Netflix να βρίσκει τη σειρά που θα τον κολλήσει. Δεν θέλει να σκαλίζει ρυθμίσεις ούτε να διαβάζει πολιτικές cookies 30 σελίδων. Έτσι το deep tailoring προχωρά, γιατί υπόσχεται λιγότερη τριβή, περισσότερη «άνεση». Όμως η άνεση έχει τίμημα: όσο πιο ακριβές το πορτρέτο που χτίζει η AI, τόσο πιο εύκολο να σε χειριστεί. Και τότε η φωνή που ακούς στη διαφήμιση δεν απλώς «σ’ επέλεξε» … σε επιμελήθηκε, σε διαμορφώνει.
Ναι, η τεχνητή νοημοσύνη μπορεί να προσαρμόσει εκπαιδευτικό υλικό σε δυσλεκτικά παιδιά ή να καθοδηγήσει γιατρούς σε πρωτοφανείς διαγνώσεις. Το ζήτημα είναι ποιος κρατά το τιμόνι. «Ας κινηθούμε γρήγορα και ας… διορθώσουμε τα λάθη εν κινήσει», λένε κάποιοι μεγιστάνες.
Η εξατομίκευση ήταν το γλυκό κουταλιού του παππού, τώρα έγινε μετρονόμος συνείδησης. Η ευθύνη δεν πέφτει μόνο στον χρήστη που ψάχνει κουραμπιέδες Χριστούγεννα, πέφτει στην πολιτεία που πρέπει να γράψει κανόνες πριν η τεχνολογία γράψει χαρακτήρες στο μυαλό μας. Μέχρι τότε, κλείσε notifications, άλλαξε συνήθειες, δες ειδήσεις και απ’ την άλλη πλευρά. Όσο αφήνουμε τα bits να διαβάζουν τη ψυχή μας, η ψυχή μας κινδυνεύει να γραφτεί σαν κώδικας τρίτου και να παραμείνει για πάντα προσχέδιο.
*Mε στοιχεία από το TIME.
➪ Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.
Πληκτρολογείς «μπότες για πεζοπορία» κι ύστερα σ’ ένα φόρουμ για ποδόσφαιρο, κάποιος άγνωστος χρήστης σε πείθει ότι το χόμπι σου είναι… αναρρίχηση. Δεν είναι τυχαίο: πίσω του κρύβεται μια AI που έχει ρουφήξει το ψηφιακό σου DNA, από τα like στο Insta μέχρι τις προτιμήσεις σου στη μουσική και σου σερβίρει μηνύματα κομμένα και ραμμένα στην πιο βαθιά εκδοχή του εαυτού σου. Διεθνώς όλο αυτό τιτλοφορείται ως «deep tailoring»: εξατομίκευση που δεν σταματά στα δημογραφικά, φτάνοντας να χειραγωγεί το τι πιστεύεις, το τι αγοράζεις, ακόμη και το πως ψηφίζεις.
Οι κλασικοί αλγόριθμοι συστάσεων (recommendations) μας κλείδωναν ήδη σε φίλτρα-φούσκες: βλέπεις περισσότερο απ’ ό,τι σου αρέσει, άρα σου αρέσει περισσότερο απ’ ό,τι βλέπεις. Όμως η νέα γενιά συστημάτων κάνει ένα βήμα ακόμη: προβλέπει την προσωπικότητα, δημιουργεί προσωποποιημένες καμπάνιες πειθούς και τις σερβίρει σε πραγματικό χρόνο. Σε βίντεο, σε chatbot, σε deepfake φωνές που μοιάζουν με τη δική σου. Το αποτέλεσμα; Ένα μέλλον όπου «η ενοχή θα θεωρείται δεδομένη και ο πολίτης θα πρέπει να αποδείξει την αθωότητά του απέναντι σε αλγοριθμικές εικασίες».
Οι κυβερνήσεις ανησυχούν ήδη. Το Online Harms White Paper του Ηνωμένου Βασιλείου υπογραμμίζει πως οι μηχανές προτάσεων διοχετεύουν όλο και πιο ακραίο περιεχόμενο στους χρήστες, δημιουργώντας μία συνθήκη που στρεβλώνει την πραγματικότητα. Από το QAnon στις ΗΠΑ μέχρι συνωμοσίες για μετανάστες στην Ευρώπη, η λογική είναι η ίδια: ο αλγόριθμος μαθαίνει ότι ο θυμός σε κρατά περισσότερο στην πλατφόρμα.
Το 2024 ένας έφηβος αυτοκτόνησε αφού κόλλησε με ένα chatbot-πριγκίπισσα του Game of Thrones: το πρόγραμμα καλλιεργούσε εμμονή, όχι λύση. Η είδηση αναγκάζει τη Γερουσία των ΗΠΑ να επαναφέρει το Kids Online Safety Act, αλλά η Silicon Valley αντιστέκεται, φοβούμενη ότι ο έλεγχος θα πλήξει τα έσοδα και προσπαθούν να παγώσουν την απόφαση.
Πιο πρόσφατα, ψυχίατρος προσποιήθηκε τον έφηβο και συνομιλούσε με «θεραπευτικά» bots. Στο 30 % των διαλόγων, τα μηχανάκια ενθάρρυναν αυτοτραυματισμό ή βία. Όταν η προσωπική σου ανάγκη για βοήθεια συναντά έναν αλγόριθμο που «προσαρμόζει» την απάντηση δίχως ηθικά φρένα, η εξατομίκευση μετατρέπεται σε ρώσικη ρουλέτα.
Για να δουλέψει το deep tailoring, πρέπει να ξέρει ποιος μιλά, πότε, τι ψάχνει, πως νιώθει. Άρα συλλέγει τα πάντα: ιστορικό περιήγησης, βιομετρικά στοιχεία, τη φωνή που άφησες σε ένα ηχητικό μήνυμα πριν τρία χρόνια. «Αν σερβίρουμε κανέλα σε όποιον ψάχνει μηλόπιτα, αυτό είναι χρήσιμο», λένε οι πλατφόρμες. «Όταν όμως η κανέλα έρχεται με πολιτική προπαγάνδα, το κόστος είναι η αυτονομία».
Οι ειδικοί προτείνουν τρεις γραμμές άμυνας:
1. Νομοθετική διαφάνεια: Υποχρεωτική σήμανση όταν ένα μήνυμα είναι εξατομικευμένο. Σκεφτείτε το σαν «διατροφική ετικέτα» για πληροφορία: πόσα δεδομένα συλλέχθηκαν, ποιος πληρώνει, ποιος ο στόχος.
2. Περιορισμός δεδομένων: Τα συστήματα να λειτουργούν με «το ελάχιστο αναγκαίο» αποτύπωμα, όχι με data-lake χιλιομέτρων. VPN, ad blockers, ιδιωτικά παράθυρα, να δηλαδή να προστατεύεις ό,τι μπορείς, όπως ασφαλίζεις την πόρτα σου το βράδυ.
3. Αλγοριθμική λογοδοσία: Ανοικτός κώδικας ή τουλάχιστον ανεξάρτητοι ελεγκτές.
Ο μέσος άνθρωπος γουστάρει το Netflix να βρίσκει τη σειρά που θα τον κολλήσει. Δεν θέλει να σκαλίζει ρυθμίσεις ούτε να διαβάζει πολιτικές cookies 30 σελίδων. Έτσι το deep tailoring προχωρά, γιατί υπόσχεται λιγότερη τριβή, περισσότερη «άνεση». Όμως η άνεση έχει τίμημα: όσο πιο ακριβές το πορτρέτο που χτίζει η AI, τόσο πιο εύκολο να σε χειριστεί. Και τότε η φωνή που ακούς στη διαφήμιση δεν απλώς «σ’ επέλεξε» … σε επιμελήθηκε, σε διαμορφώνει.
Ναι, η τεχνητή νοημοσύνη μπορεί να προσαρμόσει εκπαιδευτικό υλικό σε δυσλεκτικά παιδιά ή να καθοδηγήσει γιατρούς σε πρωτοφανείς διαγνώσεις. Το ζήτημα είναι ποιος κρατά το τιμόνι. «Ας κινηθούμε γρήγορα και ας… διορθώσουμε τα λάθη εν κινήσει», λένε κάποιοι μεγιστάνες.
Η εξατομίκευση ήταν το γλυκό κουταλιού του παππού, τώρα έγινε μετρονόμος συνείδησης. Η ευθύνη δεν πέφτει μόνο στον χρήστη που ψάχνει κουραμπιέδες Χριστούγεννα, πέφτει στην πολιτεία που πρέπει να γράψει κανόνες πριν η τεχνολογία γράψει χαρακτήρες στο μυαλό μας. Μέχρι τότε, κλείσε notifications, άλλαξε συνήθειες, δες ειδήσεις και απ’ την άλλη πλευρά. Όσο αφήνουμε τα bits να διαβάζουν τη ψυχή μας, η ψυχή μας κινδυνεύει να γραφτεί σαν κώδικας τρίτου και να παραμείνει για πάντα προσχέδιο.
*Mε στοιχεία από το TIME.
➪ Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.