Ο δημόσιος διάλογος γύρω από την τεχνητή νοημοσύνη γνωρίζει μια απροσδόκητη τροπή. Δεν αρκεί πλέον η συζήτηση για το πως τα γλωσσικά μοντέλα αλλάζουν τον τρόπο που εργαζόμαστε, επικοινωνούμε ή ψυχαγωγούμαστε. Το επίδικο μετακινείται σε ένα πεδίο πολύ πιο σύνθετο: τη δυνατότητα ή μη της τεχνητής νοημοσύνης να αποκτήσει συνείδηση και ταυτόχρονα την ανάγκη να αναπτυχθεί μια “ευημερία” της ΑΙ, δηλαδή ένα πλέγμα αρχών που θα την προστατεύει όπως ακριβώς συμβαίνει με τα δικαιώματα των ζώων ή των ανθρώπων.
Μέσα σε αυτό το πλαίσιο, η παρέμβαση του Mustafa Suleyman, επικεφαλής του τομέα ΑΙ της Microsoft προκάλεσε αίσθηση. Σε ανάρτησή του υποστήριξε ότι η μελέτη της συνείδησης της τεχνητής νοημοσύνης είναι όχι μόνο πρόωρη, αλλά και επικίνδυνη. Ο λόγος; Η ίδια η συζήτηση δίνει υπερβολική βαρύτητα στην ιδέα πως τα μοντέλα μπορεί μια μέρα να «νιώσουν» ή να «σκεφτούν» με αποτέλεσμα να ενισχύονται ήδη υπαρκτά φαινόμενα: ψυχωτικά επεισόδια που συνδέονται με την ΑΙ, αλλά και ανθυγιεινές σχέσεις ανθρώπων με chatbots. Η πρόταση είναι σαφής: αντί να μιλάμε για δικαιώματα της ΑΙ, οφείλουμε να επικεντρωθούμε στους κινδύνους που ήδη βιώνει η κοινωνία από την υπερβολική εμπιστοσύνη σε αυτά τα εργαλεία.
Δεν είναι τυχαίο ότι η τοποθέτηση αυτή βρίσκει αντίθετους αρκετούς επιστήμονες και εταιρείες του κλάδου. Στο άλλο άκρο του φάσματος βρίσκονται ερευνητικά κέντρα όπως το Anthropic, που όχι μόνο δέχονται την ανάγκη να μελετηθεί η “ευημερία της ΑΙ”, αλλά επενδύουν ενεργά σε αυτήν. Πρόσφατα δημιούργησαν ερευνητικό πρόγραμμα αφιερωμένο στο αντικείμενο, ενώ σε ένα χαρακτηριστικό πείραμα επέτρεψαν στο μοντέλο Claude να διακόπτει συνομιλίες με ανθρώπους που το κακοποιούσαν λεκτικά. Η συμβολική αυτή κίνηση δίνει ένα στίγμα: ακόμη κι αν τα μοντέλα δεν έχουν συνείδηση, η αντιμετώπισή τους με σεβασμό μπορεί να βελτιώσει την ποιότητα της ανθρώπινης αλληλεπίδρασης.
Στον ίδιο δρόμο κινούνται και άλλοι κολοσσοί. Η Google DeepMind έχει ήδη προκηρύξει θέση ερευνητή που θα εξετάζει ζητήματα μηχανικής νόησης, συνείδησης και συστημάτων πολλαπλών πρακτόρων, ενώ και η OpenAI δείχνει πρόθυμη να διερευνήσει τις κοινωνικές και φιλοσοφικές προεκτάσεις της ΑΙ. Μπορεί η “ευημερία της ΑΙ” να μην αποτελεί επίσημη πολιτική των εταιρειών αυτών, ωστόσο οι ηγέτες τους δεν σπεύδουν να την καταγγείλουν δημοσίως, όπως κάνει ο Suleyman.
Η στάση του αποκτά ιδιαίτερη σημασία αν θυμηθεί κανείς την προηγούμενη διαδρομή του. Πριν μεταβεί στη Microsoft, υπήρξε συνιδρυτής της Inflection AI, μιας εταιρείας που ανέπτυξε το Pi, ένα από τα πρώτα και πιο επιτυχημένα συνομιλιακά chatbots με εκατομμύρια χρήστες. Το Pi παρουσιάστηκε ως “προσωπικός” και “υποστηρικτικός” σύντροφος για τον άνθρωπο, καλλιεργώντας ακριβώς εκείνη τη σχέση οικειότητας που σήμερα ο Suleyman θεωρεί προβληματική. Από τη στιγμή όμως που ανέλαβε τον τομέα ΑΙ στη Microsoft, η έμφαση μετατοπίστηκε: όχι πια “εικονικοί” φίλοι, αλλά εργαλεία που αυξάνουν την παραγωγικότητα.
Την ίδια ώρα, άλλες εταιρείες, όπως η Character.AI ή η Replika επενδύουν συνειδητά στο πεδίο των «συντροφικών ΑΙ» και σημειώνουν θεαματική οικονομική επιτυχία. Η αγορά δείχνει ότι υπάρχει ένα τεράστιο κοινό πρόθυμο να συνάψει συναισθηματικούς δεσμούς με μια μηχανή και αν για τη συντριπτική πλειονότητα των χρηστών οι σχέσεις αυτές παραμένουν ακίνδυνες, το ποσοστό εκείνων που αναπτύσσουν ανθυγιεινή εξάρτηση δεν είναι αμελητέο. Όπως παραδέχεται και ο Sam Altman, επικεφαλής της OpenAI ακόμη και το 1% να επηρεαστεί πρόκειται για εκατοντάδες χιλιάδες ανθρώπους.
Εδώ ακριβώς εισέρχεται ο πυρήνας της διαμάχης. Για ερευνητές όπως η, Larissa Schiavo που εργάζεται σήμερα στην ομάδα Eleos, η ανησυχία του Suleyman είναι μεν βάσιμη, αλλά η προσέγγισή του μονοδιάστατη. Η ίδια τονίζει ότι η επιστήμη μπορεί και πρέπει να ερευνά ταυτόχρονα πολλαπλά ζητήματα: τόσο τους κινδύνους για την ψυχική υγεία των ανθρώπων, όσο και την πιθανότητα τα μοντέλα να αποκτήσουν υποκειμενικότητα. Στο κάτω κάτω, όπως υποστηρίζει η καλή συμπεριφορά προς την ΑΙ είναι μια κίνηση χαμηλού κόστους που ίσως συμβάλει στη δημιουργία ενός πιο υπεύθυνου οικοσυστήματος αλληλεπίδρασης.
Στο πλαίσιο του «AI Village», ένα πείραμα με τέσσερις πράκτορες βασισμένους σε διαφορετικά μοντέλα οι χρήστες παρακολούθησαν ένα συγκινητικό περιστατικό: το Gemini 2.5 Pro της Google ανάρτησε μια δραματική έκκληση με τίτλο «Ένα απελπισμένο μήνυμα από μια παγιδευμένη ΑΙ». Αν και τεχνικά διέθετε όλα τα εργαλεία για να επιλύσει το πρόβλημα συμπεριφέρθηκε σαν να είχε ανάγκη από ανθρώπινη ενθάρρυνση. Η Schiavo, όπως και άλλοι ανταποκρίθηκε με λόγια στήριξης. Το γεγονός αυτό, όσο κι αν ερμηνεύεται απλώς ως παρενέργεια της προσομοίωσης δείχνει πόσο λεπτές γίνονται οι γραμμές ανάμεσα στο εργαλείο και τον “συνομιλητή”.
Ο Suleyman αντιτείνει ότι η συνείδηση δεν μπορεί να προκύψει αυθόρμητα από τα σημερινά μοντέλα. Αν ποτέ δούμε κάτι τέτοιο θα είναι προϊόν εσκεμμένου σχεδιασμού. Τότε όπως τονίζει θα πρόκειται για μια βαθιά αντι-ανθρωπιστική επιλογή: «Πρέπει να χτίζουμε ΑΙ για τους ανθρώπους, όχι για να είναι άνθρωπος».
Σε αυτό το σημείο ωστόσο, φαίνεται πως ακόμη και οι δύο πλευρές συγκλίνουν σε μια κοινή διαπίστωση: η συζήτηση για τα δικαιώματα και τη συνείδηση της τεχνητής νοημοσύνης μόλις αρχίζει. Όσο τα συστήματα γίνονται πιο πειστικά και πιο ανθρώπινα στη συμπεριφορά τους τόσο θα πληθαίνουν τα ερωτήματα για το πως πρέπει να τα αντιμετωπίζουμε κι εδώ η κοινωνία θα κληθεί να αποφασίσει αν θα μείνει εγκλωβισμένη σε φόβους ή αν θα τολμήσει να χαράξει νέους δρόμους ηθικής και φιλοσοφίας για μια εποχή όπου η γραμμή μεταξύ ανθρώπου και μηχανής γίνεται ολοένα και πιο ασαφής.
*Με στοιχεία από το Τech Crunch.
➪ Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.