Η τεχνητή νοημοσύνη δεν παύει να μας εκπλήσσει. Από τη μία μοιάζει σαν το πιο ισχυρό εργαλείο που κατασκεύασε ποτέ ο άνθρωπος, από την άλλη δεν παύει να παράγει “παραισθήσεις”. Δηλαδή προτάσεις που ακούγονται πειστικές, είναι καλογραμμένες, συχνά γεμάτες αυτοπεποίθηση, αλλά στην ουσία είναι λανθασμένες. Το ερώτημα που αιωρείται στον δημόσιο διάλογο είναι απλό: γιατί εξακολουθούν να συμβαίνουν αυτά τα λάθη; Και πιο τολμηρά: μήπως φταίνε τα ίδια τα κίνητρα που βάζουμε στην τεχνητή νοημοσύνη; 

Η OpenAI επιχειρεί να ανοίξει αυτή τη συζήτηση. Ορίζει τις παραισθήσεις ως “πιθανές αλλά ψευδείς δηλώσεις που παράγονται από γλωσσικά μοντέλα” και παραδέχεται πως παρά τις βελτιώσεις οι παραισθήσεις “παραμένουν θεμελιώδης πρόκληση για όλα τα μεγάλα μοντέλα γλώσσας”. Ένα πρόβλημα που μάλλον δεν θα εξαλειφθεί ποτέ πλήρως. 

Το παράδειγμα που παραθέτουν οι ερευνητές είναι χαρακτηριστικό: όταν ρώτησαν ένα γνωστό chatbot για το θέμα της διδακτορικής διατριβής ενός φοιτητή πήραν τρεις διαφορετικές απαντήσεις, όλες λανθασμένες. Όταν ρώτησαν για τα γενέθλιά του, η ιστορία επαναλήφθηκε. Λάθη απλά, αλλά ειπωμένα με τόση βεβαιότητα που έκαναν τον συνομιλητή να νιώθει αβέβαιος για τον εαυτό του και όχι για τη μηχανή. 

Πού οφείλεται αυτό; Οι ερευνητές εξηγούν ότι το πρόβλημα ξεκινά από τη φάση της προεκπαίδευσης. Τα μοντέλα γλώσσας μαθαίνουν να προβλέπουν τη “σωστή” επόμενη λέξη σε ένα κείμενο. Δεν εκπαιδεύονται να ξεχωρίζουν το αληθές από το ψευδές, αλλά να μιμούνται την πιθανή συνέχεια ενός κειμένου. Αν για παράδειγμα η ερώτηση αφορά τα γενέθλια ενός άγνωστου ακαδημαϊκού, το μοντέλο δεν έχει πραγματικά γνώση παρά μόνο την ικανότητα να μαντέψει κάτι που “μοιάζει σωστό”. 

Οι λέξεις έχουν μοτίβα. Η ορθογραφία, η στίξη, οι παρενθέσεις είναι στοιχεία που διορθώνονται με την κλίμακα. Όσο περισσότερα δεδομένα, τόσο λιγότερα λάθη, αλλά οι σπάνιες πληροφορίες, οι ημερομηνίες, τα μικρά γεγονότα, δεν υπακούουν σε μοτίβα. Δεν υπάρχει “στατιστικό ίχνος” που να οδηγεί με σιγουριά στην απάντηση. Εκεί γεννιέται η παραίσθηση. 

Το πρόβλημα δεν είναι μόνο τεχνικό. Είναι και ζήτημα κινήτρων. Μέχρι σήμερα τα γλωσσικά μοντέλα αξιολογούνται κυρίως με βάση την ακρίβεια: πόσες σωστές απαντήσεις δίνουν σε σχέση με τις λάθος. Όμως αυτό το κριτήριο μοιάζει με ένα τεστ πολλαπλών επιλογών όπου σε συμφέρει να μαντέψεις, γιατί μπορεί να πετύχεις κι αν δε μαντέψεις, απλώς χάνεις τη μονάδα. Το κίνητρο είναι ξεκάθαρο: “ρίξε μια απάντηση, ποτέ δεν ξέρεις, μπορεί να βγεις σωστός”. 

Αντιθέτα, σε εξετάσεις όπως το SAT υπήρχε κάποτε αρνητική βαθμολόγηση: κάθε λάθος σου αφαιρούσε μονάδες. Αυτό απέτρεπε την τυφλή μαντεψιά. Η OpenAI προτείνει κάτι ανάλογο για τα γλωσσικά μοντέλα: να τιμωρούνται περισσότερο τα σίγουρα λάθη από ό,τι η αβεβαιότητα. Να δίνεται μερική αναγνώριση στο “δεν ξέρω” αντί για επιβράβευση στο τυχαίο “ξέρω”. 

Η πρόταση έχει νόημα, γιατί σήμερα τα chatbots έχουν μάθει να “παίζουν” με βάση τον πίνακα βαθμολογίας που τους δίνουμε. Αν το σκορ μετρά μόνο πόσες απαντήσεις είναι σωστές θα συνεχίσουν να μαντεύουν. Αν όμως ο πίνακας αλλάξει και αρχίσει να επιβραβεύει την ειλικρινή αβεβαιότητα, τότε ίσως η σχέση μας με την τεχνητή νοημοσύνη γίνει πιο έντιμη. 

Το ζήτημα βέβαια δεν είναι μόνο τεχνικό ή εκπαιδευτικό. Είναι βαθιά πολιτισμικό. Εμείς οι άνθρωποι δυσκολευόμαστε να πούμε “δεν ξέρω”. Το βλέπουμε στην πολιτική, στα social media, στις παρέες. Η άγνοια μοιάζει αδυναμία. Η αυτοπεποίθηση, ακόμα κι αν είναι ψεύτικη, συχνά πείθει. Μήπως λοιπόν τα μοντέλα απλώς μιμούνται εμάς; Μήπως οι “παραισθήσεις” είναι η τεχνητή αντανάκλαση της δικής μας κοινωνικής εμμονής με το να έχουμε πάντα απάντηση; 

Σε κάθε περίπτωση, το στοίχημα είναι ανοιχτό. Θέλουμε μηχανές που μιλούν με αυτοπεποίθηση, ακόμη κι αν κάνουν λάθη ή μηχανές που παραδέχονται την αβεβαιότητα και μας αφήνουν στο σκοτάδι; Θέλουμε συνομιλητές που μοιάζουν παντογνώστες ή εργαλεία που ξέρουν τα όριά τους; 

Η αλήθεια είναι ότι οι παραισθήσεις δεν θα εξαφανιστούν ποτέ. Θα μειωθούν, θα γίνουν πιο σπάνιες, αλλά θα παραμείνουν. Το κρίσιμο είναι να μάθουμε να τις αναγνωρίζουμε, να μη γοητευόμαστε από την επιφανειακή σιγουριά και να δίνουμε αξία στην αμφιβολία, γιατί η αμφιβολία είναι το πρώτο βήμα της γνώσης, τόσο για τον άνθρωπο όσο και για την τεχνητή νοημοσύνη. 

Αν τελικά οι παραισθήσεις της τεχνητής νοημοσύνης είναι προϊόν λανθασμένων κινήτρων, ίσως είναι ώρα να ξαναγράψουμε τους κανόνες. Να μάθουμε να επιβραβεύουμε όχι την ψευδαίσθηση της βεβαιότητας, αλλά την ταπεινότητα του “δεν ξέρω”. Μόνο τότε η τεχνητή νοημοσύνη θα μπορέσει να μας οδηγήσει πιο κοντά στην αλήθεια κι όχι απλώς σε μια ωραία ψευδαίσθηση. 

*Mε πληροφορίες από το TechCrunch.

 

 

 Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.