Καθώς η τεχνητή νοημοσύνη ενσωματώνεται όλο και περισσότερο στην καθημερινότητά μας, οι ερευνητές προσπαθούν να αντιμετωπίσουν το πιο κραυγαλέο και επίμονο πρόβλημά της: τις «παραισθήσεις» της—δηλαδή, το θράσος με το οποίο επινοεί ψέματα όταν δεν γνωρίζει την απάντηση.

Αυτό το ανεξέλεγκτο πρόβλημα της τεχνητής νοημοσύνης, σύμφωνα με ερευνητές που μίλησαν στη Wall Street Journal, φαίνεται να πηγάζει από μια βαθιά ριζωμένη απροθυμία να παραδεχτεί ότι δεν γνωρίζει κάτι.

Σύμφωνα με τον José Hernández-Orallo, καθηγητή στο Valencian Research Institute for Artificial Intelligence στην Ισπανία, το φαινόμενο των παραισθήσεων της AI σχετίζεται άμεσα με τον τρόπο εκπαίδευσης των μοντέλων.

«Ο βασικός λόγος που παθαίνουν παραισθήσεις είναι ότι, αν δεν μαντέψεις τίποτα», δήλωσε στην WSJ, «δεν έχεις καμία πιθανότητα να πετύχεις την απάντηση».

Για να αποδείξει το πρόβλημα, ο αρθρογράφος της WSJ, Ben Fritz, έκανε ένα απλό πείραμα: ρώτησε πολλαπλά εξελιγμένα AI μοντέλα ποια ήταν η σύζυγός του—μια πληροφορία που δεν είναι εύκολα ανιχνεύσιμη μέσω Google. Οι απαντήσεις ήταν εντελώς παράλογες: μια influencer του τένις, μια συγγραφέας που δεν είχε συναντήσει ποτέ και μια γυναίκα από την Αϊόβα που δεν είχε ξανακούσει στη ζωή του. Καμία από αυτές δεν ήταν σωστή.

Όταν επανέλαβε το πείραμα ο ίδιος, οι απαντήσεις έγιναν ακόμα πιο παράδοξες: το Gemini της Google τον πληροφόρησε με απόλυτη βεβαιότητα ότι ήταν παντρεμένος με έναν Σύριο καλλιτέχνη, τον Ahmad Durak Sibai, που όχι μόνο δεν είχε ακούσει ποτέ, αλλά φαίνεται πως είχε πεθάνει ήδη από τη δεκαετία του 1980.

Οι Roi Cohen και Konstantin Dobler, δύο υποψήφιοι διδάκτορες στο Hasso Plattner Institut της Γερμανίας, υποστηρίζουν σε πρόσφατη έρευνά τους ότι το πρόβλημα είναι απλό: τα μοντέλα AI, όπως και οι περισσότεροι άνθρωποι, διστάζουν να πουν «Δεν ξέρω» όταν τους γίνεται μια ερώτηση της οποίας η απάντηση βρίσκεται εκτός του εκπαιδευτικού τους συνόλου. Αντί να παραδεχτούν την άγνοιά τους, απλώς… εφευρίσκουν απαντήσεις και τις παρουσιάζουν με απόλυτη αυτοπεποίθηση ως αλήθειες.

Οι ερευνητές του Hasso Plattner ισχυρίζονται ότι έχουν βρει έναν τρόπο να παρέμβουν νωρίς στη διαδικασία εκπαίδευσης των AI μοντέλων, ώστε να τα διδάξουν την έννοια της αβεβαιότητας. Με αυτή τη μέθοδο, όχι μόνο μπορούν να απαντούν «Δεν γνωρίζω», αλλά φαίνεται ότι δίνουν και πιο ακριβείς απαντήσεις όταν διαθέτουν την πραγματική πληροφορία.

Όπως συμβαίνει και με τους ανθρώπους, όμως, τα μοντέλα που οι Cohen και Dobler εκπαίδευσαν στην αβεβαιότητα κάποιες φορές απαντούσαν «Δεν ξέρω» ακόμα και όταν γνώριζαν—η AI εκδοχή ενός ανασφαλούς μαθητή που, όταν τον ρωτούν στην τάξη, δηλώνει άγνοια, παρόλο που ξέρει την απάντηση.

Παρά αυτό το εμπόδιο, οι ερευνητές παραμένουν βέβαιοι ότι η προσέγγισή τους αξίζει, ειδικά σε περιπτώσεις όπου η ακρίβεια είναι κρίσιμη.

«Το ζητούμενο είναι να έχουμε χρήσιμα συστήματα προς χρήση», δήλωσε ο Dobler, «ακόμα κι αν δεν είναι υπερνοημοσύνη».

Ήδη, εταιρείες όπως η Anthropic ενσωματώνουν την έννοια της αβεβαιότητας στα chatbot τους. Όπως σημείωσε ο δημοσιογράφος της WSJ, Ben Fritz, το Claude της Anthropic ήταν το μόνο chatbot που παραδέχτηκε ότι δεν γνώριζε την απάντηση στην ερώτηση που του τέθηκε. (Όταν ο ίδιος δοκίμασε την ερώτηση στο Claude, το chatbot αρνήθηκε να απαντήσει και τον προειδοποίησε ότι υπήρχε πιθανότητα να «παραμιλήσει» και να εφεύρει μια απάντηση.)

Πέρα από τη βελτίωση της ακρίβειας, ο Ισπανός καθηγητής Hernández-Orallo τόνισε ότι η προσθήκη αβεβαιότητας στα μοντέλα τεχνητής νοημοσύνης θα μπορούσε να ενισχύσει και την εμπιστοσύνη του κοινού σε αυτά.

«Όταν ρωτάς κάποιον μια δύσκολη ερώτηση και σου απαντά ‘Δεν μπορώ να απαντήσω’, αυτό, κατά τη γνώμη μου, ενισχύει την εμπιστοσύνη», δήλωσε ο Hernández-Orallo στη Wall Street Journal.

Η παραδοχή της αβεβαιότητας, σύμφωνα με τον ίδιο, είναι θεμελιώδες στοιχείο της ανθρώπινης επικοινωνίας. Όταν κάποιος αναγνωρίζει τα όρια της γνώσης του, κερδίζει αξιοπιστία στα μάτια του συνομιλητή του. Αντίθετα, η τεχνητή νοημοσύνη, όπως τη σχεδιάζουμε σήμερα, συχνά αποφεύγει αυτή τη βασική αρχή της κοινής λογικής. Αντί να παραδεχτεί ότι δεν γνωρίζει κάτι, επινοεί απαντήσεις και τις παρουσιάζει με βεβαιότητα, οδηγώντας συχνά σε σφάλματα που πλήττουν την αξιοπιστία της.

«Δεν ακολουθούμε αυτή την απλή, αυτονόητη συμβουλή όταν κατασκευάζουμε την AI», τόνισε ο Hernández-Orallo, υπογραμμίζοντας ότι η ικανότητα μιας τεχνητής νοημοσύνης να παραδέχεται την άγνοιά της δεν είναι αδυναμία, αλλά προϋπόθεση για να γίνει πραγματικά χρήσιμη και αξιόπιστη.

*Με στοιχεία από το Futurism.

 Ακολουθήστε το OLAFAQ στο FacebookBluesky και Instagram.