Διευθύνοντες σύμβουλοι τεχνολογικών κολοσσών υπόσχονται ολοένα και πιο εξωπραγματικά οράματα για τη δεκαετία του 2030, βασισμένα στην «υπερνοημοσύνη», αλλά η πραγματικότητα είναι ότι ακόμη και τα πιο προηγμένα μοντέλα τεχνητής νοημοσύνης δυσκολεύονται ακόμη και με απλούς γρίφους. 

Αν πάρει κανείς στα σοβαρά τα λόγια των ηγετών των εταιρειών τεχνητής νοημοσύνης, τα προϊόντα τους σηματοδοτούν ότι η επόμενη δεκαετία θα είναι εντελώς διαφορετική από κάθε προηγούμενη στην ανθρώπινη ιστορία: μια χρυσή εποχή «ριζικής αφθονίας» που θα συμπέσει με την απαρχή της αποικιοποίησης του διαστήματος. 

Όμως οι ερευνητές που εργάζονται με τα πιο ισχυρά συστήματα AI του σήμερα βλέπουν μια διαφορετική πραγματικότητα, στην οποία ακόμη και τα καλύτερα μοντέλα αποτυγχάνουν να λύσουν βασικούς γρίφους που για τους περισσότερους ανθρώπους θεωρούνται αυτονόητοι. 

Οπότε, ποιον να πιστέψεις; 

Ο Sam Altman και ο Demis Hassabis, οι διευθύνοντες σύμβουλοι των OpenAI και Google DeepMind αντίστοιχα, έχουν κάνει πρόσφατα δηλώσεις σύμφωνα με τις οποίες πανίσχυρα, παγκοσμίως μεταμορφωτικά συστήματα AI βρίσκονται πολύ κοντά. Σε ανάρτησή του σε blog, ο Altman γράφει ότι «η δεκαετία του 2030 πιθανότατα θα είναι άγρια διαφορετική από κάθε προηγούμενη», κάνοντας εικασίες ότι μπορεί να περάσουμε «από μια σημαντική ανακάλυψη στις υλικές επιστήμες τον έναν χρόνο, σε πλήρους εύρους εγκεφαλο-υπολογιστικές διεπαφές τον επόμενο». 

Ο Hassabis δήλωσε επίσης ότι στη δεκαετία του 2030 η τεχνητή νοημοσύνη (AGI) θα αρχίσει να λύνει προβλήματα όπως η «θεραπεία φρικτών ασθενειών», οδηγώντας σε «πολύ πιο υγιείς και μακρόβιες ζωές», καθώς και στην ανακάλυψη νέων πηγών ενέργειας. «Αν όλα αυτά συμβούν, τότε θα πρόκειται για μια εποχή μέγιστης ανθρώπινης ακμής, όπου θα ταξιδεύουμε στα άστρα και θα αποικίζουμε τον γαλαξία». 

Αυτή η οραματική εικόνα βασίζεται σε μεγάλο βαθμό στην υπόθεση ότι τα μεγάλα γλωσσικά μοντέλα (LLMs), όπως το ChatGPT, γίνονται ολοένα και πιο ικανά όσο τους παρέχουμε περισσότερα δεδομένα εκπαίδευσης και υπολογιστική ισχύ. Αυτή η «εξίσωση κλιμάκωσης» φαίνεται να έχει ισχύ τα τελευταία χρόνια, αλλά υπάρχουν ενδείξεις ότι μπορεί να φτάνει στα όριά της. Για παράδειγμα, το πρόσφατο μοντέλο GPT-4.5 της OpenAI, το οποίο πιθανότατα κόστισε εκατοντάδες εκατομμύρια δολάρια για να εκπαιδευτεί πέτυχε μόνο μέτριες βελτιώσεις σε σχέση με τον προκάτοχό του, GPT-4. Και αυτό το κόστος είναι μικρό μπροστά στις επερχόμενες δαπάνες — υπάρχουν αναφορές ότι η Meta πρόκειται να ανακοινώσει επένδυση 15 δισεκατομμυρίων δολαρίων σε μια προσπάθεια να φτάσει στη «υπερνοημοσύνη». 

Οι εταιρείες τεχνητής νοημοσύνης στρέφονται επίσης σε μοντέλα «λογικής σκέψης» (reasoning models), όπως το o1 της OpenAI, το οποίο κυκλοφόρησε πέρυσι. Αυτά τα μοντέλα χρησιμοποιούν περισσότερο υπολογιστικό χρόνο και άρα χρειάζονται περισσότερο για να παράγουν μια απάντηση, ανατροφοδοτώντας τις δικές τους εξόδους πίσω στον εαυτό τους. Αυτή η επαναληπτική διαδικασία έχει ονομαστεί «αλυσίδα σκέψης» (chain-of-thought), με σκοπό να συγκριθεί με τον τρόπο που ένας άνθρωπος επεξεργάζεται βήμα-βήμα ένα πρόβλημα. «Υπήρχαν βάσιμοι λόγοι ανησυχίας ότι η AI θα φτάσει σε στασιμότητα» δήλωσε ο Noam Brown της OpenAI, «αλλά το o1 και μοντέλα σαν αυτό, επέτρεψαν να συνεχιστεί ο νόμος βελτιίωσης». 

Σε ορισμένες περιπτώσεις, φαίνεται ότι η παραγόμενη «αλυσίδα σκέψης» ενός μοντέλου δεν σχετίζεται ιδιαίτερα με την τελική απάντηση. Σε δοκιμές των μοντέλων της DeepSeek με απλούς λαβύρινθους, ο Σουμπαράο Καμπχαμπάτι και οι συνεργάτες του στο Πολιτειακό Πανεπιστήμιο της Αριζόνα διαπίστωσαν ότι ακόμη και όταν η AI έλυνε σωστά το πρόβλημα (έναν γρίφο για παράδειγμα), η λογική αλυσίδα που παρήγαγε περιείχε λάθη που δεν εμφανίζονταν στη σωστή λύση. Επιπλέον, διαπιστώθηκε ότι παρέχοντας στην AI μια εντελώς άσχετη «αλυσίδα σκέψης» μπορούσε, σε κάποιες περιπτώσεις, να οδηγήσει σε καλύτερες απαντήσεις. 

Πράγματι, όλες οι μελέτες υποδεικνύουν ότι οι όροι «σκέψη» ή «λογική» για αυτά τα μοντέλα ΑΙ είναι παραπλανητικοί, όπως επισημαίνει η Άννα Ρότζερς από το IT Πανεπιστήμιο της Κοπεγχάγης στη Δανία. «Όσο βρίσκομαι σε αυτόν τον χώρο, κάθε δημοφιλής τεχνική που μπορώ να σκεφτώ έχει αρχικά υπερεκτιμηθεί με κάποια ασαφή αναλογία που μοιάζει με γνωστικές λειτουργίες, η οποία τελικά αποδείχθηκε λανθασμένη». 

Ο Αντρέας Βλάχος από το Πανεπιστήμιο του Κέιμπριτζ υπογραμμίζει πως τα μεγάλα γλωσσικά μοντέλα (LLMs) εξακολουθούν να έχουν σαφείς εφαρμογές στη δημιουργία κειμένου και άλλες εργασίες, αλλά η πρόσφατη έρευνα δείχνει ότι ίσως δυσκολευτούμε να τα κάνουμε να αντιμετωπίσουν τα σύνθετα προβλήματα που ο Άλτμαν υπόσχεται πως θα λυθούν μέσα σε λίγα χρόνια. 

«Κατ’ ουσίαν, υπάρχει ασυμφωνία ανάμεσα σε αυτό που αυτά τα μοντέλα εκπαιδεύονται να κάνουν, δηλαδή την πρόβλεψη της επόμενης λέξης και σε αυτό που προσπαθούμε να τα κάνουμε να κάνουν, δηλαδή να παράγουν λογική» υποστηρίζει ο Βλάχος. 

Η OpenAI διαφωνεί, ωστόσο. «Η δουλειά μας δείχνει ότι μέθοδοι λογικής όπως η ‘αλυσίδα σκέψης’ μπορούν να βελτιώσουν σημαντικά την απόδοση σε σύνθετα προβλήματα, και εργαζόμαστε ενεργά για να επεκτείνουμε αυτές τις δυνατότητες μέσω καλύτερης εκπαίδευσης, αξιολόγησης και σχεδιασμού μοντέλων», αναφέρει εκπρόσωπος της εταιρείας.  

*Με στοιχεία από το New Scientist.

 

 Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.