Την περασμένη εβδομάδα, ο Μαρκ Ζούκερμπεργκ δήλωσε ότι η Meta στοχεύει να δημιουργήσει AI εξυπνότερη από τον άνθρωπο και φαίνεται πως έχει συνταγή γι’ αυτό με πρώτο συστατικό το ανθρώπινο ταλέντο: σύμφωνα με αναφορές, ο Ζούκερμπεργκ προσπαθεί να προσελκύσει κορυφαίους ερευνητές στα Meta Superintelligence Labs με προσφορές που αγγίζουν εννιαψήφιους αριθμούς. 

Το δεύτερο συστατικό; Η ίδια η τεχνητή νοημοσύνη. 

Πρόσφατα, σε τηλεδιάσκεψη για τα οικονομικά αποτελέσματα, δήλωσε ότι τα Meta Superintelligence Labs θα επικεντρωθούν στην κατασκευή αυτοβελτιούμενων AI — συστημάτων που μπορούν να αναβαθμίζονται μόνα τους σε όλο και υψηλότερα επίπεδα απόδοσης. 

Αυτό ακριβώς είναι που διαχωρίζει την AI από άλλες επαναστατικές τεχνολογίες. Το CRISPR δεν μπορεί να βελτιώσει μόνο του την ικανότητα στόχευσης αλληλουχιών DNA, ούτε οι αντιδραστήρες σύντηξης μπορούν να καταστήσουν εμπορικά βιώσιμη τη λειτουργία τους χωρίς ανθρώπινη παρέμβαση. Αντίθετα, τα μεγάλα γλωσσικά μοντέλα (LLMs) μπορούν να βελτιστοποιούν τα chips στα οποία «τρέχουν», να εκπαιδεύουν άλλα LLMs πιο φθηνά και αποδοτικά και ίσως να προτείνουν αυθεντικές ιδέες για έρευνα AI. Ήδη έχουν κάνει πρόοδο σε όλους αυτούς τους τομείς. 

Σύμφωνα με τον Ζούκερμπεργκ, η αυτοβελτιούμενη τεχνητή νοημοσύνη θα μπορούσε να οδηγήσει σε έναν κόσμο όπου οι άνθρωποι απελευθερώνονται από τη βαρετή καθημερινή εργασία και επιδιώκουν υψηλότερους στόχους, με τη στήριξη πανέξυπνων, υπερ-αποτελεσματικών ψηφιακών συνεργατών. 

Αυτή η αυτοβελτίωση όμως ενέχει έναν θεμελιώδη κίνδυνο, όπως επισημαίνει ο Κρις Πέιντερ, διευθυντής πολιτικής στο μη κερδοσκοπικό ερευνητικό ινστιτούτο METR: αν η AI επιταχύνει την ανάπτυξη των δικών της ικανοτήτων, τότε μπορεί σύντομα να γίνει καλύτερη στο να χακάρει συστήματα, να σχεδιάζει όπλα ή να χειραγωγεί ανθρώπους. Κάποιοι ερευνητές μάλιστα εικάζουν πως αυτός ο “κύκλος θετικής ανάδρασης” μπορεί να οδηγήσει σε μια “έκρηξη νοημοσύνης”, όπου η AI εκτοξεύεται πολύ πέρα από τα ανθρώπινα επίπεδα. 

Δεν χρειάζεται όμως να είσαι καταστροφολόγος για να πάρεις στα σοβαρά τις συνέπειες της αυτοβελτιούμενης AI. Η OpenAI, η Anthropic και η Google αναφέρουν όλες την «αυτοματοποιημένη έρευνα AI» στα πλαίσια ασφαλείας τους, δίπλα σε πιο γνωστούς κινδύνους όπως τα χημικά όπλα ή η κυβερνοασφάλεια. 

«Πιστεύω ότι αυτός είναι ο ταχύτερος δρόμος προς μια ισχυρή τεχνητή νοημοσύνη», λέει ο Τζεφ Κλουν, καθηγητής πληροφορικής στο Πανεπιστήμιο της Βρετανικής Κολομβίας και ερευνητικός σύμβουλος στην Google DeepMind. «Πιθανότατα είναι το πιο σημαντικό ζήτημα που πρέπει να σκεφτόμαστε αυτή τη στιγμή». 

Με την ίδια λογική, λέει ο Κλουν, η αυτοματοποίηση της έρευνας και της ανάπτυξης της τεχνητής νοημοσύνης θα μπορούσε να έχει τεράστια οφέλη. Από μόνοι μας οι άνθρωποι ίσως να μην μπορέσουμε να σκεφτούμε τις καινοτομίες και τις βελτιώσεις που θα επιτρέψουν στην AI να αντιμετωπίσει μια μέρα κολοσσιαία προβλήματα όπως ο καρκίνος ή η κλιματική αλλαγή. 

Προς το παρόν η ανθρώπινη ευρηματικότητα παραμένει η βασική κινητήριος δύναμη της προόδου στην AI – διαφορετικά, η Meta δύσκολα θα έκανε τόσο υπέρογκες προσφορές για να προσελκύσει ερευνητές στο εργαστήριό της για την υπερνοημοσύνη. Η AI ήδη συμβάλλει στην ίδια της την εξέλιξη και στο μέλλον αναμένεται να αναλάβει ακόμα πιο ενεργό ρόλο. Ακολουθούν πέντε τρόποι με τους οποίους η AI ήδη βελτιώνει τον εαυτό της:

1. Ενίσχυση παραγωγικότητας
Σήμερα η πιο σημαντική συμβολή των μεγάλων γλωσσικών μοντέλων (LLMs) στην ανάπτυξη της τεχνητής νοημοσύνης μπορεί να είναι και η πιο τετριμμένη. «Το μεγαλύτερο όφελος είναι η βοήθεια στον προγραμματισμό» υποστηρίζει ο Tom Davidson, ανώτερος ερευνητής στο Forethought, μιας μη κερδοσκοπική οργάνωση για την έρευνα στην AI. Εργαλεία όπως τα Claude Code και Cursor που βοηθούν τους μηχανικούς να γράφουν πιο γρήγορα λογισμικό, φαίνεται να είναι δημοφιλή σε όλο τον κλάδο: ο διευθύνων σύμβουλος της Google, Sundar Pichai, δήλωσε τον Οκτώβριο του 2024 ότι το ένα τέταρτο του νέου κώδικα της εταιρείας δημιουργείται από AI, ενώ η Anthropic δημοσίευσε παραδείγματα για τους πολλούς τρόπους με τους οποίους οι εργαζόμενοι χρησιμοποιούν το Claude Code.  

Αν οι μηχανικοί είναι πιο παραγωγικοί χάρη σε αυτή τη βοήθεια, τότε μπορούν να σχεδιάζουν, να δοκιμάζουν και να εφαρμόζουν νέα συστήματα AI πιο γρήγορα.

2. Βελτιστοποίηση υποδομών
Το να γράφεις γρήγορα κώδικα δεν έχει νόημα αν πρέπει να περιμένεις ώρες, μέρες ή και εβδομάδες για να εκτελεστεί. Η εκπαίδευση μεγάλων μοντέλων είναι ιδιαίτερα χρονοβόρα και τα πιο εξελιγμένα μοντέλα λογικής μπορούν να χρειαστούν λεπτά για να παραγάγουν μια μόνο απάντηση. Αυτές οι καθυστερήσεις αποτελούν βασικά εμπόδια για την πρόοδο, λέει η Azalia Mirhoseini, επίκουρη καθηγήτρια πληροφορικής στο Stanford και ανώτερη επιστήμονας στη Google DeepMind. «Αν μπορέσουμε να τρέχουμε την AI πιο γρήγορα, θα καινοτομούμε περισσότερο».

3. Αυτοματοποίηση της εκπαίδευσης
Τα μεγάλα γλωσσικά μοντέλα (LLMs) είναι γνωστά για την αδηφαγία τους σε δεδομένα και η εκπαίδευσή τους είναι δαπανηρή σε κάθε στάδιο. Σε ορισμένα εξειδικευμένα πεδία, όπως οι σπάνιες γλώσσες προγραμματισμού τα πραγματικά δεδομένα είναι πολύ λίγα για να εκπαιδευτούν τα LLMs αποτελεσματικά. Μια τεχνική που έχει συμβάλει σημαντικά είναι η ενισχυτική μάθηση με ανθρώπινη ανατροφοδότηση (RLHF), όπου άνθρωποι βαθμολογούν τις απαντήσεις του LLM και αυτό εκπαιδεύεται βάσει αυτών των αξιολογήσεων. Όμως, η ανθρώπινη ανατροφοδότηση είναι αργή και κοστίζει. 

Όλο και περισσότερο, τα ίδια τα LLMs χρησιμοποιούνται για να καλύψουν τα κενά. Αν τους δοθούν αρκετά παραδείγματα μπορούν να δημιουργήσουν αξιόπιστα συνθετικά δεδομένα σε πεδία όπου δεν έχουν εκπαιδευτεί και αυτά τα δεδομένα να χρησιμοποιηθούν για περαιτέρω εκπαίδευση. Μπορούν επίσης να χρησιμοποιηθούν για ενισχυτική μάθηση: με τη μέθοδο “LLM ως κριτής”, το ίδιο το LLM και όχι άνθρωποι αξιολογεί τις εξόδους άλλων μοντέλων υπό εκπαίδευση. Αυτή η προσέγγιση είναι βασική για το μοντέλο “Συνταγματικής AI” που πρότειναν οι ερευνητές της Anthropic το 2022, όπου ένα LLM εκπαιδεύεται να είναι λιγότερο επιβλαβές με βάση την αξιολόγηση ενός άλλου LLM. 

Το πρόβλημα έλλειψης δεδομένων είναι ιδιαίτερα έντονο για τους πράκτορες AI. Για να είναι αποτελεσματικοί πρέπει να εκτελούν σχέδια με πολλά στάδια εξέλιξης, αλλά τα παραδείγματα επιτυχούς εκτέλεσης τέτοιων σχεδίων είναι σπάνια στο διαδίκτυο. Η δημιουργία νέων παραδειγμάτων από ανθρώπους θα κόστιζε ακριβά. Για να ξεπεράσει αυτό το εμπόδιο, η ομάδα της Μιρχεϊσίνι στο Στάνφορντ πειραματίζεται με μια τεχνική όπου ένας πράκτορας LLM δημιουργεί μια πιθανή λύση βήμα προς βήμα σε ένα πρόβλημα, ένας “κριτής LLM” αξιολογεί την εγκυρότητα κάθε βήματος και ένας νέος πράκτορας εκπαιδεύεται βάσει αυτών. «Δεν περιορίζεσαι πλέον από τα δεδομένα» τονίζει η Μιρχεϊσίνι, «γιατί το μοντέλο μπορεί απλώς να δημιουργεί συνεχώς νέες εμπειρίες». 

4. Τελειοποίηση του σχεδιασμού πρακτόρων 
Ένα πεδίο όπου τα LLMs δεν έχουν ακόμη συνεισφέρει σημαντικά είναι στον σχεδιασμό των ίδιων των LLMs. Σήμερα τα LLMs βασίζονται σε μια δομή νευρωνικού δικτύου που ονομάζεται transformer, η οποία προτάθηκε από ανθρώπους ερευνητές το 2017. Όλες οι σημαντικές βελτιώσεις από τότε έγιναν επίσης από ανθρώπους. 

Όμως η άνοδος των πρακτόρων LLM έχει ανοίξει έναν εντελώς νέο σχεδιαστικό ορίζοντα. Οι πράκτορες χρειάζονται εργαλεία για να αλληλεπιδρούν με τον έξω κόσμο και οδηγίες για το πως να τα χρησιμοποιούν. Η βελτιστοποίηση αυτών των στοιχείων είναι κρίσιμη για την αποτελεσματικότητά τους. Μαζί με ερευνητές από το startup Sakana AI, ο Κλουν ανέπτυξε το σύστημα “Darwin Gödel Machine”: έναν πράκτορα LLM που μπορεί να τροποποιεί επαναληπτικά τις προτροπές του, τα εργαλεία του και άλλες πτυχές του κώδικά του για να βελτιώσει την απόδοσή του. Όχι μόνο σημείωσε υψηλότερες επιδόσεις, αλλά ανακάλυψε και νέες βελτιώσεις που η αρχική έκδοσή του δεν θα μπορούσε να βρει. Είχε εισέλθει σε έναν πραγματικό κύκλο αυτο-βελτίωσης.

5. Επιτάχυνση της επιστημονικής έρευνας
Παρόλο που τα LLMs επιταχύνουν πολλά στάδια της ανάπτυξής τους, οι άνθρωποι μπορεί να παραμείνουν αναγκαίοι στην επιστημονική έρευνα για αρκετό καιρό ακόμα. Πολλοί ειδικοί αναφέρονται στο λεγόμενο “ερευνητικό γούστο”, δηλαδή την ικανότητα των κορυφαίων επιστημόνων να εντοπίζουν υποσχόμενα ερευνητικά ερωτήματα ως μια ιδιαίτερη πρόκληση για την AI αλλά και κλειδί για την εξέλιξή της. 

Ο Κλουν υποστηρίζει ότι το ερευνητικό γούστο ίσως να μην είναι τόσο δύσκολο για την AI όσο πιστεύουν ορισμένοι. Μαζί με την Sakana AI εργάζονται σε ένα πλήρως αυτοματοποιημένο σύστημα που αποκαλούν “AI Scientist”. Αυτό αναζητά ερευνητικά ερωτήματα στη βιβλιογραφία, διενεργεί πειράματα και συντάσσει τα αποτελέσματα. 

Με όλο αυτό τον ενθουσιασμό για την αυτο-βελτιούμενη AI, φαίνεται πιθανό ότι η συμβολή της AI στην ίδια της την ανάπτυξη θα πολλαπλασιαστεί τα επόμενα χρόνια. Σύμφωνα με τον Ζούκερμπεργκ, αυτό μπορεί να σημαίνει ότι τα μοντέλα που ξεπερνούν τον άνθρωπο σε πολλούς τομείς είναι προ των πυλών. 

*με στοιχεία από το Technology Review 

 

 

 Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.