Οι άνθρωποι που έχουν κάνει καριέρα μελετώντας τον πυρηνικό πόλεμο είναι πλέον βέβαιοι πως η τεχνητή νοημοσύνη θα αναλάβει σύντομα να κινεί τα πιο θανατηφόρα κουμπιά. Τι ακριβώς σημαίνει αυτό; Κανείς δεν ξέρει, αλλά σίγουρα ακούγεται συναρπαστικό, όσο και τρομακτικό.

Στα μέσα Ιουλίου, Νομπελίστες συγκεντρώθηκαν στο Πανεπιστήμιο του Σικάγο για να ακούσουν ειδικούς του πυρηνικού πολέμου να τους εξηγούν πώς τελειώνει ο κόσμος. Δύο μέρες κλειστών συνεδριάσεων, γεμάτες επιστήμονες, πρώην κυβερνητικούς και απόστρατους στρατιωτικούς, που ανέλαβαν να «διαφωτίσουν» τους βραβευμένους για τα πιο καταστροφικά όπλα που φτιάχτηκαν ποτέ. Στο τέλος, οι Νομπελίστες θα έκαναν προτάσεις πολιτικής στους ηγέτες του κόσμου για το πώς να αποφύγουμε έναν πυρηνικό πόλεμο. Τι όμορφη ακαδημαϊκή άσκηση: να μιλάς για το τέλος του κόσμου ανάμεσα σε καφέδες και powerpoint.

Η τεχνητή νοημοσύνη ήταν το καυτό θέμα. «Μπαίνουμε σε έναν νέο κόσμο όπου η ΑΙ επηρεάζει την καθημερινή μας ζωή, αλλά και τον πυρηνικό κόσμο στον οποίο ζούμε», είπε ο καθηγητής Scott Sagan του Stanford, λες και μιλούσε για καμιά νέα εφαρμογή παρά για τον Αρμαγεδδώνα. Όλοι θεωρούν δεδομένο ότι κυβερνήσεις θα παντρέψουν την ΑΙ με τα πυρηνικά. «Είναι σαν το ηλεκτρικό ρεύμα», είπε ο Bob Latiff, απόστρατος στρατηγός της αμερικανικής αεροπορίας και μέλος του Bulletin of the Atomic Scientists. «Θα τρυπώσει παντού». Και ποιος καλύτερος να μας καθησυχάσει για το μέλλον, από κάποιον που ρυθμίζει το Ρολόι της Αποκάλυψης κάθε χρόνο; Και σαν να μην έφτανε αυτό, υπάρχει κι ένα μικρό πρόβλημα: «Κανείς δεν ξέρει πραγματικά τι είναι η ΑΙ», παραδέχτηκε ο Jon Wolfsthal, ειδικός στον έλεγχο εξοπλισμών και πρώην σύμβουλος του Ομπάμα. Μια χαρά. Θα φορτώσουμε λοιπόν στα πυρηνικά όπλα μια τεχνολογία που κανείς δεν καταλαβαίνει. Τι θα μπορούσε να πάει στραβά;

Τι σημαίνει λοιπόν να δώσεις στην ΑΙ τον έλεγχο ενός πυρηνικού όπλου; Τι σημαίνει να βάλεις ένα τσιπάκι να αποφασίσει αν θα πατήσεις το κουμπί; Όπως λέει και ο Herb Lin του Stanford, «μέρος του προβλήματος είναι ότι τα μεγάλα γλωσσικά μοντέλα έχουν ήδη καταλάβει τη συζήτηση». Με άλλα λόγια, ακόμα και για την Αποκάλυψη, το debate μοιάζει με thread στο Reddit.

Τα καλά νέα πρώτα: κανείς δεν πιστεύει ότι το ChatGPT ή το Grok θα πάρουν σύντομα τους πυρηνικούς κωδικούς. Οι ειδικοί μπορεί να διαφωνούν θεολογικά για τα πάντα, αλλά εκεί τουλάχιστον συμφωνούν: θέλουμε ο άνθρωπος να έχει τον τελικό λόγο. Ανακούφιση, σωστά;

Μόνο που ο Jon Wolfsthal έχει ακούσει και κάτι πιο ζουμερό. Στην καρδιά της αμερικανικής εξουσίας, κάποιοι ψιθυρίζουν για το όνειρο ενός «διαδραστικού κομπιούτερ» για τον πρόεδρο. Ένα AI που θα του λέει με «στατιστικά υψηλή πιθανότητα» τι σκέφτεται ο Πούτιν ή ο Σι. Μια ωραία βάση δεδομένων με όλα όσα έχουν πει ή γράψει ποτέ, σερβιρισμένη σαν το μενού ενός εστιατορίου Αρμαγεδδώνα. Και φυσικά, όποιος πιστεύει ότι μπορείς να προβλέψεις τον Πούτιν με probability score, μάλλον δεν έχει δει ούτε μια του ομιλία. Αλλά μην ανησυχείτε: η Ιστορία έχει δείξει ότι όταν δίνεις στους προέδρους παιχνίδια με κουμπιά και γυαλιστερές οθόνες, πάντα ξέρουν να τα χρησιμοποιούν με σύνεση.

Με άλλα λόγια, μπορείς να φτιάξεις το πιο εξελιγμένο AI στον κόσμο, να του ταΐσεις κάθε λέξη του Πούτιν ή του Σι, αλλά αν εκείνοι λένε ψέματα (που λένε), τότε το dataset σου είναι τόσο αξιόπιστο όσο μια διαρροή από το Κρεμλίνο στο Telegram. Και, όπως λέει ο Wolfsthal, το πραγματικό πρόβλημα είναι ότι πολλοί από όσους μιλάνε για αυτά τα πράγματα δεν έχουν βρεθεί ποτέ σε δωμάτιο με πρόεδρο. Οι πρόεδροι, λέει, δεν εμπιστεύονται κανέναν με τέτοια θέματα, εκτός ίσως από τον καθρέφτη τους.

Το να εκτοξεύσεις ένα πυρηνικό όπλο δεν είναι απλώς να πατήσει ένα κουμπί ο Τραμπ, ο Πούτιν ή ο Σι. Είναι ένα δαιδαλώδες δίκτυο από ραντάρ, δορυφόρους και ανθρώπους που παρακολουθούν. Ακόμα κι όταν δοθεί εντολή, χρειάζονται δύο άνθρωποι σε κάποιο άλλο δωμάτιο για να γυρίσουν ταυτόχρονα κλειδιά. Το αμερικανικό “Launch” είναι το τελικό προϊόν εκατοντάδων μικρών αποφάσεων, όλες από ανθρώπους. Άρα; Τι γίνεται αν κομμάτια αυτής της διαδικασίας τα αναλάβει η ΑΙ; Αν το ραντάρ πρώτης προειδοποίησης το παρακολουθεί ένα μοντέλο και όχι άνθρωπος; Πώς θα βεβαιωθείς ότι δέχεσαι επίθεση; Θα εμπιστευτείς κάτι περισσότερο από την εικόνα του μανιταριού στον ορίζοντα; Η αμερικανική πυρηνική πολιτική απαιτεί «διπλή φαινομενολογία» — επιβεβαίωση τόσο από δορυφόρο όσο και από ραντάρ. Και η ερώτηση είναι: μπορεί το ένα από αυτά να είναι ΑΙ; Η απάντηση: όχι. Τουλάχιστον όχι ακόμα.

Γιατί το βασικό πρόβλημα είναι απλό: δεν καταλαβαίνουμε πώς δουλεύουν πολλά από αυτά τα συστήματα. Είναι black boxes. Κι ακόμα κι αν δεν ήταν, το να τα βάλεις στην καρδιά των πυρηνικών αποφάσεων είναι σαν να βάζεις γάτα να φυλάει τα ψάρια.

Όπως σωστά λέει και στρατηγός Bob Latiff στο Wired, συνεχίζει και έχει τις δικές του ανησυχίες: η ΑΙ, λέει, μπορεί να ενισχύσει την επιβεβαιωτική προκατάληψη. Δηλαδή, αντί να παίρνεις ανεξάρτητες αποφάσεις, θα βλέπεις μόνο αυτό που ήδη πιστεύεις. «Ακόμα κι αν ο άνθρωπος έχει τον έλεγχο, πόσο ουσιαστικός είναι αυτός ο έλεγχος;», ρωτάει. «Έχω υπάρξει διοικητής. Ξέρω τι σημαίνει να είσαι υπεύθυνος για τις αποφάσεις σου. Και αυτό είναι αναγκαίο. Αν κάποιος σκοτωθεί, ποιον θα κατηγορήσω;».

Και κάπου εδώ, η απάντηση είναι προφανής: μα φυσικά, θα κατηγορήσουμε το software update.

Και κάπως έτσι, η ανθρωπότητα σκέφτεται (ή μπορεί και να ετοιμάζεται) να βάλει την τεχνητή νοημοσύνη στο ίδιο δωμάτιο με τα πυρηνικά κουμπιά. Εντάξει, μη φοβάστε, εξάλλου τι καλύτερο από το να παντρέψεις μια τεχνολογία (την οποία κανείς δεν καταλαβαίνει) με όπλα που κανείς δεν πρέπει να χρησιμοποιήσει. Αν όλα πάνε στραβά, τουλάχιστον θα έχουμε το πρώτο ιστορικό case study για το πώς ένα λάθος prompt έγινε μανιτάρι στον ορίζοντα.

*Με πληροφορίες από το Wired.

 

 Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.