Την ημέρα της ορκωμοσίας του Ντόναλντ Τραμπ ως προέδρου, η DeepSeek, μια κινεζική εταιρεία κυκλοφόρησε ένα παγκόσμιας κλάσης μοντέλο μεγάλης γλώσσας (LLM). Ήταν ένα μίνι σοκ για τον Τραμπ. Ο Μαρκ Ουόρνερ, αντιπρόεδρος της Επιτροπής Πληροφοριών της Γερουσίας ανέφερε ότι η κοινότητα πληροφοριών της Αμερικής (IC), μια ομάδα 18 οργανισμών βρέθηκε έκπληκτη με αυτή την εξέλιξη. 

Νωρίτερα η κυβέρνηση Μπάιντεν ανησύχησε ότι οι Κινέζοι κατάσκοποι και στρατιώτες μπορεί να προχωρήσουν γρηγορότερα στην υιοθέτηση της τεχνητής νοημοσύνης (AI). Διέταξε τις δικές της υπηρεσίες πληροφοριών, το Πεντάγωνο και το Υπουργείο Ενέργειας (το οποίο κατασκευάζει πυρηνικά όπλα), να πειραματιστούν πιο τολμηρά με τα πιο προηγμένα μοντέλα και να συνεργαστούν πιο στενά με την Anthropic, το Google DeepMind και το OpenAI. 

Στις 14 Ιουλίου το Πεντάγωνο απένειμε συμβόλαια αξίας έως και 200 εκατομμυρίων δολαρίων σε αυτά τα εργαστήρια, καθώς και στην xAI του Έλον Μασκ. Αυτά μπορούν να ενεργούν εκ μέρους των χρηστών τους, αναλύοντας σύνθετα καθήκοντα και ασκώντας έλεγχο σε άλλες συσκευές, όπως αυτοκίνητα ή υπολογιστές. 

Τα εργαστήρια είναι απασχολημένα τόσο στον κόσμο των κατασκόπων όσο και στο στρατιωτικό τομέα. Η πρώιμη υιοθέτηση έγινε κυρίως στην περιοχή των chatbot LLM που επεξεργάζονται απόρρητα δεδομένα. Τον Ιανουάριο η Microsoft δήλωσε ότι 26 από τα προϊόντα της στον τομέα της υπολογιστικής νέφους είχαν εξουσιοδοτηθεί για χρήση στις υπηρεσίες πληροφοριών. Τον Ιούνιο η Anthropic δήλωσε ότι είχε κυκλοφορήσει το Claude Gov, το οποίο είχε “ήδη αναπτυχθεί από υπηρεσίες της υψηλότερης εθνικής ασφάλειας των ΗΠΑ”. Τα μοντέλα χρησιμοποιούνται τώρα ευρέως σε όλες τις αμερικανικές υπηρεσίες πληροφοριών, παράλληλα με αυτά των ανταγωνιστικών εργαστηρίων. 

Οι εταιρείες AI συνήθως προσαρμόζουν τα μοντέλα τους για να ανταποκριθούν στις ανάγκες των κατασκόπων. Το Claude της Anthropic ενδέχεται να απορρίψει έγγραφα με χαρακτηριστικά απόρρητης φύσης ως μέρος των γενικών χαρακτηριστικών ασφαλείας του. Το Claude Gov έχει ρυθμιστεί για να αποφεύγει αυτό το ζήτημα. Διαθέτει επίσης ενισχυμένη επάρκεια στις γλώσσες και τα διαλεκτικά στοιχεία που οι κυβερνητικοί χρήστες ενδέχεται να χρειαστούν. Τα μοντέλα τρέχουν συνήθως σε ασφαλείς διακομιστές που είναι αποσυνδεδεμένοι από το δημόσιο διαδίκτυο. Ένα νέο είδος μοντέλων δράσης κατασκευάζεται τώρα εντός των υπηρεσιών. 

Η ίδια διαδικασία πραγματοποιείται και στην Ευρώπη. «Όλοι στην UKIC (την κοινότητα πληροφοριών του Ηνωμένου Βασιλείου) έχουν πρόσβαση σε κορυφαία απόρρητη ικανότητα [LLM]». Η γαλλική εταιρεία Mistral και η μοναδική αληθινή AI υποστήριξη της Ευρώπης έχει μια συνεργασία με την AMIAD, την στρατιωτική υπηρεσία AI της Γαλλίας. Το μοντέλο Saba της Mistral εκπαιδεύεται με δεδομένα από τη Μέση Ανατολή και τη Νότια Ασία, καθιστώντας το ιδιαίτερα ικανό στα Αραβικά και τις μικρότερες περιφερειακές γλώσσες, όπως τα Ταμίλ. Τον Ιανουάριο, το +972 Magazine ανέφερε ότι η χρήση του GPT-4 από τις ισραηλινές ένοπλες δυνάμεις αυξήθηκε κατά 20 φορές μετά την έναρξη του πολέμου στη Γάζα. 

Παρά όλα αυτά η πρόοδος είναι αργή υποστηρίζει η Κατρίνα Μάλιγκαν πρώην αξιωματούχος άμυνας και πληροφοριών, η οποία ηγείται των συνεργασιών του OpenAI σε αυτόν τον τομέα. «Η υιοθέτηση της AI στον τομέα της εθνικής ασφάλειας πιθανότατα δεν είναι εκεί που θα θέλαμε να είναι ακόμα». Η Εθνική Υπηρεσία Ασφαλείας (NSA) της Αμερικής, η υπηρεσία πληροφοριών σημάτων της οποίας έχει εργαστεί για πρώιμες μορφές AI, όπως η αναγνώριση φωνής για δεκαετίες, είναι μια περιοχή για λίγους. Πολλές υπηρεσίες επίσης εξακολουθούν να θέλουν να δημιουργήσουν τα δικά τους «πακέτα» γύρω από τα chatbot των εργαστηρίων, μια διαδικασία που συχνά τις αφήνει πίσω από τα τελευταία δημόσια μοντέλα. 

Ένα παιχνίδι κατασκόπων AI 

Οι σκεπτικιστές πιστεύουν ότι αυτές οι προσδοκίες είναι υπερβολικές. Ο Ρίτσαρντ Κάρτερ από το Alan Turing Institute, το εθνικό ινστιτούτο τεχνητής νοημοσύνης της Βρετανίας υποστηρίζει ότι αυτό που πραγματικά θέλουν οι υπηρεσίες πληροφοριών στην Αμερική και τη Βρετανία είναι να μειώσουν σημαντικά τις “παραισθήσεις” στα υπάρχοντα μοντέλα LLM. Οι βρετανικές υπηρεσίες χρησιμοποιούν μια κοινή τεχνική, σύμφωνα με την οποία ένας αλγόριθμος αναζητά αξιόπιστες πληροφορίες και τις τροφοδοτεί σε ένα LLM για να ελαχιστοποιήσει τις παραισθήσεις. «Αυτό που χρειάζεστε στις υπηρεσίες πληροφοριών είναι συνέπεια, αξιοπιστία και διαφάνεια». 

Η Mistral έχει δείξει στους ενδεχόμενους πελάτες της μια επίδειξη στην οποία κάθε ροή πληροφοριών, όπως εικόνες δορυφόρων ή παρεμβολές φωνής συνδυάζεται με έναν πράκτορα AI επιταχύνοντας τη λήψη αποφάσεων. Εναλλακτικά φανταστείτε έναν πράκτορα AI που έχει αναλάβει να εντοπίσει, να ερευνήσει και στη συνέχεια να επικοινωνήσει με εκατοντάδες Ιρανούς πυρηνικούς επιστήμονες για να τους ενθαρρύνει να αποστατήσουν. «Δεν έχουμε σκεφτεί αρκετά πως οι πράκτορες μπορεί να χρησιμοποιηθούν σε ένα πλαίσιο πολεμικής σύγκρουσης». 

Το πρόβλημα με τα μοντέλα δράσης, προειδοποιεί ο Δρ. Κάρτερ είναι ότι αυτά δημιουργούν επανειλημμένα τις δικές τους προτροπές ως απάντηση σε μια εργασία, καθιστώντας τα πιο απρόβλεπτα και αυξάνοντας τον κίνδυνο να δημιουργηθούν σωρευτικά σφάλματα. Το πιο πρόσφατο μοντέλο δράσης της OpenAI, το ChatGPT agent έχει ποσοστό παραισθήσεων περίπου 8% στις απαντήσεις του, ποσοστό υψηλότερο από το προηγούμενο μοντέλο της εταιρείας, το o3, σύμφωνα με μια αξιολόγηση που δημοσιεύθηκε από την εταιρεία. 

Ορισμένα εργαστήρια AI θεωρούν τέτοιες ανησυχίες ως γραφειοκρατική ακαμψία, αλλά στην πραγματικότητα είναι μια υγιής ροπή προς τη συντήρηση, λέει ο Δρ. Κάρτερ. «Αυτό που έχουμε είναι μια απίστευτα ταλαντούχα ομάδα μηχανικών που είναι φυσικά αρκετά σκεπτικιστές απέναντι στη νέα τεχνολογία». 

Την ίδια ώρα αρκετοί προειδοποιούν ότι η Κίνα μπορεί να προχωρά με ιλιγγιώδη ταχύτητα. «Υπάρχει ακόμα ένα τεράστιο κενό στην κατανόησή μας για το πως και πόσο έχει προχωρήσει η Κίνα στη χρήση του DeepSeek» για στρατιωτικές και πληροφοριακές ανάγκες υποστηρίζει ο Φίλιπ Ράινερ από το Ινστιτούτο για την Ασφάλεια και την Τεχνολογία, έναν σκέψη-δεξαμενή στη Silicon Valley. «Πιθανότατα δεν έχουν τους ίδιους περιορισμούς όπως έχουμε εμείς στα ίδια τα μοντέλα και έτσι ίσως να είναι σε θέση να αποκτούν πιο ισχυρές πληροφορίες πιο γρήγορα», προσθέτει. 

Στις 23 Ιουλίου, η κυβέρνηση Τραμπ διέταξε το Πεντάγωνο και τις υπηρεσίες πληροφοριών να αξιολογούν τακτικά πόσο γρήγορα υιοθετούν την AI σε σύγκριση με αντιπάλους όπως η Κίνα και να «καθιερώσουν μια προσέγγιση για συνεχιζόμενη προσαρμογή». 

Σχεδόν όλοι συμφωνούν σε αυτό. Ο Γερουσιαστής Warner λέει ότι οι αμερικανικές υπηρεσίες πληροφοριών έχουν κάνει «κακή δουλειά» στη συλλογή πληροφοριών για την πρόοδο της Κίνας. «Η απόκτηση τεχνολογίας [και] η διείσδυση κινεζικών τεχνολογικών εταιρειών είναι ακόμα αρκετά χαμηλή». Η μεγάλη ανησυχία, λέει η κα Mulligan δεν είναι ότι η Αμερική βιάζεται να χρησιμοποιήσει την AI πριν κατανοήσει τους κινδύνους. «Αυτό που με ανησυχεί είναι ότι το Υπουργείο Άμυνας και οι υπηρεσίες πληροφοριών συνεχίζουν να κάνουν τα πράγματα όπως τα έκαναν πάντα. Αυτό που με κρατά ξύπνια τη νύχτα είναι η πραγματική δυνατότητα ότι μπορεί να κερδίσουμε τη μάχη για την AGI…και να χάσουμε τη μάχη για την υιοθέτησή της». 

*Mε στοιχεία από τον Economist.

 

 

 Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.