Την Παρασκευή, σε ξενοδοχεία του Λας Βέγκας, μερικά από τα πιο ισχυρά συστήματα τεχνητής νοημοσύνης στον κόσμο θα δεχθούν ταυτόχρονη επίθεση από έναν μικρό στρατό χάκερ που προσπαθεί να βρει τα κρυμμένα ελαττώματά τους.
Ο Λευκός Οίκος όχι μόνο γνωρίζει τη δημόσια επίθεση – την επικροτεί.
Τον Μάιο, η κυβέρνηση Biden υποστήριξε μια σκόπιμη, συντονισμένη δοκιμαστική επίθεση σε συστήματα τεχνητής νοημοσύνης, που ονομάζεται red-teaming, η οποία θα διεξαχθεί επί τρεις ημέρες σε ένα ετήσιο συνέδριο χάκερ αυτό το Σαββατοκύριακο. Αρκετές κορυφαίες εταιρίες Τεχνητής Νοημοσύνης, συμπεριλαμβανομένων των OpenAI, Google και Meta, συμφώνησαν να δεχτούν επίθεση σε ορισμένα από τα πιο πρόσφατα και ισχυρά συστήματα Τεχνητής Νοημοσύνης τους για την άσκηση.
Η επίθεση χάκερ αναδεικνύει αυτό που έχει γίνει μια από τις βασικές ανησυχίες του Λευκού Οίκου σχετικά με τα ισχυρά, ταχέως αναπτυσσόμενα νέα μοντέλα τεχνητής νοημοσύνης: Πόσο ασφαλή είναι πραγματικά και κατά πόσον θα μπορούσαν να αποτελέσουν απειλή είτε για τους Αμερικανούς πολίτες είτε για την εθνική ασφάλεια σε παγκόσμιο επίπεδο.
“Το πλαίσιό μας – και αυτό προέρχεται από τον πρόεδρο – είναι ότι για να αξιοποιήσουμε τις ευκαιρίες της τεχνητής νοημοσύνης, πρέπει πρώτα να διαχειριστούμε και τους κινδύνους“, δήλωσε ο Alan Mislove, ανώτερος αξιωματούχος στο Γραφείο Επιστημονικής και Τεχνολογικής Πολιτικής του Λευκού Οίκου, ο οποίος βοήθησε τους διοργανωτές της πρόκλησης hacking να αναπτύξουν τις ασκήσεις κόκκινης ομάδας αυτού του Σαββατοκύριακου. “Για πράγματα όπως τα μεγάλα γλωσσικά μοντέλα, αυτοί οι κίνδυνοι είναι αρκετά ευρείς, σε πολλές περιπτώσεις μπορεί να είναι λιγότερο σαφείς από άλλα συστήματα” και “καλύπτουν την κοινωνία μας, την οικονομία μας, την εθνική ασφάλεια“, είπε.
Καθώς το Κογκρέσο πασχίζει να καθορίσει ποιοι νέοι νόμοι πρέπει να ψηφιστούν σχετικά με την τεχνητή νοημοσύνη (AI) και οι ομοσπονδιακές υπηρεσίες ελαστικοποιούν τις υφιστάμενες εξουσίες τους σε μια αναδυόμενη τεχνολογία, ο Λευκός Οίκος Μπάιντεν έχει αναδειχθεί ως ο πιο ενεργός παίκτης στην πολιτική για την τεχνητή νοημοσύνη. Έχει συντάξει ένα πλαίσιο Bill of Rights για την Τεχνητή Νοημοσύνη, έχει συγκαλέσει διευθύνοντες συμβούλους της τεχνολογίας και έχει δώσει σειρά συνεντεύξεων Τύπου για το ευρύ φάσμα απειλών και ευκαιριών που παρουσιάζει η τεχνολογία.
Παρόλο που οι απειλές αυτές εκτείνονται σε ολόκληρη την κοινωνία, από την απώλεια θέσεων εργασίας έως τις διακρίσεις και την παραπληροφόρηση, πολλά από τα πιο απτά βήματα του Λευκού Οίκου έχουν επικεντρωθεί στο ζήτημα της ασφάλειας. Ο νέος ειδικός σύμβουλός του για την τεχνητή νοημοσύνη, Ben Buchanan, έχει μάλλον εθνικό υπόβαθρο ασφαλείας παρά τεχνικό υπόβαθρο. Όταν ο Λευκός Οίκος συγκάλεσε τους ηγέτες της Τεχνητής Νοημοσύνης για να ανακοινώσει μια σειρά εθελοντικών δεσμεύσεων τον περασμένο μήνα, η “ασφάλεια” βρέθηκε στην κορυφή του καταλόγου και η ασφάλεια έπαιξε βασικό ρόλο μέσω του εγγράφου.
Η υψηλή προτεραιότητα στην ασφάλεια αντικατοπτρίζει την ανησυχία – μεταξύ των εμπειρογνωμόνων, των ρυθμιστικών αρχών και της ίδιας της βιομηχανίας – ότι τα πολύπλοκα νέα συστήματα τεχνητής νοημοσύνης παρουσιάζουν μια σειρά νέων ζητημάτων που δεν είναι πλήρως κατανοητά, από το ενδεχόμενο να χακαριστούν και να παραπλανηθούν από έναν αντίπαλο, μέχρι την ιδέα ότι θα μπορούσαν να εκθέσουν τα δεδομένα των χρηστών, μέχρι σκοτεινότερες χρήσεις όπως η κατασκευή βιολογικών όπλων.
“Είναι δυνατό να κάνουν αυτά τα μοντέλα πράγματα που οι σχεδιαστές και οι προμηθευτές τους δεν προβλέπουν ή δεν θέλουν να μπορούν να κάνουν. Οπότε ναι, νομίζω ότι υπάρχουν πραγματικές εκτιμήσεις για την ασφάλεια“, δήλωσε ο Arati Prabhakar, διευθυντής του Γραφείου Επιστημονικής Πολιτικής Τεχνολογίας του Λευκού Οίκου.
Η τεχνητή νοημοσύνη μπορεί επίσης να αποτελέσει εργαλείο για τη βελτίωση της ασφάλειας: Αυτή την εβδομάδα το Πεντάγωνο ανακοίνωσε μια διετή πρόκληση για προγραμματιστές να χρησιμοποιήσουν την ΤΝ για να σκληρύνουν την κρίσιμη αμερικανική κυβερνοασφάλεια.
Για την πρόκληση κόκκινης ομάδας αυτό το Σαββατοκύριακο, ο Λευκός Οίκος συνεργάστηκε με το AI Village στο DEFCON, ένα ετήσιο συνέδριο όπου οι διοργανωτές διοργανώνουν παιχνίδια hacking και οι επαγγελματίες της κυβερνοασφάλειας αποκαλύπτουν τα τελευταία κενά στις πανταχού παρούσες τεχνολογίες. Κυβερνητικές υπηρεσίες όπως το Πεντάγωνο έχουν απευθυνθεί και στο παρελθόν στην κοινότητα των χάκερ για να βρουν ευπάθειες στην κυβερνοασφάλεια: Σε μια πρόκληση χάκινγκ DEFCON πέρυσι, ένας συμμετέχων βρήκε ένα σφάλμα απενεργοποίησης στο ηλεκτρικό μικροδίκτυο του στρατού αφού το τροφοδότησε με ψευδή δεδομένα καιρού.
Όμως η φετινή έκδοση είναι ασυνήθιστη τόσο για το επίπεδο της κυβερνητικής συμμετοχής όσο και για τη συμμετοχή της βιομηχανίας. Οι εταιρείες της τεχνολογικής βιομηχανίας είναι παραδοσιακά απρόθυμες να εκθέσουν το ιδιόκτητο λογισμικό σε δημόσια θέα για δοκιμές. Αλλά φέτος, μετά από παρότρυνση του Λευκού Οίκου, οι τεχνολογικές εταιρείες OpenAI, Anthropic, Google, Hugging Face, NVIDIA, Meta, Cohere και Stability προσέφεραν τα μεγάλα γλωσσικά μοντέλα τους για έλεγχο.
Θα παράσχουν αποκλειόμενες εκδόσεις των μοντέλων τους για επίθεση από μια σειρά από χάκερ – από τους συνήθεις έμπειρους συμμετέχοντες στο συνέδριο μέχρι φοιτητές κοινοτικών κολεγίων που ήρθαν αεροπορικώς ειδικά για την πρόκληση.
Η ιδέα για τη συμμετοχή του Λευκού Οίκου στην άσκηση DEFCON γεννήθηκε σε ένα προηγούμενο τεχνολογικό συνέδριο: South by Southwest (SXSW) στο Όστιν του Τέξας, δήλωσε ο Prabhakar του OSTP. Μετά από μια αρχική συνάντηση στο SXSW, οι διοργανωτές του AI Village συναντήθηκαν με αξιωματούχους του Λευκού Οίκου για να συζητήσουν τη δυνατότητα επέκτασης της άσκησης κόκκινης ομάδας στο DEFCON, ώστε να συμμετέχουν τα πιο δημοφιλή μεγάλα γλωσσικά μοντέλα της αγοράς. “Νομίζαμε ότι ήταν μια καταπληκτική ιδέα, ένας πολύ καλός τρόπος για να ξεκινήσουμε κάτι που έχει πραγματικά σημασία”, δήλωσε ο Prabhakar.
Οι εταιρείες συμφώνησαν, αν και υπάρχει μια προειδοποίηση: Τα αποτελέσματα της άσκησης DEFCON red-teaming δεν θα δημοσιοποιηθούν μέχρι τον Φεβρουάριο, ώστε να μπορέσουν να διορθώσουν κενά ασφαλείας ή προβλήματα πριν αυτά γίνουν αντικείμενο εκμετάλλευσης. Με την τεχνητή νοημοσύνη, η διαδικασία είναι περίπλοκη. “Δεν είναι τόσο απλό όσο η απλή επιδιόρθωση όπως ένα ελάττωμα λογισμικού“, δήλωσε ο ερευνητής ασφάλειας της Meta, Chris Rohlf.
Για τη βιομηχανία, το διακύβευμα είναι να κερδίσει την εμπιστοσύνη του κοινού για μια αναδυόμενη τεχνολογία που έχει προκαλέσει τόσο ευρεία ανησυχία όσο και ενθουσιασμό. “Το να δείξουμε ότι αυτά τα μοντέλα έχουν δοκιμαστεί“, δήλωσε ο Rohlf της Meta, “θα δημιουργήσει εμπιστοσύνη στην κοινότητα μακροπρόθεσμα“. Ο Michael Sellitto, επικεφαλής της γεωπολιτικής και της πολιτικής ασφάλειας στην Anthropic, εν τω μεταξύ, ελπίζει ότι η άσκηση θα πυροδοτήσει έναν ανταγωνισμό ασφάλειας στην ίδια την τεχνολογική βιομηχανία. “Ένα από τα πράγματα που πραγματικά θέλουμε να δούμε είναι ένας αγώνας ασφάλειας προς την κορυφή“, δήλωσε.
Παρά τις φανφάρες, η ίδια η άσκηση δεν είναι πιθανό να αποκαλύψει όλους τους τρόπους με τους οποίους τα συστήματα τεχνητής νοημοσύνης μπορούν να συμπεριφερθούν λάθος, ειδικά από τη στιγμή που κάθε συμμετέχων έχει πολύ περιορισμένο χρόνο για να χακάρει ένα μεγάλο γλωσσικό μοντέλο (της τάξης των 15 λεπτών ανά προσπάθεια) και περιορίζεται στον τεχνικό εξοπλισμό που είναι διαθέσιμος στην εκδήλωση, δήλωσε ο Sellitto της Anthropic.
Ο Mislove – ο ανώτερος αξιωματούχος του Λευκού Οίκου που συμμετείχε στη διαδικασία σχεδιασμού της κόκκινης ομάδας – δήλωσε ότι η κυβέρνηση Biden βλέπει αυτή την άσκηση DEFCON ως μοντέλο για το μέλλον. Εν μέρει, αποσκοπεί στην εξεύρεση του καλύτερου τρόπου για την πραγματοποίηση ασκήσεων κόκκινης ομάδας μεγαλύτερης κλίμακας για την τεχνητή νοημοσύνη. Ο στόχος του Λευκού Οίκου με την DEFCON είναι να δημιουργήσει ένα προηγούμενο: “Θέλουμε να φτάσουμε σε ένα μέλλον στο οποίο το red-teaming θα γίνεται ευρέως από πολλά μέρη“, δήλωσε ο Prabhakar.
Με πληροφορίες από Politico