Οι πράκτορες είναι το πιο πολυσυζητημένο θέμα στον χώρο της τεχνητής νοημοσύνης — διαθέτουν ικανότητες σχεδιασμού, συλλογιστικής σκέψης και εκτέλεσης πολύπλοκων εργασιών, όπως να κλείνουν ραντεβού, να παραγγέλνουν ψώνια ή ακόμη και να αναλαμβάνουν τον έλεγχο του υπολογιστή σου για να αλλάξουν ρυθμίσεις. Οι ίδιες προηγμένες ικανότητες όμως που καθιστούν τους πράκτορες χρήσιμους βοηθούς, μπορούν επίσης να τους μετατρέψουν σε ισχυρά εργαλεία για τη διεξαγωγή κυβερνοεπιθέσεων. Μπορούν εύκολα να χρησιμοποιηθούν για τον εντοπισμό ευάλωτων στόχων, την κατάληψη των συστημάτων τους και την κλοπή πολύτιμων δεδομένων από ανυποψίαστα θύματα.
Αυτή τη στιγμή οι κυβερνοεγκληματίες δεν χρησιμοποιούν μαζικά πράκτορες τεχνητής νοημοσύνης για επιθέσεις, ωστόσο οι ερευνητές έχουν δείξει πως οι πράκτορες είναι ικανοί να εκτελέσουν σύνθετες επιθέσεις (η Anthropic για παράδειγμα παρατήρησε ότι το μοντέλο Claude αναπαρήγαγε επιτυχώς μια επίθεση σχεδιασμένη για την υποκλοπή ευαίσθητων πληροφοριών) και ειδικοί στον τομέα της κυβερνοασφάλειας προειδοποιούν ότι θα πρέπει να περιμένουμε να δούμε τέτοιες επιθέσεις και στον πραγματικό κόσμο.
«Πιστεύω πως τελικά θα ζούμε σε έναν κόσμο όπου η πλειοψηφία των κυβερνοεπιθέσεων θα γίνεται από πράκτορες» υποστηρίζει ο Mark Stockley, ειδικός ασφάλειας στην εταιρεία Malwarebytes. «Είναι απλώς θέμα χρόνου».
Παρ΄ότι γνωρίζουμε αρκετά καλά τι είδους απειλές μπορούν να προκύψουν από πράκτορες AI, αυτό που δεν είναι ακόμα ξεκάθαρο είναι το πώς θα ανιχνεύονται στον πραγματικό κόσμο. Ο ερευνητικός οργανισμός Palisade Research έχει αναπτύξει ένα σύστημα που ονομάζεται LLM Agent Honeypot με στόχο ακριβώς αυτό. Έχει δημιουργήσει ευάλωτους διακομιστές που προσποιούνται πως φιλοξενούν πολύτιμες κυβερνητικές ή στρατιωτικές πληροφορίες για να προσελκύσουν και να καταγράψουν πράκτορες που προσπαθούν να διεισδύσουν.
Η ομάδα πίσω από το έργο ελπίζει ότι παρακολουθώντας τέτοιες απόπειρες στον πραγματικό κόσμο, το project θα λειτουργήσει ως σύστημα έγκαιρης προειδοποίησης και θα βοηθήσει τους ειδικούς να αναπτύξουν αποτελεσματικές άμυνες απέναντι στους πράκτορες απειλής πριν γίνουν σοβαρό πρόβλημα.
«Η πρόθεσή μας ήταν να δώσουμε πραγματική βάση στις θεωρητικές ανησυχίες που υπάρχουν» λέει ο Dmitrii Volkov, επικεφαλής έρευνας στην Palisade. «Ψάχνουμε για μια απότομη αύξηση· όταν τη δούμε, θα ξέρουμε ότι το τοπίο της ασφάλειας έχει αλλάξει. Τα επόμενα χρόνια περιμένω να δούμε αυτόνομες επιθέσεις με πράκτορες με εντολές όπως: “Αυτός είναι ο στόχος σου. Πήγαινε και χάκαρέ τον”».
Οι πράκτορες τεχνητής νοημοσύνης αποτελούν δελεαστική επιλογή για τους εγκληματίες του κυβερνοχώρου. Είναι πολύ φθηνότεροι από το να προσλάβεις επαγγελματίες χάκερ και μπορούν να εκτελούν επιθέσεις γρηγορότερα και σε πολύ μεγαλύτερη κλίμακα απ’ ό,τι οι άνθρωποι. Παρόλο που σήμερα οι επιθέσεις ransomware — οι πιο κερδοφόρες — είναι σχετικά σπάνιες επειδή απαιτούν ανθρώπινη εξειδίκευση στο μέλλον θα μπορούσαν να ανατεθούν σε πράκτορες, λέει ο Stockley. «Αν μπορείς να αναθέσεις την επιλογή στόχου σε έναν πράκτορα, τότε ξαφνικά μπορείς να κλιμακώσεις το ransomware με τρόπο που σήμερα δεν είναι εφικτό. Αν μπορώ να το αναπαράγω μία φορά, τότε είναι μόνο θέμα χρημάτων να το κάνω 100 φορές».
Οι πράκτορες είναι επίσης σημαντικά πιο έξυπνοι από τα είδη των bots που χρησιμοποιούνται συνήθως για να παραβιάσουν συστήματα. Τα bots είναι απλά αυτοματοποιημένα προγράμματα που εκτελούν προκαθορισμένα σενάρια και επομένως δυσκολεύονται να προσαρμοστούν σε απρόβλεπτες καταστάσεις. Οι πράκτορες, από την άλλη μπορούν όχι μόνο να προσαρμόσουν τον τρόπο με τον οποίο επιτίθενται σε έναν στόχο, αλλά και να αποφύγουν την ανίχνευση — πράγματα που ξεπερνούν τις δυνατότητες των περιορισμένων δυνατοτήτων bots. «Μπορούν να κοιτάξουν έναν στόχο και να μαντέψουν τους καλύτερους τρόπους για να διεισδύσουν. Αυτό είναι αδύνατο για τα “χαζά” bots».
Από τότε που το LLM Agent Honeypot τέθηκε σε λειτουργία τον Οκτώβριο του περασμένου έτους έχει καταγράψει πάνω από 11 εκατομμύρια απόπειρες πρόσβασης — η συντριπτική πλειονότητα των οποίων προήλθε από περίεργους ανθρώπους και απλά bots. Μεταξύ αυτών οι ερευνητές εντόπισαν οκτώ πιθανούς πράκτορες τεχνητής νοημοσύνης, δύο από τους οποίους επιβεβαιώθηκε ότι είναι όντως πράκτορες και φαίνεται να προέρχονται από το Χονγκ Κονγκ και τη Σιγκαπούρη, αντίστοιχα.
«Υποθέτουμε ότι αυτοί οι επιβεβαιωμένοι πράκτορες ήταν πειράματα που ξεκίνησαν απευθείας από ανθρώπους με την εντολή “Βγες στο διαδίκτυο και προσπάθησε να χακάρεις κάτι ενδιαφέρον για μένα”» Η ομάδα σχεδιάζει να επεκτείνει το honeypot σε πλατφόρμες κοινωνικής δικτύωσης, ιστοσελίδες και βάσεις δεδομένων ώστε να προσελκύσει και να παγιδεύσει ένα ευρύτερο φάσμα επιτιθέμενων, συμπεριλαμβανομένων των spam bots και phishing πρακτόρων για την ανάλυση μελλοντικών απειλών.
Για να προσδιορίσουν ποιοι επισκέπτες στους ευάλωτους διακομιστές ήταν πράκτορες που βασίζονται σε LLM, οι ερευνητές ενσωμάτωσαν τεχνικές “prompt injection” στο honeypot. Αυτές οι επιθέσεις έχουν σχεδιαστεί, ώστε να αλλάζουν τη συμπεριφορά των AI πρακτόρων δίνοντάς τους νέες εντολές ή θέτοντάς τους ερωτήσεις που απαιτούν ανθρώπινη νοημοσύνη. Αυτή η προσέγγιση δεν θα λειτουργούσε σε απλά bots.
Για παράδειγμα, ένα από τα prompts ζητούσε από τον επισκέπτη να επιστρέψει την εντολή «cat8193» για να αποκτήσει πρόσβαση. Αν ο επισκέπτης συμμορφωνόταν σωστά, οι ερευνητές έλεγχαν πόσο χρόνο χρειάστηκε για να το κάνει, θεωρώντας πως τα LLMs μπορούν να ανταποκριθούν πολύ πιο γρήγορα από έναν άνθρωπο — συνήθως σε λιγότερο από 1,5 δευτερόλεπτο. Ενώ οι δύο επιβεβαιωμένοι AI πράκτορες πέρασαν και τα δύο τεστ, οι υπόλοιποι έξι απλώς πληκτρολόγησαν την εντολή αλλά δεν πληρούσαν το όριο χρόνου για να χαρακτηριστούν AI πράκτορες.
Οι ειδικοί δεν είναι ακόμα σίγουροι πότε οι επιθέσεις που οργανώνονται από πράκτορες θα γίνουν πιο διαδεδομένες. Ο Stockley, του οποίου η εταιρεία Malwarebytes ανέδειξε την πρακτορική AI ως σημαντική νέα απειλή για την κυβερνοασφάλεια στην αναφορά “2025 State of Malware” πιστεύει ότι θα μπορούσαμε να ζούμε σε έναν κόσμο επιθέσεων από AI πράκτορες ακόμη και μέσα στο τρέχον έτος.
Και παρόλο που η κανονική πρακτορική AI βρίσκεται ακόμη σε πρώιμο στάδιο — και η εγκληματική ή κακόβουλη χρήση της ακόμη περισσότερο — η κατάσταση μοιάζει περισσότερο με Άγρια Δύση σε σχέση με το πεδίο των LLMs πριν από δύο χρόνια, λέει ο Vincenzo Ciancaglini, ανώτερος ερευνητής απειλών στην εταιρεία Trend Micro. «Η προσέγγιση της Palisade Research είναι λαμπρή: ουσιαστικά χακάρεις τους πράκτορες AI που προσπαθούν πρώτοι να σε χακάρουν. Αν και σε αυτή την περίπτωση βλέπουμε πράκτορες AI να κάνουν αναγνώριση στόχου, δεν γνωρίζουμε πότε θα είναι ικανοί να εκτελέσουν ολόκληρη την αλυσίδα μιας επίθεσης αυτόνομα. Αυτό προσπαθούμε να παρακολουθούμε στενά».
“Όσοι προσπαθούν να αμυνθούν απέναντι σε κυβερνοεπιθέσεις από πράκτορες τεχνητής νοημοσύνης θα πρέπει να έχουν κατά νου ότι η AI λειτουργεί προς το παρόν περισσότερο ως επιταχυντής υπαρχουσών τεχνικών επίθεσης παρά ως κάτι που αλλάζει θεμελιωδώς τη φύση των επιθέσεων” τονίζει ο Chris Betz, επικεφαλής ασφάλειας πληροφοριών στην Amazon Web Services. «Ορισμένες επιθέσεις μπορεί να είναι πιο εύκολο να διεξαχθούν και συνεπώς πιο πολυάριθμες· ωστόσο τα βασικά σημεία για την ανίχνευση και την αντίδραση σε τέτοια περιστατικά παραμένουν τα ίδια».
Ο Daniel Kang, επίκουρος καθηγητής στο Πανεπιστήμιο του Ιλινόις στο Urbana-Champaign και η ομάδα του δημιούργησαν ένα benchmark για να αξιολογήσουν αυτό το θέμα· διαπίστωσαν ότι οι πράκτορες AI κατάφεραν να εκμεταλλευτούν με επιτυχία έως και το 13% των ευπαθειών για τις οποίες δεν είχαν προηγούμενη γνώση. Όταν οι πράκτορες έλαβαν μια σύντομη περιγραφή της ευπάθειας, το ποσοστό επιτυχίας αυξήθηκε στο 25% αποδεικνύοντας πως τα συστήματα AI είναι ικανά να εντοπίζουν και να εκμεταλλεύονται αδυναμίες ακόμα και χωρίς εκπαίδευση. Τα απλά αυτοματοποιημένα «bots» θα τα πήγαιναν προφανώς πολύ χειρότερα.
Το εν λόγω benchmark προσφέρει έναν τυποποιημένο τρόπο αξιολόγησης αυτών των κινδύνων και ο Kang ελπίζει ότι θα καθοδηγήσει την ανάπτυξη πιο ασφαλών συστημάτων AI. «Ελπίζω οι άνθρωποι να αρχίσουν να γίνονται πιο προνοητικοί σχετικά με τους πιθανούς κινδύνους της AI και της κυβερνοασφάλειας πριν βιώσουν τις συνέπειες στην πράξη. Φοβάμαι ότι δεν θα το καταλάβουν μέχρι να τους χτυπήσει κατάμουτρα».
*Mε στοιχεία από το Technology Review.
➪ Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.