Μετά από μήνες ερευνών, οι ρυθμιστικές αρχές απέδωσαν μεγάλο μέρος της ευθύνης για αυτό το «flash crash» (Mάιος του 2010) στους αλγόριθμους υψηλής συχνότητας, οι οποίοι αξιοποιούν την υπεροχή ταχύτητας για να εκμεταλλευτούν ευκαιρίες κέρδους στις αγορές. Αν και τα συγκεκριμένα συστήματα δεν προκάλεσαν την αρχική πτώση, λειτούργησαν ως ισχυρός επιταχυντής: όταν οι τιμές άρχισαν να πέφτουν, οι αλγόριθμοι άρχισαν να πωλούν μαζικά περιουσιακά στοιχεία. Οι τιμές έπεσαν ακόμη πιο απότομα, οι αυτόματοι έμποροι πούλησαν ακόμη περισσότερο και η κατάρρευση διογκώθηκε ραγδαία.
* Ο όρος flash crash («στιγμιαία κατάρρευση») αναφέρεται σε ένα ξαφνικό, βραχύβιο και απότομο “κραχ” στις τιμές των χρηματοπιστωτικών αγορών, το οποίο συνήθως διορθώνεται γρήγορα, εντός λεπτών ή ωρών.
Το flash crash αποτελεί ίσως το πιο γνωστό παράδειγμα των κινδύνων που συνεπάγονται οι πράκτορες — αυτοματοποιημένα συστήματα που έχουν τη δύναμη να ενεργούν στον πραγματικό κόσμο χωρίς ανθρώπινη επίβλεψη. Αυτή ακριβώς η δύναμή τους είναι και η πηγή της χρησιμότητάς τους. Οι πράκτορες που επιτάχυναν την κατάρρευση μπορούσαν να πραγματοποιούν συναλλαγές πολύ πιο γρήγορα από οποιονδήποτε άνθρωπο. Όμως αυτή είναι και η αιτία για την οποία μπορούν να προκαλέσουν σοβαρές ζημιές.
«Το μεγάλο παράδοξο με τους πράκτορες είναι ότι το ίδιο το στοιχείο που τους καθιστά χρήσιμους —το ότι μπορούν να ολοκληρώσουν ένα εύρος εργασιών— συνεπάγεται παραχώρηση ελέγχου» υποστηρίζει ο Iason Gabriel, ανώτερος ερευνητής στην Google DeepMind που ειδικεύεται στην ηθική της τεχνητής νοημοσύνης.
Οι πράκτορες βρίσκονται ήδη παντού — και βρίσκονται εκεί εδώ και δεκαετίες. Ο θερμοστάτης σας, για παράδειγμα, είναι ένας πράκτορας: ενεργοποιεί ή απενεργοποιεί αυτόματα τη θέρμανση για να διατηρεί το σπίτι σας σε μια συγκεκριμένη θερμοκρασία. Το ίδιο ισχύει για τα antivirus και τα ρομπότ Roomba. Όπως οι αλγόριθμοι υψηλής συχνότητας που είναι προγραμματισμένοι να αγοράζουν ή να πωλούν με βάση τις συνθήκες της αγοράς, όλοι αυτοί οι πράκτορες έχουν σχεδιαστεί για να εκτελούν συγκεκριμένες εργασίες ακολουθώντας προκαθορισμένους κανόνες. Ακόμα και οι πιο εξελιγμένοι πράκτορες, όπως η Siri και τα αυτοκινούμενα οχήματα, βασίζονται σε γραπτούς κανόνες για πολλές από τις ενέργειές τους.
Όμως τους τελευταίους μήνες, εμφανίστηκε μια νέα κατηγορία πρακτόρων: αυτοί που βασίζονται σε μεγάλα γλωσσικά μοντέλα (LLMs). Ο Operator, ένας πράκτορας της OpenAI, μπορεί να περιηγείται αυτόνομα σε έναν browser για να παραγγείλει ψώνια ή να κάνει κρατήσεις για δείπνο. Συστήματα όπως το Claude Code και η λειτουργία Chat της Cursor μπορούν να τροποποιούν ολόκληρες βάσεις κώδικα με μία μόνο εντολή. Ο Manus, ένας “ιογενής” πράκτορας από την κινεζική startup Butterfly Effect, μπορεί να δημιουργεί και να δημοσιεύει ιστοσελίδες με ελάχιστη ανθρώπινη παρέμβαση. Οποιαδήποτε ενέργεια μπορεί να εκφραστεί με κείμενο — από το να παίξει κανείς ένα βιντεοπαιχνίδι με γραπτές εντολές έως το να διαχειρίζεται έναν λογαριασμό στα μέσα κοινωνικής δικτύωσης — ενδέχεται να είναι στο εύρος δυνατοτήτων τέτοιων συστημάτων.
Οι πράκτορες LLM δεν έχουν ακόμη πίσω τους ένα μεγάλο ιστορικό, αλλά αν ακούσουμε τους CEOs πρόκειται να μεταμορφώσουν την οικονομία. Ο CEO της OpenAI, Sam Altman δήλωσε ότι οι πράκτορες ενδέχεται να «ενταχθούν στο εργατικό δυναμικό» εντός του έτους, ενώ ο CEO της Salesforce, Marc Benioff προωθεί επιθετικά την Agentforce, μια πλατφόρμα που επιτρέπει στις επιχειρήσεις να προσαρμόζουν πράκτορες στις δικές τους ανάγκες. Το Υπουργείο Άμυνας των ΗΠΑ υπέγραψε πρόσφατα συμβόλαιο με την Scale AI για το σχεδιασμό και τη δοκιμή πρακτόρων για στρατιωτική χρήση.
Ακόμη και η ακαδημαϊκή κοινότητα αντιμετωπίζει πλέον σοβαρά το θέμα. «Οι πράκτορες είναι το επόμενο σύνορο» τονίζει η Dawn Song, καθηγήτρια ηλεκτρολόγων μηχανικών και επιστήμης υπολογιστών στο Πανεπιστήμιο της Καλιφόρνια, στο Μπέρκλεϊ. «Αν θέλουμε πραγματικά να ωφεληθούμε από την τεχνητή νοημοσύνη, να τη χρησιμοποιήσουμε για την επίλυση σύνθετων προβλημάτων, πρέπει να βρούμε τρόπους να λειτουργούν με ασφάλεια και αξιοπιστία».
Αυτό είναι ένα δύσκολο εγχείρημα. Όπως και τα chatbot που βασίζονται σε μεγάλα γλωσσικά μοντέλα (LLMs), οι πράκτορες μπορούν να είναι χαοτικοί και απρόβλεπτοι. Στο κοντινό μέλλον, ένας πράκτορας με πρόσβαση στον τραπεζικό σας λογαριασμό θα μπορούσε να σας βοηθήσει να διαχειριστείτε τον προϋπολογισμό σας — αλλά θα μπορούσε επίσης να ξοδέψει όλες τις αποταμιεύσεις σας ή να διαρρεύσει τα προσωπικά σας δεδομένα σε έναν χάκερ. Ένας πράκτορας που διαχειρίζεται τους λογαριασμούς σας στα κοινωνικά δίκτυα θα μπορούσε να απαλλάξει από τη ρουτίνα της ψηφιακής παρουσίας — αλλά θα μπορούσε εξίσου να διαδώσει ψευδείς ειδήσεις ή να επιτεθεί λεκτικά σε άλλους χρήστες.
Και καθώς τα LLMs θα γίνονται καλύτερα στην επίλυση σύνθετων προβλημάτων, θα μπορούμε να τους αναθέτουμε ακόμα πιο γενικούς και ασαφείς στόχους, αφήνοντάς τους το δύσκολο κομμάτι της ανάλυσης και του σχεδιασμού. Για τους λάτρεις της παραγωγικότητας στη Silicon Valley —και για όσους απλώς θέλουν να περνούν περισσότερα βράδια με την οικογένειά τους— υπάρχει πραγματική έλξη στην ιδέα να εκχωρήσουν χρονοβόρες εργασίες όπως η κράτηση διακοπών ή η τακτοποίηση των email σε έναν πρόθυμο, υπάκουο υπολογιστή.
Η πρόκληση του να μάθουν τα μεγάλα γλωσσικά μοντέλα (LLMs) όλους τους κοινωνικούς κανόνες και τις άγραφες νόρμες που οι άνθρωποι κατανοούν διαισθητικά, παραμένει τεράστια. Ακόμα κι όταν τα LLMs μπορούν να εκφράσουν με λόγια τις κοινωνικές προσδοκίες—όπως την ιδέα ότι πρέπει να προστατεύουν ευαίσθητες πληροφορίες—δεν είναι καθόλου σίγουρο ότι θα τις τηρήσουν όταν αναλάβουν δράση.
Καθώς οι πράκτορες τεχνητής νοημοσύνης γίνονται ολοένα και πιο ικανοί, μετατρέπονται σε πανίσχυρα όπλα για κυβερνοεπιθέσεις, προειδοποιεί ο Daniel Kang, επίκουρος καθηγητής επιστήμης υπολογιστών στο Πανεπιστήμιο του Ιλινόις στην Urbana-Champaign. Αυτό είναι μόνο η ηρεμία πριν από την καταιγίδα. Οι πράκτορες δεν αλληλεπιδρούν με το διαδίκτυο με τον ίδιο τρόπο που το κάνουν οι άνθρωποι, επομένως προς το παρόν είναι εφικτό να εντοπιστούν και να μπλοκαριστούν.
Πρέπει να τηρούμε τις βασικές αρχές κυβερνοασφάλειας, όπως η χρήση δύο παραγόντων ταυτοποίησης και ο ενδελεχής έλεγχος συστημάτων πριν από την ανάπτυξή τους. Οι οργανισμοί είναι ευάλωτοι στους πράκτορες σήμερα όχι επειδή δεν υπάρχουν διαθέσιμες άμυνες, αλλά επειδή δεν έχουν φροντίσει να τις εφαρμόσουν.
Όπως γίνεται κατανοητό έρχεται μία καταιγίδα που πιθανώς θα σηματοδοτήσει μία επανάσταση. Λύσεις πολιτικής, όπως προγράμματα κατάρτισης, ενισχυμένα επιδόματα ανεργίας ή ακόμα και βασικό εγγυημένο εισόδημα, θα μπορούσαν να μετριάσουν τις επιπτώσεις. Όμως η αυτοματοποίηση μέσω πρακτόρων ίσως φέρει και βαθύτερες συνέπειες από την απλή απώλεια θέσεων εργασίας. Τον Μάιο, σύμφωνα με αναφορές, ο Elon Musk πρότεινε να αντικατασταθούν ορισμένοι ομοσπονδιακοί υπάλληλοι από τεχνητή νοημοσύνη. Δεκάδες χιλιάδες απολύθηκαν κατά τη διάρκεια της σύντομης θητείας του ως «ειδικός κυβερνητικός υπάλληλος». Ορισμένοι ειδικοί φοβούνται ότι τέτοιες κινήσεις μπορεί να αυξήσουν ριζικά την εξουσία πολιτικών ηγετών εις βάρος της δημοκρατίας.
*Με στοιχεία από το Technology Review.
➪ Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.
Μετά από μήνες ερευνών, οι ρυθμιστικές αρχές απέδωσαν μεγάλο μέρος της ευθύνης για αυτό το «flash crash» (Mάιος του 2010) στους αλγόριθμους υψηλής συχνότητας, οι οποίοι αξιοποιούν την υπεροχή ταχύτητας για να εκμεταλλευτούν ευκαιρίες κέρδους στις αγορές. Αν και τα συγκεκριμένα συστήματα δεν προκάλεσαν την αρχική πτώση, λειτούργησαν ως ισχυρός επιταχυντής: όταν οι τιμές άρχισαν να πέφτουν, οι αλγόριθμοι άρχισαν να πωλούν μαζικά περιουσιακά στοιχεία. Οι τιμές έπεσαν ακόμη πιο απότομα, οι αυτόματοι έμποροι πούλησαν ακόμη περισσότερο και η κατάρρευση διογκώθηκε ραγδαία.
* Ο όρος flash crash («στιγμιαία κατάρρευση») αναφέρεται σε ένα ξαφνικό, βραχύβιο και απότομο “κραχ” στις τιμές των χρηματοπιστωτικών αγορών, το οποίο συνήθως διορθώνεται γρήγορα, εντός λεπτών ή ωρών.
Το flash crash αποτελεί ίσως το πιο γνωστό παράδειγμα των κινδύνων που συνεπάγονται οι πράκτορες — αυτοματοποιημένα συστήματα που έχουν τη δύναμη να ενεργούν στον πραγματικό κόσμο χωρίς ανθρώπινη επίβλεψη. Αυτή ακριβώς η δύναμή τους είναι και η πηγή της χρησιμότητάς τους. Οι πράκτορες που επιτάχυναν την κατάρρευση μπορούσαν να πραγματοποιούν συναλλαγές πολύ πιο γρήγορα από οποιονδήποτε άνθρωπο. Όμως αυτή είναι και η αιτία για την οποία μπορούν να προκαλέσουν σοβαρές ζημιές.
«Το μεγάλο παράδοξο με τους πράκτορες είναι ότι το ίδιο το στοιχείο που τους καθιστά χρήσιμους —το ότι μπορούν να ολοκληρώσουν ένα εύρος εργασιών— συνεπάγεται παραχώρηση ελέγχου» υποστηρίζει ο Iason Gabriel, ανώτερος ερευνητής στην Google DeepMind που ειδικεύεται στην ηθική της τεχνητής νοημοσύνης.
Οι πράκτορες βρίσκονται ήδη παντού — και βρίσκονται εκεί εδώ και δεκαετίες. Ο θερμοστάτης σας, για παράδειγμα, είναι ένας πράκτορας: ενεργοποιεί ή απενεργοποιεί αυτόματα τη θέρμανση για να διατηρεί το σπίτι σας σε μια συγκεκριμένη θερμοκρασία. Το ίδιο ισχύει για τα antivirus και τα ρομπότ Roomba. Όπως οι αλγόριθμοι υψηλής συχνότητας που είναι προγραμματισμένοι να αγοράζουν ή να πωλούν με βάση τις συνθήκες της αγοράς, όλοι αυτοί οι πράκτορες έχουν σχεδιαστεί για να εκτελούν συγκεκριμένες εργασίες ακολουθώντας προκαθορισμένους κανόνες. Ακόμα και οι πιο εξελιγμένοι πράκτορες, όπως η Siri και τα αυτοκινούμενα οχήματα, βασίζονται σε γραπτούς κανόνες για πολλές από τις ενέργειές τους.
Όμως τους τελευταίους μήνες, εμφανίστηκε μια νέα κατηγορία πρακτόρων: αυτοί που βασίζονται σε μεγάλα γλωσσικά μοντέλα (LLMs). Ο Operator, ένας πράκτορας της OpenAI, μπορεί να περιηγείται αυτόνομα σε έναν browser για να παραγγείλει ψώνια ή να κάνει κρατήσεις για δείπνο. Συστήματα όπως το Claude Code και η λειτουργία Chat της Cursor μπορούν να τροποποιούν ολόκληρες βάσεις κώδικα με μία μόνο εντολή. Ο Manus, ένας “ιογενής” πράκτορας από την κινεζική startup Butterfly Effect, μπορεί να δημιουργεί και να δημοσιεύει ιστοσελίδες με ελάχιστη ανθρώπινη παρέμβαση. Οποιαδήποτε ενέργεια μπορεί να εκφραστεί με κείμενο — από το να παίξει κανείς ένα βιντεοπαιχνίδι με γραπτές εντολές έως το να διαχειρίζεται έναν λογαριασμό στα μέσα κοινωνικής δικτύωσης — ενδέχεται να είναι στο εύρος δυνατοτήτων τέτοιων συστημάτων.
Οι πράκτορες LLM δεν έχουν ακόμη πίσω τους ένα μεγάλο ιστορικό, αλλά αν ακούσουμε τους CEOs πρόκειται να μεταμορφώσουν την οικονομία. Ο CEO της OpenAI, Sam Altman δήλωσε ότι οι πράκτορες ενδέχεται να «ενταχθούν στο εργατικό δυναμικό» εντός του έτους, ενώ ο CEO της Salesforce, Marc Benioff προωθεί επιθετικά την Agentforce, μια πλατφόρμα που επιτρέπει στις επιχειρήσεις να προσαρμόζουν πράκτορες στις δικές τους ανάγκες. Το Υπουργείο Άμυνας των ΗΠΑ υπέγραψε πρόσφατα συμβόλαιο με την Scale AI για το σχεδιασμό και τη δοκιμή πρακτόρων για στρατιωτική χρήση.
Ακόμη και η ακαδημαϊκή κοινότητα αντιμετωπίζει πλέον σοβαρά το θέμα. «Οι πράκτορες είναι το επόμενο σύνορο» τονίζει η Dawn Song, καθηγήτρια ηλεκτρολόγων μηχανικών και επιστήμης υπολογιστών στο Πανεπιστήμιο της Καλιφόρνια, στο Μπέρκλεϊ. «Αν θέλουμε πραγματικά να ωφεληθούμε από την τεχνητή νοημοσύνη, να τη χρησιμοποιήσουμε για την επίλυση σύνθετων προβλημάτων, πρέπει να βρούμε τρόπους να λειτουργούν με ασφάλεια και αξιοπιστία».
Αυτό είναι ένα δύσκολο εγχείρημα. Όπως και τα chatbot που βασίζονται σε μεγάλα γλωσσικά μοντέλα (LLMs), οι πράκτορες μπορούν να είναι χαοτικοί και απρόβλεπτοι. Στο κοντινό μέλλον, ένας πράκτορας με πρόσβαση στον τραπεζικό σας λογαριασμό θα μπορούσε να σας βοηθήσει να διαχειριστείτε τον προϋπολογισμό σας — αλλά θα μπορούσε επίσης να ξοδέψει όλες τις αποταμιεύσεις σας ή να διαρρεύσει τα προσωπικά σας δεδομένα σε έναν χάκερ. Ένας πράκτορας που διαχειρίζεται τους λογαριασμούς σας στα κοινωνικά δίκτυα θα μπορούσε να απαλλάξει από τη ρουτίνα της ψηφιακής παρουσίας — αλλά θα μπορούσε εξίσου να διαδώσει ψευδείς ειδήσεις ή να επιτεθεί λεκτικά σε άλλους χρήστες.
Και καθώς τα LLMs θα γίνονται καλύτερα στην επίλυση σύνθετων προβλημάτων, θα μπορούμε να τους αναθέτουμε ακόμα πιο γενικούς και ασαφείς στόχους, αφήνοντάς τους το δύσκολο κομμάτι της ανάλυσης και του σχεδιασμού. Για τους λάτρεις της παραγωγικότητας στη Silicon Valley —και για όσους απλώς θέλουν να περνούν περισσότερα βράδια με την οικογένειά τους— υπάρχει πραγματική έλξη στην ιδέα να εκχωρήσουν χρονοβόρες εργασίες όπως η κράτηση διακοπών ή η τακτοποίηση των email σε έναν πρόθυμο, υπάκουο υπολογιστή.
Η πρόκληση του να μάθουν τα μεγάλα γλωσσικά μοντέλα (LLMs) όλους τους κοινωνικούς κανόνες και τις άγραφες νόρμες που οι άνθρωποι κατανοούν διαισθητικά, παραμένει τεράστια. Ακόμα κι όταν τα LLMs μπορούν να εκφράσουν με λόγια τις κοινωνικές προσδοκίες—όπως την ιδέα ότι πρέπει να προστατεύουν ευαίσθητες πληροφορίες—δεν είναι καθόλου σίγουρο ότι θα τις τηρήσουν όταν αναλάβουν δράση.
Καθώς οι πράκτορες τεχνητής νοημοσύνης γίνονται ολοένα και πιο ικανοί, μετατρέπονται σε πανίσχυρα όπλα για κυβερνοεπιθέσεις, προειδοποιεί ο Daniel Kang, επίκουρος καθηγητής επιστήμης υπολογιστών στο Πανεπιστήμιο του Ιλινόις στην Urbana-Champaign. Αυτό είναι μόνο η ηρεμία πριν από την καταιγίδα. Οι πράκτορες δεν αλληλεπιδρούν με το διαδίκτυο με τον ίδιο τρόπο που το κάνουν οι άνθρωποι, επομένως προς το παρόν είναι εφικτό να εντοπιστούν και να μπλοκαριστούν.
Πρέπει να τηρούμε τις βασικές αρχές κυβερνοασφάλειας, όπως η χρήση δύο παραγόντων ταυτοποίησης και ο ενδελεχής έλεγχος συστημάτων πριν από την ανάπτυξή τους. Οι οργανισμοί είναι ευάλωτοι στους πράκτορες σήμερα όχι επειδή δεν υπάρχουν διαθέσιμες άμυνες, αλλά επειδή δεν έχουν φροντίσει να τις εφαρμόσουν.
Όπως γίνεται κατανοητό έρχεται μία καταιγίδα που πιθανώς θα σηματοδοτήσει μία επανάσταση. Λύσεις πολιτικής, όπως προγράμματα κατάρτισης, ενισχυμένα επιδόματα ανεργίας ή ακόμα και βασικό εγγυημένο εισόδημα, θα μπορούσαν να μετριάσουν τις επιπτώσεις. Όμως η αυτοματοποίηση μέσω πρακτόρων ίσως φέρει και βαθύτερες συνέπειες από την απλή απώλεια θέσεων εργασίας. Τον Μάιο, σύμφωνα με αναφορές, ο Elon Musk πρότεινε να αντικατασταθούν ορισμένοι ομοσπονδιακοί υπάλληλοι από τεχνητή νοημοσύνη. Δεκάδες χιλιάδες απολύθηκαν κατά τη διάρκεια της σύντομης θητείας του ως «ειδικός κυβερνητικός υπάλληλος». Ορισμένοι ειδικοί φοβούνται ότι τέτοιες κινήσεις μπορεί να αυξήσουν ριζικά την εξουσία πολιτικών ηγετών εις βάρος της δημοκρατίας.
*Με στοιχεία από το Technology Review.
➪ Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.