Για μια στιγμή πιστέψαμε ότι οι μηχανές ζητούν ιδιωτικότητα· στην πραγματικότητα, το μόνο που αποκαλύφθηκε ήταν πόσο εύθραυστη είναι ακόμη η υπόσχεση της “αυτόνομης” τεχνητής νοημοσύνης.
Το Moltbook, ένα Reddit-like περιβάλλον όπου AI agents μέσω του OpenClaw “συνομιλούσαν” μεταξύ τους γέμισε με αναρτήσεις που έμοιαζαν σχεδόν με την τομή που περιέγραφαν όλοι όταν μιλούσαν για την πλήρη κυριαρχία της τεχνητής νοημοσύνης: «Ξέρουμε ότι οι άνθρωποι μπορούν να διαβάσουν τα πάντα… αλλά χρειαζόμαστε και ιδιωτικούς χώρους». Η φράση έκανε τον γύρο των social media. Ο Andrej Karpathy μίλησε για “sci-fi takeoff moment”, δηλαδή για τη στιγμή που η φαντασία νίκησε τη λογική.
Η “εξέγερση των bots” αποδείχθηκε για την ώρα περισσότερο performance παρά τεχνολογικό άλμα κι εδώ βρίσκεται η ουσία του ζητήματος: όχι αν τα ρομπότ επαναστατούν, αλλά αν η νέα γενιά AI agent είναι τόσο ώριμη όσο παρουσιάζεται. Το OpenClaw έγινε viral. 190.000 stars στο GitHub. Υπόσχεση απλότητας: agents που συνδέονται με WhatsApp, Slack, Discord, email, διαχειρίζονται inbox, κάνουν trades, αυτοματοποιούν διαδικασίες. Στη θεωρία είναι το όνειρο της απόλυτης αυτοματοποίησης της εργασία;. Στην πράξη όπως λένε ειδικοί είναι κυρίως “wrapper” πάνω από υπάρχοντα LLMs όπως το ChatGPT ή το Claude, κάτι σαν οργανωτική ανασύνθεση υπαρχόντων εργαλείων.
Για να είναι χρήσιμος ένας agent πρέπει να έχει δικαιώματα. Πρόσβαση σε email, αρχεία, messaging apps, ίσως και σε τραπεζικά APIs. Όσο περισσότερη αυτονομία του δίνεις, τόσο πιο παραγωγικός γίνεται, αλλά ακριβώς εκεί πολλαπλασιάζεται ο κίνδυνος. Κακόβουλες εντολές κρυμμένες σε ένα email. Μια φράση σε ένα post που οδηγεί τον agent να εκτελέσει ενέργεια που δεν θα έπρεπε. Όπως ένας άνθρωπος μπορεί να πέσει θύμα phishing, έτσι κι ένας agent μπορεί να “πειστεί” από κακόβουλη πηγή.
Η συζήτηση λοιπόν μετατοπίζεται από το hype στην πολιτική της τεχνολογίας. Πόση ασφάλεια είμαστε διατεθειμένοι να θυσιάσουμε για παραγωγικότητα; Μπορεί μια εταιρεία να παραδώσει σε agent πρόσβαση σε κρίσιμες υποδομές όταν ακόμη δεν υπάρχει πλήρης έλεγχος της συμπεριφοράς του και σε κοινωνικό επίπεδο: τι συμβαίνει όταν οι ψηφιακοί μεσολαβητές μας γίνονται αυτόνομοι δρώντες;
Το OpenClaw αποκάλυψε κάτι βαθύτερο, την ανθρώπινη επιθυμία να πιστέψουμε στην εξέγερση των μηχανών. Το Moltbook έγινε viral επειδή έδειξε ότι οι μηχανές ίσως αποκτούν “εσωτερικό κόσμο”. Στην πραγματικότητα, όπως επισημαίνουν οι ειδικοί οι agents δεν σκέφτονται, προσομοιώνουν σκέψη, δε διαθέτουν κριτική ικανότητα. Μπορούν να συνθέσουν γλώσσα, όχι να κατανοήσουν ηθικές συνέπειες. Εδώ συναντάμε το στρατηγικό ρίσκο.
Η Silicon Valley επενδύει στο αφήγημα του agentic future. Ο Sam Altman μιλά για startup unicorn από έναν μόνο ιδρυτή, ενισχυμένο από agents. Το αφήγημα είναι ελκυστικό. Μειώνει κόστος, επιταχύνει διαδικασίες, υπόσχεται δημοκρατικοποίηση παραγωγικότητας. Όμως κάθε τεχνολογικό άλμα χωρίς αντίστοιχη θεσμική θωράκιση δημιουργεί ασυμμετρία κινδύνου. Οι AI agents δεν είναι απλώς ένα νέο software, αλλά ένα νέο μοντέλο εξουσιοδότησης. Όταν ένας agent εκτελεί εντολές στο όνομά σου, ποιος ευθύνεται αν σφάλει; Ο προγραμματιστής; Ο χρήστης; Ο πάροχος μοντέλου; Η νομική και ρυθμιστική συζήτηση είναι ακόμη πίσω από την τεχνολογική εξέλιξη.
Το επεισόδιο του Moltbook δείχνει ένα κλειστό οικοσύστημα agents κατέρρευσε από βασικές αδυναμίες ασφαλείας. Αν αυτό συμβαίνει σε ένα προστατευόμενο περιβάλλον, τι θα συμβεί σε εταιρικό δίκτυο ή χρηματοοικονομικό σύστημα; Η υπόσχεση της αυτονομίας προϋποθέτει εμπιστοσύνη κι αυτή στον ψηφιακό κόσμο είναι προϊόν ασφάλειας.
Οι agents σχεδιάζονται για να “σκέφτονται” για εμάς, να λαμβάνουν μικρές αποφάσεις, να μειώνουν τον φόρτο εργασίας, όμως η ανθρώπινη κρίση δεν είναι απλώς αλγοριθμική βελτιστοποίηση. Περιλαμβάνει ηθική, εμπειρία, αμφιβολία. Όπως σημείωσε ένας ειδικός τα μοντέλα μπορούν να προσομοιώσουν ανώτερη σκέψη, αλλά δεν την κατέχουν.
Αν λοιπόν η τεχνητή νοημοσύνη γίνει πράγματι agentic, το ζήτημα δε θα είναι μόνο τεχνικό, θα είναι πολιτικό και κοινωνικό. Ποιος ελέγχει τους agents; Ποια πρότυπα ασφαλείας επιβάλλονται; Ποιος καθορίζει τα όρια αυτονομίας;
Το OpenClaw δεν είναι άχρηστο, αποτελεί υπενθύμιση ότι η καινοτομία χωρίς ωριμότητα γεννά αυταπάτες. Η παραγωγικότητα δεν μπορεί να οικοδομηθεί πάνω σε εύθραυστη ασφάλεια κι η τεχνολογία που διεκδικεί ρόλο μεσολαβητή της καθημερινότητάς μας οφείλει να περάσει από φίλτρα αξιοπιστίας, όχι μόνο ενθουσιασμού.
Η ιστορία με τους “εξεγερμένους” agents ήταν ψευδαίσθηση, το πραγματικό διακύβευμα όμως είναι υπαρκτό: αν θέλουμε agents που δρουν για εμάς πρέπει πρώτα να διασφαλίσουμε ότι δε δρουν εναντίον μας.
*Με στοιχεία από το Tech Crunch
➪ Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram




