Δεν ήταν ποτέ αθώα η τεχνολογία. Από την πρώτη σπινθήρα φωτιάς μέχρι τους πυραύλους του Ψυχρού Πολέμου, κάθε καινοτομία ερχόταν με μια υπόσχεση ευημερίας και έναν υπαινιγμό καταστροφής. Σήμερα στο φως του φρενήρη αγώνα δρόμου για την Τεχνητή Νοημοσύνη (AI), η Silicon Valley αποκαλύπτει ξανά το βαθιά διχασμένο της πρόσωπο: από τη μια φιλανθρωπικά ιδρύματα και λογισμικά που υπόσχονται προσωπική βελτίωση, από την άλλη κλειστά συμβούλια, μαύρα κονδύλια, και συμφωνίες με το Πεντάγωνο.
Για όσους παρακολουθούν τις εξελίξεις στην εξέλιξη του χρόνου όλα τα παραπάνω δεν προκαλούν έκπληξη. Η συνεργασία εταιρειών όπως η Palantir, η Google και η Microsoft με τις αμερικανικές ένοπλες δυνάμεις δεν είναι απλή τεχνολογική υποστήριξη — είναι η επισημοποίηση ενός νέου “καθεστώτος”. Η Τεχνητή Νοημοσύνη παύει να είναι εργαλείο βελτιστοποίησης και γίνεται το επόμενο επίπεδο στον πόλεμο: αθόρυβο, αυτόνομο, χωρίς ευθύνη και κυρίως αποσυνδεδεμένο από τον ανθρώπινο ηθικό προβληματισμό.
Πριν λίγες εβδομάδες το Project Maven — ένα πρόγραμμα του αμερικανικού υπουργείου Άμυνας για την ενίσχυση της στοχευμένης επιτήρησης μέσω AI — απέκτησε νέα δυναμική. Η Google, αν και παλαιότερα προσπάθησε να αποστασιοποιηθεί ύστερα από εσωτερικές αντιδράσεις υπαλλήλων της επανήλθε μέσω της συνεργασίας της με την Anduril, μια από τις πιο φιλόδοξες νεοφυείς εταιρείες αμυντικής τεχνολογίας. Οι τεχνολογικές υποσχέσεις της Anduril δεν κρύβονται πίσω από κείμενα περί «βελτίωσης του κόσμου»: δημιουργεί αυτόνομα drones, ρομποτικά συστήματα επιτήρησης και λογισμικά πρόβλεψης κινήσεων “εχθρών” — ό,τι δηλαδή χρειάζεται ένας σύγχρονος πόλεμος που δεν διεξάγεται πια στα χαρακώματα, αλλά στα δίκτυα δεδομένων.
Στο μεταξύ η OpenAI — η εταιρεία πίσω από το ChatGPT — ετοιμάζει τη δική της απόβαση. Παρά το ιδρυτικό της καταστατικό που απαγορεύει τη χρήση της τεχνολογίας της σε στρατιωτικά πλαίσια, φήμες και ρεπορτάζ κάνουν λόγο για διαβουλεύσεις με κυβερνητικούς φορείς των ΗΠΑ υπό την επίβλεψη του ίδιου του Σαμ Άλτμαν. Ο νεαρός CEO εμφανίζεται σαν προφήτης και CEO μαζί: από τη μια μιλά για “ασφαλή τεχνητή γενική νοημοσύνη” και ταυτόχρονα συνδιαλέγεται με στρατηγούς.
Η πιο τρομακτική εξέλιξη ωστόσο, δεν είναι η χρήση της AI για σκοπούς κατασκοπείας ή επιτήρησης, αυτά είναι άλλωστε ήδη γνωστά. Είναι η μετάβαση σε αυτόνομα οπλικά συστήματα. Drones που δε χρειάζονται εντολή για να σκοτώσουν. Λογισμικά που αναγνωρίζουν «στόχους υψηλής προτεραιότητας» χωρίς ανθρώπινη επιβεβαίωση. Ο «αλγόριθμος που αποφασίζει ποιος ζει και ποιος πεθαίνει» δεν είναι πλέον δυστοπική υπερβολή, είναι ρεαλιστική εξέλιξη.
Όλα αυτά βέβαια χτίζονται πάνω σε ένα παράδοξο: η τεχνολογία της AI έχει αναπτυχθεί από ανθρώπους που δηλώνουν ειρηνόφιλοι, καινοτόμοι, φιλοσοφημένοι. Οι συνεντεύξεις των μεγάλων CEO είναι γεμάτες ανησυχίες για την κλιματική αλλαγή, την ισότητα, την ψυχική υγεία. Οι ίδιες εταιρείες όμως προμηθεύουν λογισμικά για συστήματα επιτήρησης μεταναστών στα σύνορα, για συστήματα αυτόματης αναγνώρισης προσώπου που χρησιμοποιούνται ενάντια σε διαδηλωτές, για data-mining σε στρατιωτικές επιχειρήσεις. Ο ηθικός διχασμός δεν είναι απλώς πρόβλημα φιλοσοφίας, είναι πολιτικό σκάνδαλο.
Η σιωπή των δημοκρατικών θεσμών είναι εκκωφαντική. Ποιος ελέγχει αυτές τις εξελίξεις; Ποιο κοινοβούλιο, ποιο διεθνές δικαστήριο, ποια σύμβαση οπλικών συστημάτων προβλέπει τι επιτρέπεται και τι όχι όταν το οπλικό σύστημα είναι «ευφυές»; Στην πραγματικότητα, καμία. Η τεχνολογική καινοτομία προηγείται της ηθικής ρύθμισης και σε αυτή την απόσταση ανθίζουν οι πιο επικίνδυνες χρήσεις.
Το πιο ανησυχητικό δεν είναι το τι κάνουν οι μεγάλες εταιρείες, αλλά το πόσο λίγο το συζητάμε εμείς. Η δημόσια σφαίρα είναι γεμάτη από θαυμασμό για τα chatbot, τα productivity hacks, τις εφαρμογές που γράφουν ποιήματα. Πολύ λιγότερο μιλάμε για το πως αυτές οι ίδιες τεχνολογίες μπορούν για να ενισχύσουν την ισχύ ενός κράτους, να καταστείλουν μια εξέγερση, να επιβάλουν ένα νέο, αόρατο καθεστώς επιτήρησης.
Η τεχνητή νοημοσύνη δεν είναι ουδέτερη. Όπως όλα τα εργαλεία υπηρετεί αυτόν που τη χρησιμοποιεί — και συνήθως τον πιο ισχυρό. Το ερώτημα δεν είναι αν η AI θα γίνει πολεμικό όπλο. Ήδη είναι, ας το αποδεχτούμε …
Το ερώτημα είναι αν εμείς θα συνεχίσουμε να παριστάνουμε πως δεν το βλέπουμε.
➪ Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.
Δεν ήταν ποτέ αθώα η τεχνολογία. Από την πρώτη σπινθήρα φωτιάς μέχρι τους πυραύλους του Ψυχρού Πολέμου, κάθε καινοτομία ερχόταν με μια υπόσχεση ευημερίας και έναν υπαινιγμό καταστροφής. Σήμερα στο φως του φρενήρη αγώνα δρόμου για την Τεχνητή Νοημοσύνη (AI), η Silicon Valley αποκαλύπτει ξανά το βαθιά διχασμένο της πρόσωπο: από τη μια φιλανθρωπικά ιδρύματα και λογισμικά που υπόσχονται προσωπική βελτίωση, από την άλλη κλειστά συμβούλια, μαύρα κονδύλια, και συμφωνίες με το Πεντάγωνο.
Για όσους παρακολουθούν τις εξελίξεις στην εξέλιξη του χρόνου όλα τα παραπάνω δεν προκαλούν έκπληξη. Η συνεργασία εταιρειών όπως η Palantir, η Google και η Microsoft με τις αμερικανικές ένοπλες δυνάμεις δεν είναι απλή τεχνολογική υποστήριξη — είναι η επισημοποίηση ενός νέου “καθεστώτος”. Η Τεχνητή Νοημοσύνη παύει να είναι εργαλείο βελτιστοποίησης και γίνεται το επόμενο επίπεδο στον πόλεμο: αθόρυβο, αυτόνομο, χωρίς ευθύνη και κυρίως αποσυνδεδεμένο από τον ανθρώπινο ηθικό προβληματισμό.
Πριν λίγες εβδομάδες το Project Maven — ένα πρόγραμμα του αμερικανικού υπουργείου Άμυνας για την ενίσχυση της στοχευμένης επιτήρησης μέσω AI — απέκτησε νέα δυναμική. Η Google, αν και παλαιότερα προσπάθησε να αποστασιοποιηθεί ύστερα από εσωτερικές αντιδράσεις υπαλλήλων της επανήλθε μέσω της συνεργασίας της με την Anduril, μια από τις πιο φιλόδοξες νεοφυείς εταιρείες αμυντικής τεχνολογίας. Οι τεχνολογικές υποσχέσεις της Anduril δεν κρύβονται πίσω από κείμενα περί «βελτίωσης του κόσμου»: δημιουργεί αυτόνομα drones, ρομποτικά συστήματα επιτήρησης και λογισμικά πρόβλεψης κινήσεων “εχθρών” — ό,τι δηλαδή χρειάζεται ένας σύγχρονος πόλεμος που δεν διεξάγεται πια στα χαρακώματα, αλλά στα δίκτυα δεδομένων.
Στο μεταξύ η OpenAI — η εταιρεία πίσω από το ChatGPT — ετοιμάζει τη δική της απόβαση. Παρά το ιδρυτικό της καταστατικό που απαγορεύει τη χρήση της τεχνολογίας της σε στρατιωτικά πλαίσια, φήμες και ρεπορτάζ κάνουν λόγο για διαβουλεύσεις με κυβερνητικούς φορείς των ΗΠΑ υπό την επίβλεψη του ίδιου του Σαμ Άλτμαν. Ο νεαρός CEO εμφανίζεται σαν προφήτης και CEO μαζί: από τη μια μιλά για “ασφαλή τεχνητή γενική νοημοσύνη” και ταυτόχρονα συνδιαλέγεται με στρατηγούς.
Η πιο τρομακτική εξέλιξη ωστόσο, δεν είναι η χρήση της AI για σκοπούς κατασκοπείας ή επιτήρησης, αυτά είναι άλλωστε ήδη γνωστά. Είναι η μετάβαση σε αυτόνομα οπλικά συστήματα. Drones που δε χρειάζονται εντολή για να σκοτώσουν. Λογισμικά που αναγνωρίζουν «στόχους υψηλής προτεραιότητας» χωρίς ανθρώπινη επιβεβαίωση. Ο «αλγόριθμος που αποφασίζει ποιος ζει και ποιος πεθαίνει» δεν είναι πλέον δυστοπική υπερβολή, είναι ρεαλιστική εξέλιξη.
Όλα αυτά βέβαια χτίζονται πάνω σε ένα παράδοξο: η τεχνολογία της AI έχει αναπτυχθεί από ανθρώπους που δηλώνουν ειρηνόφιλοι, καινοτόμοι, φιλοσοφημένοι. Οι συνεντεύξεις των μεγάλων CEO είναι γεμάτες ανησυχίες για την κλιματική αλλαγή, την ισότητα, την ψυχική υγεία. Οι ίδιες εταιρείες όμως προμηθεύουν λογισμικά για συστήματα επιτήρησης μεταναστών στα σύνορα, για συστήματα αυτόματης αναγνώρισης προσώπου που χρησιμοποιούνται ενάντια σε διαδηλωτές, για data-mining σε στρατιωτικές επιχειρήσεις. Ο ηθικός διχασμός δεν είναι απλώς πρόβλημα φιλοσοφίας, είναι πολιτικό σκάνδαλο.
Η σιωπή των δημοκρατικών θεσμών είναι εκκωφαντική. Ποιος ελέγχει αυτές τις εξελίξεις; Ποιο κοινοβούλιο, ποιο διεθνές δικαστήριο, ποια σύμβαση οπλικών συστημάτων προβλέπει τι επιτρέπεται και τι όχι όταν το οπλικό σύστημα είναι «ευφυές»; Στην πραγματικότητα, καμία. Η τεχνολογική καινοτομία προηγείται της ηθικής ρύθμισης και σε αυτή την απόσταση ανθίζουν οι πιο επικίνδυνες χρήσεις.
Το πιο ανησυχητικό δεν είναι το τι κάνουν οι μεγάλες εταιρείες, αλλά το πόσο λίγο το συζητάμε εμείς. Η δημόσια σφαίρα είναι γεμάτη από θαυμασμό για τα chatbot, τα productivity hacks, τις εφαρμογές που γράφουν ποιήματα. Πολύ λιγότερο μιλάμε για το πως αυτές οι ίδιες τεχνολογίες μπορούν για να ενισχύσουν την ισχύ ενός κράτους, να καταστείλουν μια εξέγερση, να επιβάλουν ένα νέο, αόρατο καθεστώς επιτήρησης.
Η τεχνητή νοημοσύνη δεν είναι ουδέτερη. Όπως όλα τα εργαλεία υπηρετεί αυτόν που τη χρησιμοποιεί — και συνήθως τον πιο ισχυρό. Το ερώτημα δεν είναι αν η AI θα γίνει πολεμικό όπλο. Ήδη είναι, ας το αποδεχτούμε …
Το ερώτημα είναι αν εμείς θα συνεχίσουμε να παριστάνουμε πως δεν το βλέπουμε.
➪ Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.