To 2026 η τεχνολογία προχωρά πιο γρήγορα από την πολιτική, το δίκαιο και την ηθική. Βιώνουμε ακριβώς σε μια τέτοια στιγμή. Η τεχνητή νοημοσύνη και τα φθηνά drones αλλάζουν ήδη τον τρόπο που γίνονται οι πόλεμοι και το κάνουν με μια ταχύτητα που καμία διεθνής συνθήκη δεν μπορεί να προλάβει.Το πρόβλημα είναι βαθιά πολιτικό και ηθικό.
Σήμερα τα σύγχρονα στρατιωτικά συστήματα χρησιμοποιούν όλο και περισσότερο αλγορίθμους για να επεξεργάζονται τεράστιες ποσότητες δεδομένων: δορυφορικές εικόνες, πληροφορίες παρακολούθησης, επικοινωνίες. Η τεχνητή νοημοσύνη μπορεί να εντοπίζει πιθανούς στόχους, να προτείνει επιθέσεις και να προσομοιώνει σενάρια μάχης. Στην πράξη λειτουργεί ως σύστημα “υποστήριξης αποφάσεων”. Στη θεωρία ο άνθρωπος εξακολουθεί να κρατά τον τελικό έλεγχο, στην πράξη όμως τα πράγματα είναι πιο σύνθετα.
Όταν ένα σύστημα τεχνητής νοημοσύνης επεξεργάζεται δεδομένα σε κλάσματα δευτερολέπτου και προτείνει στόχους με βάση αλγοριθμικές πιθανότητες, πόσο πραγματικά μπορεί ένας άνθρωπος να αμφισβητήσει αυτή την πρόταση; Η ταχύτητα της τεχνολογίας δημιουργεί ένα περιβάλλον όπου η ανθρώπινη κρίση μετατρέπεται σταδιακά σε απλή επιβεβαίωση.
Πριν από λίγα χρόνια, τα μη επανδρωμένα αεροσκάφη (drones) ήταν όπλα που χρησιμοποιούσαν κυρίως μεγάλες στρατιωτικές δυνάμεις. Σήμερα μπορούν να αγοραστούν, να συναρμολογηθούν ή ακόμη και να κατασκευαστούν με έναν τρισδιάστατο εκτυπωτή. Ένα drone μπορεί να κοστίζει μόλις μερικές χιλιάδες δολάρια κι όμως μπορεί να προκαλέσει ζημιές σε στρατιωτικές εγκαταστάσεις, ενεργειακές υποδομές ή ακόμη και σε πόλεις.
Η οικονομία του πολέμου αλλάζει.
Η τεχνολογία που κάποτε απαιτούσε τεράστιους στρατιωτικούς προϋπολογισμούς τώρα βρίσκεται στα χέρια μικρών κρατών, παραστρατιωτικών ομάδων ή ακόμη και εγκληματικών οργανώσεων. Αυτό δημιουργεί έναν νέο τύπο σύγκρουσης: πιο ασύμμετρο, διάχυτο και δύσκολο να ελεγχθεί. Ο πόλεμος γίνεται φθηνότερος κι όταν ο πόλεμος γίνεται φθηνότερος, γίνεται και πιο πιθανός.
Τα drones έχουν ήδη αλλάξει τον τρόπο διεξαγωγής πολέμων σε περιοχές όπως η Ουκρανία, η Μέση Ανατολή ή η Αφρική. Χιλιάδες μικρά μη επανδρωμένα συστήματα μπορούν να λειτουργήσουν σαν σμήνος, να επιτίθενται ταυτόχρονα και να προκαλούν ζημιές δυσανάλογες με το κόστος τους. Η επόμενη φάση είναι ακόμη πιο ανησυχητική κι αφορά την ενσωμάτωση τεχνητής νοημοσύνης στα drones.
Ένα αυτόνομο drone δεν χρειάζεται χειριστή. Μπορεί να πλοηγηθεί μόνο του, να αναγνωρίσει στόχους και να επιτεθεί με ακρίβεια. Αυτό δεν είναι επιστημονική φαντασία, αποτελεί ήδη αντικείμενο στρατιωτικής έρευνας σε πολλές χώρες.
Η ιστορία των σύγχρονων συγκρούσεων δείχνει ότι ακόμη και τα πιο εξελιγμένα συστήματα κάνουν λάθη. Αλγόριθμοι μπορούν να ταυτοποιήσουν λανθασμένα έναν στόχο. Δεδομένα μπορεί να είναι ελλιπή ή παραπλανητικά. Ένα λάθος μπορεί να οδηγήσει σε πλήγματα σε σχολεία, νοσοκομεία ή κατοικημένες περιοχές. Όταν η απόφαση λαμβάνεται από έναν άνθρωπο, υπάρχει ευθύνη, όταν η απόφαση προκύπτει από έναν αλγόριθμο, η ευθύνη γίνεται θολή.
Οι στρατιωτικοί μπορούν να ισχυριστούν ότι βασίστηκαν στις αναλύσεις του συστήματος. Οι προγραμματιστές μπορούν να πουν ότι ο αλγόριθμος λειτουργεί βάσει δεδομένων που δεν ελέγχουν. Το κράτος μπορεί να επικαλεστεί τις συνθήκες πολέμου.
Έτσι δημιουργείται ένα επικίνδυνο κενό λογοδοσίας.
Το πρόβλημα επιτείνεται από το γεγονός ότι η ανάπτυξη αυτών των τεχνολογιών προχωρά ταχύτερα από οποιοδήποτε διεθνές ρυθμιστικό πλαίσιο. Δεν υπάρχουν σαφείς παγκόσμιοι κανόνες για τη χρήση της τεχνητής νοημοσύνης στα όπλα. Οι διεθνείς οργανισμοί συζητούν, αλλά οι στρατιωτικές επενδύσεις συνεχίζονται με εντατικούς ρυθμούς κι αυτό οδηγεί σε μια νέα μορφή εξοπλιστικής κούρσας.
Κάθε μεγάλη δύναμη φοβάται ότι αν καθυστερήσει, οι αντίπαλοί της θα αποκτήσουν τεχνολογικό πλεονέκτημα. Το αποτέλεσμα είναι μια παγκόσμια πίεση για ταχύτερη ανάπτυξη όπλων τεχνητής νοημοσύνης, συχνά χωρίς επαρκείς δοκιμές ή ηθικούς περιορισμούς.
Η ιστορία μας έχει διδάξει ότι οι εξοπλιστικές κούρσες σπάνια οδηγούν σε σταθερότητα, συνήθως οδηγούν σε μεγαλύτερους κινδύνους.
Το παράδοξο είναι ότι η τεχνητή νοημοσύνη δημιουργήθηκε για να επεκτείνει τις ανθρώπινες δυνατότητες. Να βοηθήσει στην ιατρική, στην επιστήμη, στην κατανόηση του κόσμου. Σήμερα όμως χρησιμοποιείται όλο και περισσότερο για να αυτοματοποιήσει την πιο σκοτεινή ανθρώπινη δραστηριότητα: τη βία. Όσο η τεχνολογία προχωρά, τόσο πιο δύσκολο γίνεται να επαναφέρουμε τον έλεγχο.
Η πραγματική πρόκληση των επόμενων ετών δεν θα είναι τεχνολογική, θα είναι πολιτική. Οι κοινωνίες θα πρέπει να αποφασίσουν αν θέλουν έναν κόσμο όπου οι πόλεμοι καθοδηγούνται από αλγορίθμους και αυτόνομα όπλα ή έναν κόσμο όπου η ανθρώπινη κρίση παραμένει στο κέντρο των αποφάσεων ζωής και θανάτου.
*Με στοιχεία από το Rest of World
➪ Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram





