Από τα σύνορα του Μεξικού μέχρι τις γειτονιές της Δυτικής Όχθης και της Ιερουσαλήμ, εξελιγμένα συστήματα της τεχνητής νοημοσύνης χρησιμοποιούνται εδώ και χρόνια για την καταστολή και τον έλεγχο του πληθυσμού. Αμυντικά συστήματα, δίκτυα αναγνώρισης και ελέγχου, βιομετρικά δεδομένα, θερμικές κάμερες, μη επανδρωμένα drones, ρομπότ που περιορίζουν τις μετακινήσεις και τη μετανάστευση, έχουν ενισχύει τα τελευατία χρόνια τις κυβερνητικές προσπάθειες επιτήρησης και περιορισμού.
Το Ισραήλ έχει από καιρό ενσωματώσει στην στρατιωτική του πρακτική, τεχνολογία Τεχνητής Νοημοσύνης που ισχυροποιεί το σύστημα απαρτχάιντ που έχουν δημιουργήσει στα παλαιστινιακά εδάφη. Σύμφωνα με μία έκθεση της Διεθνούς Αμνηστίας , χρησιμοποιούν ένα πειραματικό σύστημα αναγνώρισης προσώπου, γνωστό ως Red Wolf, για να παρακολουθούν τον Παλαιστινιακό λαό και να αυτοματοποιούν σκληρούς περιορισμούς στην ελευθερία μετακίνησής τους. Το “Αυτοματοποιημένο απαρτχάιντ“, όπως ονομάζει και την έκθεσή της η Διεθνής Αμνηστία, είναι το πιο πρόσφατο παράδειγμα της παγκόσμιας εξάπλωσης των συστημάτων μαζικής παρακολούθησης, τα οποία βασίζονται σε συστήματα Τεχνητής Νοημοσύνης για να μάθουν να αναγνωρίζουν τα πρόσωπα των ανθρώπων με βάση τα μεγάλα αποθέματα εικόνων.
Τεχνητή Νοημοσύνη στις εναέριες επιθέσεις
Οι Ισραηλινές Αμυντικές Δυνάμεις (IDF) αξιοποιούν πλέον τις νέες τεχνολογίες όμως και στην διεξαγωγή πολέμου. Μετά τον πόλεμο των 11 ημερών στη Γάζα τον Μάιο του 2021, αξιωματούχοι δήλωσαν ότι το Ισραήλ πολέμησε τον «πρώτο του πόλεμο τεχνητής νοημοσύνης» χρησιμοποιώντας μηχανική μάθηση και προηγμένους υπολογιστές. Ο τελευταίος πόλεμος Ισραήλ-Χαμάς έδωσε μια άνευ προηγουμένου ευκαιρία στον IDF να χρησιμοποιήσει τέτοια εργαλεία σε ένα πολύ ευρύτερο θέατρο επιχειρήσεων.
Η πιο πρόσφατη προσθήκη στη φαρέτρα των δυνάμεων τους αποτελεί ένα σύστημα τεχνητής νοημοσύνης που ονομάζεται “Habsora” (στα εβραϊκά σημαίνει “Ευαγγέλιο”).
Το σύστημα φέρεται να στοχεύει στην εύρεση περισσότερων στόχων για βομβαρδισμούς, στη σύνδεση τοποθεσιών με στελέχη της Χαμάς και στην εκτίμηση του πιθανού αριθμού θανάτων αμάχων εκ των προτέρων. Αυτό το σύστημα αύξησε δραματικά τον ρυθμό αναγνώρισης στόχων, επιτρέποντας στις Ισραηλινές Αμυντικές Δυνάμεις για πρώτη φορά, που επιχειρούν στο έδαφος της Λωρίδας της Γάζας «να τροφοδοτούνται άμεσα για στόχους που υπολογίστηκαν σύμφωνα με το ενημερωμένο επιχειρησιακό σχέδιο.»
Πρόκειται για μία πλατφόρμα ουσιαστικά δημιουργίας στόχων τεχνητής νοημοσύνης που έχει επιταχύνει σημαντικά μια θανατηφόρα γραμμή παραγωγής στόχων που οι αξιωματούχοι έχουν συγκρίνει με ένα «εργοστάσιο μαζικών δολοφονιών».
Πώς όμως παράγει το σύστημα αυτούς τους στόχους;
Το κάνει μέσω πιθανολογικής συλλογιστικής που προσφέρεται από αλγόριθμους μηχανικής μάθησης. Μαθαίνουν αναζητώντας μοτίβα σε τεράστιους σωρούς δεδομένων και η επιτυχία τους εξαρτάται από την ποιότητα και την ποσότητα των δεδομένων.
Το “Ευαγγέλιο” αξιοποιεί τη μηχανική μάθηση για να αναλύει και να ερμηνεύει τεράστιες ποσότητες δεδομένων και να βελτιώνει συνεχώς την ικανότητά του να εντοπίζει στόχους, μαθαίνοντας από προηγούμενα στοιχεία συμπεριλαμβανομένων των πλάνων από drones, των δεδομένων παρακολούθησης και των υποκλοπών επικοινωνιών (οι Ισραηλινές Δυνάμεις το έχουν τροφοδοτήσει με μία λίστα που παρουσιάζει μεταξύ 30.000 και 40.000 ύποπτων μαχητών). Σύμφωνα με στοιχεία που δημοσίευσε ο IDF τον Νοέμβριο, κατά τις πρώτες 35 ημέρες του πολέμου το Ισραήλ επιτέθηκε σε 15.000 στόχους στη Γάζα, αριθμός που είναι σημαντικά υψηλότερος από προηγούμενες στρατιωτικές επιχειρήσεις στην πυκνοκατοικημένη παράκτια περιοχή. Συγκριτικά, στον πόλεμο του 2014, ο οποίος διήρκεσε 51 ημέρες, ο Ισραηλινός Στρατός χτύπησε μεταξύ 5.000 και 6.000 στόχους.
Πολλές πηγές είπαν στον Guardian και ότι όταν εγκρίθηκε ένα χτύπημα σε ιδιωτικές κατοικίες ατόμων που προσδιορίστηκαν ως στελέχη της Χαμάς ή της Ισλαμικής Τζιχάντ, οι ερευνητές- αξιωματούχοι γνώριζαν εκ των προτέρων τον αριθμό των αμάχων που αναμενόταν να σκοτωθούν. Κάθε στόχος, είπαν, είχε έναν φάκελο που περιείχε έναν δείκτη παράπλευρων ζημιών που όριζε πόσοι άμαχοι ήταν πιθανό να σκοτωθούν σε μια επίθεση.
Μια πηγή που εργάστηκε μέχρι το 2021 στον σχεδιασμό επιθέσεων για το IDF είπε ότι «η απόφαση για το χτύπημα λαμβάνεται από τον διοικητή της μονάδας υπηρεσίας».
Υπήρξαν περιπτώσεις όπου «υπήρχαν αμφιβολίες για έναν στόχο» και «σκοτώσαμε θεωρώ δυσανάλογο αριθμό αμάχων».
Από 50 στόχους το χρόνο, σε 100 τη μέρα
Η τεχνητή νοημοσύνη αντιπροσωπεύει έναν πολλαπλασιαστή δύναμης με ικανότητα αναμόρφωσης των κανόνων του πολέμου. Τα όπλα γίνονται διαρκώς πιο «έξυπνα» και καταστροφικά, ενώ προβλέπεται ότι θα συνεχίσουν να κινούνται ολοένα και περισσότερο προς αυτή την κατεύθυνση. Το λογισμικό στόχευσης του Ισραήλ είναι ένα παράδειγμα αυτής της πολλαπλασιαστικης δύναμης και της επιτάχυνσης στην επεξεργασία δεδομένων .
Ένας πρώην επικεφαλής του IDF είπε ότι οι αναλυτές ανθρώπινης νοημοσύνης μπορεί να παράγουν 50 στόχους βομβαρδισμού στη Γάζα κάθε χρόνο, αλλά το σύστημα Habsora μπορεί να παράγει 100 στόχους την ημέρα, μαζί με συστάσεις σε πραγματικό χρόνο για το σε ποιους πρέπει να επιτεθούν.
Προβληματισμοί σχετικά με το “Ευαγγέλιο”
Οι αλγόριθμοι μηχανικής μάθησης όπως είπαμε μαθαίνουν μέσω δεδομένων και κάνουν συστάσεις με βάση πιθανότητες που βασίζονται στην αντιστοίχιση προτύπων. Εάν ένα άτομο έχει αρκετές ομοιότητες με άλλα άτομα που χαρακτηρίζονται ως εχθροί μαχητές, μπορεί να χαρακτηριστούν και οι ίδιοι μαχητές.
Επιπλέον, η διαφορά μεταξύ ενός μαχητή και ενός αμάχου είναι σπάνια δεδομένη. Ακόμη και οι άνθρωποι συχνά δεν μπορούν να ξεχωρίσουν ποιος είναι και ποιος δεν είναι μαχητής. Η τεχνολογία δεν αλλάζει αυτή τη θεμελιώδη αλήθεια. Συχνά οι κοινωνικές κατηγορίες και έννοιες δεν είναι αντικειμενικές, αλλά η υπολογιστική όραση και οι αλγόριθμοι είναι πιο αποτελεσματικά σε προβλέψιμα περιβάλλοντα όπου οι έννοιες είναι αντικειμενικές, εύλογα σταθερές και συνεπείς με βάση τα κριτήρια που του έχουν τεθεί.
Για ορισμένους ειδικούς που ερευνούν την τεχνητή νοημοσύνη και το διεθνές ανθρωπιστικό δίκαιο, μια επιτάχυνση αυτού του είδους εγείρει μια σειρά από ανησυχίες. Πολλοί αναλυτές και ερευνητές μάλιστα έχουν υποστηρίξει ότι πρέπει να καταβληθούν προσπάθειες για να διασφαλιστεί ότι η ανάπτυξη τέτοιων τεχνολογιών διέπεται από ηθικές αρχές και κανονισμούς για να αποτραπεί η κακή χρήση τους.
- Μπορούν τα αυτόνομα όπλα, όπως ορίζει το διεθνές δίκαιο, να διακρίνουν μεταξύ μαχητών και αμάχων;
- Ποιος φέρει την ευθύνη εάν ένα όπλο που λειτουργεί με τεχνητή νοημοσύνη προκαλεί ακούσια βλάβη;
- Είναι ηθικό να αναθέτουμε αποφάσεις που αφορούν τη ζωή και τον θάνατο σε μηχανές;
Αυτές οι ανησυχίες υπογραμμίζουν την ανάγκη για ένα ηθικό πλαίσιο που διέπει τη χρήση της τεχνητής νοημοσύνης στον πόλεμο κάτι που αποτελεί τεράστια πρόκληση λόγω της τεχνικής πολυπλοκότητάς της, της ταχείας εξέλιξης και της ευρείας εφαρμογής της σε πολλούς κλάδους. Ζούμε σε μια εποχή άδικων πολέμων και στρατιωτικών κατοχών, κατάφωρων παραβιάσεων των ανθρωπίνων δικαιωμάτων και των κανόνων εμπλοκής. Σε αυτό το πλαίσιο, η συμπερίληψη της τεχνητής νοημοσύνης στον πόλεμο μπορεί να προσθέσει νέες προκλήσεις που επιδεινώνουν, αντί να αποτρέπουν, την περαιτέρω ζημιά.
Ανωνυμία και αποσύνδεση
Τα συστήματα τεχνητής νοημοσύνης διευκολύνουν τους διεθνείς δρώντες που διεξάγουν πολέμους να παραμείνουν ανώνυμοι και δίνουν τη δυνατότητα να καταστήσουν αόρατη την πηγή της βίας ή τις αποφάσεις που οδηγούν σε αυτήν. Επιπλέον, η χρήση ολοένα και πιο προηγμένης και έξυπνης τεχνολογίας μπορεί να οδηγήσει σε μία αυξανόμενη αποσύνδεση μεταξύ στρατών, στρατιωτών και αμάχων αναδιαμορφώνοντας το χαρακτήρα του πολέμου και καθιστώντας ευκολότερη την έναρξη και συμμετοχή σε μια σύγκρουση καθώς η ενσυναίσθηση και η ανθρώπινη λογική θα περιττεύουν σε ένα μηχανικά σχεδιασμένο πόλεμο. Ως πολύπλοκα και κατανεμημένα συστήματα, μπορεί επίσης να δυσκολέψουν τη σηματοδότηση των προθέσεων κάποιου – ή την ερμηνεία των προθέσεων ενός αντιπάλου – στο πλαίσιο μιας κλιμακούμενης σύγκρουσης.
Πόσο μπορούμε να εμπιστευόμαστε τις μηχανές;
Μπορεί επίσης να αυξήσουν την τάση του ανθρώπου να εμπιστεύεται τις προτάσεις από μηχανές (αυτό επισημαίνεται από το σύστημα “Habsora”, που πήρε το όνομά του από τον αλάνθαστο λόγο του Θεού), ενισχύοντας ακόμα περισσότερο τις ανησυχίες σχετικά με το πόσο μπορούμε να εμπιστευόμαστε τα αυτόνομα συστήματα. Τα όρια ενός συστήματος τεχνητής νοημοσύνης που αλληλεπιδρά με άλλες τεχνολογίες και με ανθρώπους μπορεί να μην είναι σαφή και μπορεί να μην υπάρχει τρόπος να γνωρίζουμε ποιος ή τι έχει «συντάξει» τα αποτελέσματά του, ανεξάρτητα από το πόσο αντικειμενικά και ορθολογικά μπορεί να φαίνονται.
Η Dr Marta Bo, ερευνήτρια στο Διεθνές Ινστιτούτου Ερευνών για την Ειρήνη της Στοκχόλμης, υποστηρίζει ότι υπάρχει κίνδυνος να αναπτύξουν «προκατάληψη αυτοματισμού» και «να βασίζονται υπερβολικά σε συστήματα που έχουν υπερβολική επιρροή πάνω σε περίπλοκες ανθρώπινες αποφάσεις».
Ο Richard Moyes, ένας ερευνητής που ηγείται του Άρθρου 36, μιας ομάδας που κάνει εκστρατείες για να μειώσει τη ζημιά από τα όπλα, είπε ότι όταν βασίζεται σε εργαλεία όπως το Ευαγγέλιο, ένας διοικητής «λαμβάνει μια λίστα στόχων που έχει δημιουργήσει ένας υπολογιστής» και «δεν γνωρίζει απαραίτητα πώς δημιουργήθηκε η λίστα ή έχει την ικανότητα να εξετάσει επαρκώς και να αμφισβητεί τις συστάσεις στόχευσης».
«Υπάρχει κίνδυνος», πρόσθεσε, «καθώς οι άνθρωποι βασίζονται σε αυτά τα συστήματα, να γίνονται γρανάζια σε μια μηχανοποιημένη διαδικασία και χάνουν την ικανότητα να εξετάζουν τον κίνδυνο ζημίας από τους πολίτες με ουσιαστικό τρόπο».