Πολλοί άνθρωποι αποτυγχάνουν να συνειδητοποιήσουν πόσο γρήγορα επεκτείνεται η τεχνητή νοημοσύνη, και πόσο καταλυτική είναι η χρήση της στην εξέλιξη της κοινωνίας μας. Υπάρχει μία γενικευμένη αίσθηση, ότι η τεχνητή νοημοσύνη, είναι μόνο τα ρομπότ και όλη αυτή η τεχνολογία στα ερευνητικά κέντρα και δεν αγγίζει πτυχές της καθημερινότητάς μας. Τα συστήματα τεχνητής όμως νοημοσύνης είναι παντού στον σύγχρονο κόσμο, από τα smartphone, τις μηχανές αναζήτησης στο Διαδίκτυο, τους ψηφιακούς βοηθούς, ως και τον τρόπο που ψωνίζουμε από το διαδίκτυο.
Η ανθρωπότητα βιώνει μία μοναδική τεχνολογική επανάσταση. Η στροφή προς τον αυτοματισμό και την τεχνολογική εξάρτηση έχει αλλάξει δραματικά τον τρόπο συλλογής πληροφοριών, τον τρόπο επικοινωνίας, ακόμη και τον τρόπο εργασίας μας.
Για δισεκατομμύρια ανθρώπους, ο ψηφιακός μετασχηματισμός έχει φέρει τεράστια οφέλη και ευκολίες. Ωστόσο, οι υπεύθυνοι χάραξης πολιτικής και οι συμμετέχοντες στην αγορά δεν είναι εύκολο να κατανοήσουν τις πλήρεις οικονομικές και πολιτικές επιπτώσεις που μία τέτοια τεχνολογική επανάσταση μπορεί να επιφέρει. Αυτό αποτελεί μείζονα πρόκληση όταν πρόκειται για την αντιμετώπιση των κινδύνων που η τεχνολογία μπορεί να ενέχει για τους δημοκρατικούς θεσμούς και τα ατομικά μας δικαιώματα.
Η τεχνολογία από μόνη της είναι πολιτικά ουδέτερη. Μπορεί να χρησιμοποιηθεί στην υπηρεσία της δημοκρατίας και των αξιών της αλλά και από αυταρχικές κοινωνίες. Αποτελεί κινητήριο δύναμη της ανθρώπινης ιστορίας και εξέλιξης. Το πώς όμως διαμορφώνει τις κοινωνίες και τα πολιτικά συστήματα εξαρτάται από την εφαρμογή της από τις εταιρείες και τις κυβερνήσεις.
Οι πολιτικές δυνάμεις και το οικονομικό σύστημα της εκάστοτε κοινωνίας παίζουν καταλυτικό ρόλο στον καθορισμό της κατεύθυνσης αυτών των επιταχυνόμενων και ριζοσπαστικών τεχνολογιών, οι οποίες αναγνωρίζονται ολοένα και περισσότερο ως γεωπολιτική δύναμη. Με την συγκέντρωση πλούτου και επομένως επιρροής στις εταιρείες που κρατούν τα ηνία αυτών των τεχνολογιών, έχουν αυξηθεί πιεστικά τα ερωτήματα σχετικά με το απόρρητο, την προστασία των δεδομένων και τη στοχευμένη χειραγώγηση τόσο για οικονομικούς όσο και για πολιτικούς σκοπούς.
Ψηφιακή καταστολή και ανθρώπινα δικαιώματα
Η ψηφιακή τεχνολογία μπορεί να χρησιμοποιηθεί στην υπηρεσία φιλελεύθερων ή αυταρχικών κοινωνιών, για την ενίσχυση τόσο της κυβερνητικής λογοδοσίας όσο και των κατασταλτικών ικανοτήτων τους. Έχει οδηγήσει σε άνευ προηγουμένου πρόσβαση και ανταλλαγή πληροφοριών, και έχει ενισχύσει τη διάδοση παραπληροφόρησης και της προπαγάνδας, συμβάλλοντας έτσι πιθανώς στην άνοδο του λαϊκισμού και στην πόλωση των δημοκρατικών κοινωνιών.
Η έλευση της ψηφιακής καταστολής επηρεάζει βαθιά τη σχέση μεταξύ πολίτη και κράτους. Οι νέες τεχνολογίες εξοπλίζουν τις κυβερνήσεις με άνευ προηγουμένου δυνατότητες παρακολούθησης και επιτήρησης μεμονωμένων ανθρώπων. Τα συστήματα τεχνητής νοημοσύνης μπορούν να υποστηρίξουν άμεσα τον εγχώριο έλεγχο και την επιτήρηση, βοηθώντας τις δυνάμεις εσωτερικής ασφάλειας να επεξεργάζονται τεράστιες ποσότητες πληροφοριών – συμπεριλαμβανομένων αναρτήσεων στα μέσα κοινωνικής δικτύωσης, μηνυμάτων κειμένου, email και τηλεφωνημάτων – πιο γρήγορα και αποτελεσματικά.
Η αστυνομία μπορεί να εντοπίσει κοινωνικές τάσεις και συγκεκριμένα άτομα που ενδέχεται να απειλήσουν το καθεστώς με βάση τις πληροφορίες που αποκαλύπτονται από αυτά τα συστήματα. Ακόμη και οι κυβερνήσεις σε δημοκρατίες με ισχυρές παραδόσεις κράτους δικαίου μπαίνουν στον πειρασμό να κάνουν κατάχρηση αυτών των νέων ικανοτήτων. Σε κράτη με αυταρχικά καθεστώτα και συχνές παραβιάσεις των ανθρωπίνων δικαιωμάτων, τα συστήματα τεχνητής νοημοσύνης πιθανότατα θα προκαλέσουν μεγαλύτερη ζημιά.
Για παράδειγμα, οι αρχές στην Αίγυπτο, το Ιράκ, την Ιορδανία, τον Λίβανο και την Τυνησία έχουν ενσωματώσει την τεχνολογία στην αστυνόμευση των LGBT ατόμων. Έχουν συνδυάσει παραδοσιακές μεθόδους στόχευσης LGBT ατόμων με την ψηφιακή στόχευση—όπως η παγίδευση στα μέσα κοινωνικής δικτύωσης και εφαρμογές γνωριμιών, ο διαδικτυακός εκβιασμός, η διαδικτυακή παρενόχληση- ως τακτικές στόχευσης και δίωξης των LGBT ατόμων.
Η ηγεσία της Κίνας έχει αγκαλιάσει με ενθουσιασμό τις τεχνολογίες τεχνητής νοημοσύνης και έχει δημιουργήσει το πιο εξελιγμένο κράτος επιτήρησης στον κόσμο εξάγοντας αυτήν την τεχνολογία και σε άλλα κράτη. Συχνά, αυτή η τεχνολογία συσκευάζεται ως μέρος της εμβληματικής πρωτοβουλίας Belt and Road της Κίνας, η οποία χρηματοδοτεί ένα εκτεταμένο δίκτυο δρόμων, σιδηροδρόμων, αγωγών ενέργειας και τηλεπικοινωνιακών δικτύων που εξυπηρετούν το 60% του παγκόσμιου πληθυσμού και τις οικονομίες που παράγουν το 40% του παγκόσμιου ΑΕΠ.
Για παράδειγμα, κινεζικές εταιρείες όπως η Huawei και η ZTE κατασκευάζουν «έξυπνες πόλεις» στο Πακιστάν, τις Φιλιππίνες και την Κένυα, με εκτεταμένη ενσωματωμένη τεχνολογία επιτήρησης.
Η κινεζική κυβέρνηση έχει χρησιμοποιήσει την τεχνητή νοημοσύνη σε ευρείας κλίμακας καταστολές σε περιοχές που φιλοξενούν εθνοτικές μειονότητες εντός της Κίνας. Τα συστήματα επιτήρησης στο Σιντζιάνγκ και στο Θιβέτ αλλά και στην επαρχία Xinjiang, έχουν περιγραφεί ως «οργουελικά». Αυτές οι προσπάθειες περιλαμβάνουν υποχρεωτικά δείγματα DNA, παρακολούθηση δικτύου Wi-Fi και εκτεταμένες κάμερες αναγνώρισης προσώπου, όλες συνδεδεμένες με ολοκληρωμένες πλατφόρμες ανάλυσης δεδομένων
Χρήση τεχνολογιών για πρόβλεψη και χάραξη πολιτικής
Η τεχνητή νοημοσύνη και το δημοφιλές νέο εργαλείο τεχνητής νοημοσύνης ChatGPT έχουν τη δυνατότητα να επηρεάσουν τη ζωή μας. Ωστόσο, πίσω από την δημιουργία κειμένων, άρθρων πολιτικής, απαντήσεις σε επιστημονικά και φιλοσοφικά ερωτήματα και εκατομμύρια άλλες δυνατότητες αυτής της σαγηνευτικής τεχνολογίας, υπάρχει κάτι που τα περίπλοκα συστήματα τεχνητής νοημοσύνης κάνουν: η πρόβλεψη. Πίσω από κάθε τέτοιο νευρωνικό δίκτυο υπάρχουν στην πραγματικότητα μορφές μηχανικής μάθησης στις οποίες οι αλγόριθμοι μαθαίνουν να προβλέπουν συγκεκριμένα αποτελέσματα από τα μοτίβα και τις δομές σε τεράστια σύνολα δεδομένων. Δεδομένων που η ανθρώπινη δραστηριότητα έχει παραχωρήσει.
Αυτό έχει σημασία γιατί οι περισσότεροι από τους κινδύνους που ενέχουν αυτά τα συστήματα δεν έχουν καμία σχέση με τα ρομπότ που καταλαμβάνουν τον κόσμο ή τα συστήματα τεχνητής νοημοσύνης που μπορούν να σκεφτούν μόνα τους τους. Έχουν να κάνουν με το τι, πώς, πότε και γιατί πρέπει να χρησιμοποιούμε ισχυρά προγνωστικά εργαλεία στα συστήματα λήψης αποφάσεων των πολιτικών, κοινωνικών και οικονομικών οργανισμών μας.
Πώς, αν όχι καθόλου, θα πρέπει να χρησιμοποιήσουμε την πρόβλεψη για να αποφασίσουμε ποιος παίρνει δάνειο ή υποθήκη, σε ποιες γειτονιές στέλνονται αστυνομικοί, ποιες κατηγορίες για κακοποίηση παιδιών και παραμέληση να διερευνήσουν, ή ποιες αναρτήσεις να αφαιρεθούν ή αποτελέσματα να εμφανιστούν στο Facebook;
Για παράδειγμα, η αστυνομία των ΗΠΑ χρησιμοποιεί λογισμικό που μπορεί να προβλέψει πού θα συμβούν εγκλήματα για να αποφασίσουν πού θα στείλουν αξιωματικούς σε περιπολία. Χρησιμοποιούν επίσης αναγνώριση προσώπου και ανάλυση DNA σε ποινικές έρευνες. Αλλά οι αναλύσεις αυτών των συστημάτων δείχνουν ότι τα δεδομένα στα οποία εκπαιδεύονται αυτά τα συστήματα είναι συχνά μεροληπτικά, οδηγώντας σε άδικα αποτελέσματα, όπως ο ψευδής προσδιορισμός ότι οι Αφροαμερικανοί είναι πιο πιθανό να διαπράξουν εγκλήματα από άλλες ομάδες.
Αυτό μας φέρνει αντιμέτωπους για μία ακόμη φορά με μία σημαντική πρόκληση στη δημοκρατία: την εξασφάλιση ουσιαστικής ισότητας μεταξύ των πολιτών. Όταν οι επιτροπές αποφυλάκισης υπό όρους στις Ηνωμένες Πολιτείες άρχισαν να χρησιμοποιούν δεδομένα για να προβλέψουν τον κίνδυνο υποτροπής, πέρασαν σε έναν αιώνα ρατσισμού που αποτυπώθηκε σε δεδομένα. Ιστορίες προκαταλήψεων στο αμερικανικό σύστημα ποινικής δικαιοσύνης καταγράφονται στα δεδομένα που χρησιμοποιούνται για την εκπαίδευση αλγορίθμων μηχανικής μάθησης και αυτοί οι αλγόριθμοι μπορούν στη συνέχεια να αναπαράγουν και εδραιώνουν τα υποκείμενα πρότυπα αδικίας.
Χρήση νέων τεχνολογιών από παρακρατικές οργανώσεις
Τα τελευταία χρόνια, εξτρεμιστικές οργανώσεις έχουν πειραματιστεί με την παραγωγή νέων μορφών προπαγανδιστικού περιεχομένου, μεταβαίνοντας από την παραγωγή απλών βίντεο και περιοδικών στη δημιουργία βιντεοπαιχνιδιών, περιεχομένου μέσων κοινωνικής δικτύωσης, ακόμη και μουσικής. Η τεχνολογική καινοτομία τα τελευταία είκοσι χρόνια επέτρεψε σε εξτρεμιστικές οργανώσεις να έχουν πρόσβαση σε νέα εργαλεία όπως εξελιγμένο λογισμικό επεξεργασίας, μικρόφωνα και κάμερες για την παραγωγή προπαγάνδας τύπου Χόλιγουντ.
Τρομοκρατικές οργανώσεις χρησιμοποιούν νεότερες μορφές ψηφιακών μέσων για την προπαγάνδα τους που επιτρέπουν στους στόχους να αλληλοεπιδρούν άμεσα με το περιεχόμενο με νέους τρόπους. Για παράδειγμα, παιχνίδια που αναπτύχθηκαν πρόσφατα από νεοναζιστικές ομάδες ενθαρρύνουν τους παίκτες να εμπλακούν σε βίαιη συμπεριφορά έναντι των μειονοτήτων από την οπτική γωνία του σκοπευτή πρώτου προσώπου (FPS). Άλλες εξτρεμιστικές ομάδες τροποποιούν τη μορφή υπαρχόντων παιχνιδιών.
Κάνοντας αλλαγές στη γεωγραφία, τους χαρακτήρες και την αισθητική δημοφιλών παιχνιδιών όπως το Super Mario και το Doom, μπορούν να εξάγουν τις ιδεολογίες τους και να ενθαρρύνουν την ταύτιση των παικτών με βίαια avatars σε γνωστά στην αγορά παιχνίδια. Σε αντίθεση με την προπαγάνδα του παρελθόντος όπου ένα κοινό αλληλεπιδρούσε με εξτρεμιστές ηθοποιούς βλέποντας βία μέσω βίντεο ή εικόνων, οι νεότερες μορφές επιτρέπουν στο κοινό να συμμετέχει σε προσομοιωμένες πράξεις ρατσιστικής βίας με έναν πιο «διαδραστικό» τρόπο.
Χειραγώγηση της κοινής γνώμης
Οι προσπάθειες χειραγώγησης της κοινής γνώμης χρησιμοποιώντας τα μέσα κοινωνικής δικτύωσης και τις αναδυόμενες τεχνολογίες επικοινωνίας πληροφοριών (ΤΠΕ) συνεχίζουν να πολλαπλασιάζονται διεθνώς.
Κυβερνήσεις, εταιρείες, εξτρεμιστικές ομάδες και μια ευρεία ποικιλία άλλων οντοτήτων σε όλο τον κόσμο χρησιμοποιούν αυτοματοποιημένα ρομπότ όσο και ανώνυμους ανθρώπινους λογαριασμούς «sockpuppet» (μαριονέτα) σε προσπάθειες να ενισχύσουν και να καταστείλουν συγκεκριμένες ροές πληροφοριών κατά τη διάρκεια εκλογών, κρίσεων ασφαλείας και άλλων κρίσιμων γεγονότων . Χρησιμοποιούν αυτά τα ίδια εργαλεία για να σπείρουν παραπληροφόρηση και να συμμετέχουν σε οργανωμένες εκστρατείες πολιτικής χειραγώγησης. Ουσιαστικά, οι προσπάθειες χειραγώγησης που πραγματοποιούνται μέσω του Διαδικτύου αφορούν προσπάθειες που συνδυάζουν συντονισμένους ανθρώπινους χρήστες και λογισμικό τεχνητής νοημοσύνης.
Αν δούμε μερικά από τα μεγαλύτερα ζητήματα και εκστρατείες των τελευταίων ετών -εκλογές σε εθνικό επίπεδο, ψήφος για το Brexit, ακόμη και συζήτηση γύρω από τους περιορισμούς του κορωνοϊού- υπάρχει ένα σταθερό στοιχείο που μοιράζονται όλα: η παρουσία της πολιτικής προπαγάνδας. Καθοδηγούμενη από το μεταβαλλόμενο τοπίο των μέσων ενημέρωσης και την άνοδο των μέσων κοινωνικής δικτύωσης, η πολιτική προπαγάνδα δεν χρησιμοποιήθηκε ποτέ περισσότερο.
Πρόσφατα αποκαλύφθηκε η δράση μίας ομάδας με την κωδική ονομασία «Team Jorge» προσφέρει υπηρεσίες hacking, παραπληροφόρησης και επηρεασμού των εκλογικών διαδικασιών σε πάνω από 30 χώρες. Μέσω του hacking, του σαμποτάζ και της αυτοματοποιημένης παραπληροφόρησης στα μέσα κοινωνικής δικτύωσης φαίνεται να έχει παρέμβει σε πάνω από 30 εκλογές παγκοσμίως εργαλειοποιώντας την παραπληροφόρηση μέσω ενός στρατού χιλιάδων ψεύτικων προφίλ στα μέσα κοινωνικής δικτύωσης
Οι πολιτικές δεν πρέπει να διαμορφώνονται από τις ανάγκες των νέων τεχνολογιών τεχνητής νοημοσύνης.
Η τεχνητή νοημοσύνη υπάρχει ως ανθρώπινο εργαλείο και η απώλεια του ανθρωποκεντρισμού της κινδυνεύει περαιτέρω «να επιδεινώσει τις ανισότητες εντός και μεταξύ των κρατών». Οι κυβερνήσεις καλούνται να ενημερώσουν τους κανονισμούς, τους κανόνες ανταγωνισμού και να ενισχύσουν την εποπτεία προκειμένου να εκπληρωθούν οι νέες απαιτήσεις της παγκόσμιας ψηφιακής οικονομίας.
Οι εταιρείες καλούνται να διασφαλίσουν ότι τα επιχειρηματικά τους μοντέλα και προϊόντα είναι συμβατά με τα συνταγματικά δικαιώματα των χρηστών και την ακεραιότητα των δημοκρατικών θεσμών και διαδικασιώνς. Είναι επίσης σημαντικό, οι πολίτες να εκπαιδεύονται ψηφιακά, ώστε να κατανοούν καλύτερα τους αλγόριθμους/σχέδια πίσω από εφαρμογές/συσκευές και την υποκείμενη χρήση της τεχνολογίας δεδομένων.
Η τεχνητή νοημοσύνη θα πρέπει να χρησιμοποιείται για την αποκάλυψη διαφθοράς και την αποδόμηση της προπαγάνδας προσφέροντας καλύτερα αποτελέσματα για τους πολίτες. Είναι σημαντικό η ανάπτυξη της να γίνει ευέλικτη και να προσαρμοστεί στις ανάγκες του ανθρώπου αντί να διαμορφώνει και να διαμορφώνεται από οργανισμούς που εξυπηρετούν αυτό που ταιριάζει καλύτερα στον αλγόριθμο.