Η Τεχνητή Νοημοσύνη εισβάλλει με σιωπηλά βήματα σε κάθε πτυχή της ζωής μας κι όμως όταν φτάνει στις αίθουσες των δικαστηρίων προκαλεί έναν εκκωφαντικό θόρυβο. Όχι γιατί μιλά, αλλά γιατί κανείς δεν ξέρει ακόμα πώς να της απαντήσει. Οι δικαστές, οι εισαγγελείς, οι αστυνομικοί και οι νομοθέτες προσπαθούν να ορίσουν κάτι που μεταβάλλεται πιο γρήγορα κι από τον ίδιο τον νόμο: μια νέα πραγματικότητα όπου το “έγκλημα” μπορεί να έχει δημιουργό μια μηχανή.
Η Λατινική Αμερική είναι το πιο πρόσφατο πεδίο αυτής της μάχης ανάμεσα στην τεχνολογία και τη δικαιοσύνη. Το καλοκαίρι του 2023 όταν ο Κολομβιανός υποψήφιος πρόεδρος Μιγκέλ Ουρίμπε Τουρμπάι δέχτηκε πυροβολισμούς σε προεκλογική συγκέντρωση εκατοντάδες βίντεο του περιστατικού κατέκλυσαν το διαδίκτυο. Πολλά απ’ αυτά ήταν deepfakes, δηλαδή βίντεο κατασκευασμένα από αλγορίθμους που παρουσίαζαν ψεύτικες εκδοχές της επίθεσης. Οι εισαγγελείς χρειάστηκαν ώρες για να ξεχωρίσουν το αληθινό από το πλαστό. Μόνο όταν οι ειδικοί απέδειξαν την απάτη, κατάφεραν να ασκήσουν δίωξη σε έναν ανήλικο.
Το περιστατικό αυτό άνοιξε ένα νέο κεφάλαιο για τη δικαιοσύνη: ποιος ευθύνεται όταν το ψέμα έχει φτιαχτεί από μηχανή και κυρίως πώς μπορεί να αποδειχθεί το ψέμα, όταν είναι σχεδόν τέλειο;
Η αυξανόμενη χρήση εργαλείων τεχνητής νοημοσύνης μεταμορφώνει τη δικαιοσύνη στη Λατινική Αμερική, αλλά και αποκαλύπτει τις αδυναμίες της. Από τη μία τα δικαστήρια και οι αρχές βλέπουν το AI ως σύμμαχο, ένα εργαλείο που μπορεί να μειώσει την καθυστέρηση των υποθέσεων, να βοηθήσει στην τεκμηρίωση και να κάνει πιο δίκαιες τις διαδικασίες. Από την άλλη η ίδια η τεχνολογία γίνεται όπλο στα χέρια των επιτήδειων, που τη χρησιμοποιούν για παραπληροφόρηση, πολιτική χειραγώγηση ή εκβιασμό.
Η Λουσία Καμάτσο, από την οργάνωση Derechos Digitales το περιγράφει με απλότητα:
«Η αστυνομία και τα δικαστήρια δεν έχουν ακόμα τη δυνατότητα να εξετάσουν νομικά ζητήματα που ξεπερνούν το ερώτημα αν μια απόδειξη είναι αληθινή ή όχι».
Το πρόβλημα είναι δομικό. Οι περισσότεροι νομικοί θεσμοί στηρίζονται σε αρχές που προϋποθέτουν έναν ανθρώπινο δράστη, δηλαδή κάποιον με πρόθεση, ευθύνη, και συναίσθηση των πράξεών του. Όμως τα “έξυπνα” συστήματα δεν έχουν τίποτα απ’ αυτά. Ο αλγόριθμος δεν “ξέρει” ότι κάνει κακό. Εκτελεί εντολές, επαναλαμβάνει μοτίβα, μαθαίνει από δεδομένα που συχνά κουβαλούν προκαταλήψεις και λάθη.
Η αδυναμία αυτή φαίνεται ξεκάθαρα στα συστήματα αναγνώρισης προσώπου που χρησιμοποιούν πολλές χώρες. Στη Βραζιλία ο Ζοάο Αντόνιο Τριντάντε Μπάστος συνελήφθη μέσα σε ένα γεμάτο στάδιο μπροστά σε δέκα χιλιάδες θεατές, επειδή μια κάμερα τον ταύτισε λανθασμένα με έναν καταζητούμενο. Στο Περού μια γυναίκα βρέθηκε στη φυλακή για έγκλημα που δεν είχε διαπράξει.
Ο Ντίλμαρ Βιγιένα, επικεφαλής της οργάνωσης Hiperderecho, εξηγεί ότι αυτά τα λάθη δεν είναι τυχαία:
«Οι αλγόριθμοι εκπαιδεύονται με δεδομένα κυρίως από λευκούς πληθυσμούς. Όταν καλούνται να αναγνωρίσουν πρόσωπα ιθαγενών, αφρικανικής καταγωγής ή γυναικών, κάνουν συστηματικά λάθη».
Το φαινόμενο αυτό ονομάζεται αλγοριθμική μεροληψία και είναι ορατό παντού: από τις κάμερες των δρόμων μέχρι τα αυτόματα συστήματα πρόβλεψης εγκληματικότητας. Στη Χιλή, το “Urban Criminal Prediction System” στηρίζεται σε δεδομένα της αστυνομίας που φέρουν χρόνια φυλετικά στερεότυπα. Όπως λένε οι ειδικοί, τα “βρόμικα δεδομένα” παράγουν “βρόμικες, με την έννοια λανθασμένες, αλλοιωμένες αποφάσεις”.
Σύμφωνα με τον ΟΟΣΑ υπάρχουν πάνω από 1.300 πρωτοβουλίες παγκοσμίως για τη ρύθμιση της τεχνητής νοημοσύνης, αλλά ελάχιστες έχουν μετατραπεί σε νόμο και ακόμη λιγότερες αντιμετωπίζουν τα deepfakes. Η Νότια Κορέα και η Αυστραλία έχουν ήδη θεσπίσει ποινές για τη δημιουργία και διανομή ψεύτικου περιεχομένου. Οι ΗΠΑ ενέκριναν το “Take It Down Act”, ενώ στη Λατινική Αμερική η Βραζιλία απαγόρευσε τα deepfakes στις εκλογικές εκστρατείες. Το Περού και η Κολομβία τα θεωρούν πλέον επιβαρυντικό παράγοντα σε εγκλήματα.
Όπως εξηγεί ο Φράνκο Γιαντάνα της οργάνωσης Access Now, τα νομοθετικά πλαίσια στη Λατινική Αμερική παραμένουν ασαφή και αδύναμα:
«Οι νόμοι είναι υπερβολικά γενικοί και δεν λαμβάνουν υπόψη τις τοπικές πραγματικότητες. Δεν αρκεί να αντιγράφουμε το ευρωπαϊκό μοντέλο. Χρειαζόμαστε ένα σχέδιο ανάπτυξης που να ταιριάζει στα δικά μας κοινωνικά και νομικά δεδομένα».
Η τεχνολογία τρέχει με την ταχύτητα του φωτός. Οι νόμοι, δυστυχώς, με την ταχύτητα της γραφειοκρατίας.
Μέσα σε αυτό το θολό τοπίο κάποιοι νομικοί αποφασίζουν να πιάσουν το ταύρο από τα κέρατα. Το 2023 ο Κολομβιανός δικαστής Χουάν Μανουέλ Παντίγια έγινε γνωστός διεθνώς, όταν χρησιμοποίησε το ChatGPT για να γράψει την απόφαση μιας υπόθεσης που αφορούσε ένα παιδί με αυτισμό. Το πείραμά του οδήγησε στη δημιουργία εθνικών οδηγιών για τη χρήση AI στα δικαστήρια, επιτρέποντας την αυτοματοποίηση ρουτίνας, αλλά με υποχρεωτική ανθρώπινη εποπτεία.
Σήμερα σύμφωνα με το Πανεπιστήμιο των Άνδεων, το 85% των Κολομβιανών δικαστών χρησιμοποιούν εργαλεία όπως το ChatGPT ή το Microsoft Copilot. Κάποιοι για να συντάσσουν αποφάσεις, άλλοι για να ταξινομούν υποθέσεις. Στην Αργεντινή, το σύστημα Prometea μείωσε τον χρόνο έκδοσης νομικών γνωμοδοτήσεων από 190 ημέρες σε μία ώρα. Στην Κολομβία, το PretorIA επεξεργάζεται 2.700 αιτήματα πολιτών ημερησίως για την προστασία θεμελιωδών δικαιωμάτων.
Κι όμως, όπως λέει ο Παντίγια, ο ενθουσιασμός δεν αρκεί:
«Η τεχνητή νοημοσύνη μπορεί να γράψει μια απόφαση, αλλά δεν μπορεί να καταλάβει τι σημαίνει δικαιοσύνη». Η φράση του συνοψίζει την αγωνία μιας εποχής: η μηχανή μπορεί να υπολογίσει, να ταξινομήσει, να ερμηνεύσει δεδομένα, αλλά δεν μπορεί να αισθανθεί, ούτε να κρίνει ηθικά.
Η τεχνητή νοημοσύνη αποκαλύπτει κάτι βαθύτερο από την τεχνολογική πρόοδο: τη μεταμόρφωση του ίδιου του νόμου. Από μηχανισμός που ρυθμίζει ανθρώπινες πράξεις, μετατρέπεται σε σύστημα που καλείται να ρυθμίσει και τις πράξεις των μηχανών και εκεί βρίσκεται το αληθινό ρήγμα, γιατί η δικαιοσύνη δεν είναι μόνο αλγόριθμος, είναι συνείδηση. Δεν είναι μόνο διαδικασία, είναι αίσθηση του δίκαιου. Και όσο κι αν οι υπολογιστές μπορούν να μιμηθούν τη σκέψη, δεν μπορούν να μιμηθούν τη συμπόνια.
Ίσως λοιπόν το ερώτημα δεν είναι αν τα δικαστήρια μπορούν να χρησιμοποιήσουν την Τεχνητή Νοημοσύνη, αλλά αν μπορούν να τη συγκρατήσουν. Να την κάνουν εργαλείο της δικαιοσύνης χωρίς να μετατραπεί η ίδια η δικαιοσύνη σε εργαλείο της. Ας θυμηθούμε όλοι ο αλγόριθμος δεν γνωρίζει τι σημαίνει δίκαιο. Ο άνθρωπος το γνωρίζει, όσο παραμένει άνθρωπος.
*Mε στοιχεία από το Rest of World
➪ Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.