Πρίν λίγες ημέρες, η Αντιπρόεδρος της Ευρωπαϊκής Επιτροπής, υπεύθυνη για τις Αξίες και την Υπερπαρουσίαση, Věra Jourová, υπέγραψε εκ μέρους της Ευρωπαϊκής Ένωσης τη σύμβαση-πλαίσιο του Συμβουλίου της Ευρώπης για την τεχνητή νοημοσύνη, τα ανθρώπινα δικαιώματα, τη δημοκρατία και το κράτος δικαίου. Η υπογραφή πραγματοποιήθηκε κατά τη διάρκεια της άτυπης διάσκεψης των υπουργών Δικαιοσύνης των κρατών μελών του Συμβουλίου της Ευρώπης στο Βίλνιους της Λιθουανίας. Αυτή η σύμβαση αποτελεί την πρώτη νομικά δεσμευτική διεθνή πράξη που σχετίζεται με την τεχνητή νοημοσύνη. Είναι πλήρως συμβατή με το γενικό δίκαιο της Ένωσης και ειδικότερα με την πράξη της ΕΕ για την ΤΝ, η οποία είναι ο πρώτος ολοκληρωμένος κανονιστικός κανονισμός για την τεχνητή νοημοσύνη παγκοσμίως.
Η ραγδαία εξέλιξη της τεχνολογίας και οι καινοτομίες της τεχνητής νοημοσύνης έχουν επηρεάσει κάθε πτυχή της καθημερινότητάς μας, από την ιατρική, την κρατική ασφάλεια, τo gaming, μέχρι τον τρόπο που ακούμε μουσική. Είναι απολύτως λογικό να σκεφτόμαστε πως μία τέτοια εξωφρενική ανάπτυξη ενός τεχνολογικού κλάδου δεν μπορεί να έρχεται χωρίς συνέπειες. Ατελείωτες ώρες συζητήσεων και ακαδημαϊκών ερευνών έχουν αφιερωθεί σχετικά με τους κινδύνους που μία τέτοια εξέλιξη έχει για την κοινωνία και την ανθρωπότητα. Ο φόβος μιας ΑΙ αποκάλυψης μπορεί να τρομάξει ακόμα και τους πιο ψύχραιμους. Η ιδέα ότι μηχανές και ρομπότ θα πάρουν την κατάσταση στα χέρια τους αποτελεί σενάριο από θρίλερ επιστημονικής φαντασίας που σύμφωνα με τους ειδικούς πλέον δεν φαντάζει τόσο απίθανο.
Ωστόσο οι κίνδυνοι μια τέτοιας τεχνολογικής ανάπτυξης δεν αποτελούν μια μελλοντική δυστοπία. Υπάρχουν ήδη, και είναι πιο άμεσοι και λιγότερο Χολιγουντιανοί από όσο νομίζουμε, αλλά οι δημιουργοί και εκπρόσωποι των εταιρειών της δε φαίνεται να λαμβάνουν υπόψιν. Αντίθετα, επικεντρώνονται στο μέλλοντικό, αόριστο κίνδυνο μιας Υπερ-Νοημοσύνης που θα καταλάβει τον κόσμο.
Ο Sam Altman, Διευθύνων Σύμβουλος του OpenAI, που βρίσκεται πίσω από το πασίγνωστο πλέον εργαλείο ChatGPT, ενώθηκε με τον CEO της Google DeepMind, Demis Hassabis, τον CTO της Microsoft, Kevin Scott και δεκάδες άλλους ερευνητές τεχνητής νοημοσύνης και ηγέτες επιχειρήσεων, και υπέγραψαν επιστολή μιας πρότασης που υποστηρίζει τον μετριασμό του κινδύνου εξαφάνισης από την ΑΙ. Η αυστηρή προειδοποίηση καλύφθηκε ευρέως στον Τύπο, με ορισμένους να υποστηρίζουν ότι δείχνει την ανάγκη να ληφθούν πιο σοβαρά υπόψη τέτοια αποκαλυπτικά σενάρια. Αλλά υπογραμμίζει επίσης μια σημαντική δυναμική στη Silicon Valley αυτή τη στιγμή: Κορυφαία στελέχη σε μερικές από τις μεγαλύτερες εταιρείες τεχνολογίας λένε ταυτόχρονα στο κοινό ότι η ΑΙ έχει τη δυνατότητα να προκαλέσει την ανθρώπινη εξαφάνιση, ενώ παράλληλα συνεχίζουν να επενδύουν στην ανάπτυξή της και την παραγωγή προιόντων της.
Ο Διευθύνων Σύμβουλος της Tesla, Έλον Μασκ, για παράδειγμα, είχε πει σε τηλεοπτική συνέντευξη ότι η τεχνητή νοημοσύνη θα μπορούσε να οδηγήσει σε «καταστροφή του πολιτισμού». Ωστόσο, εξακολουθεί να εμπλέκεται βαθιά στην εξέλιξη της συγκεκριμένης τεχνολογίας μέσω επενδύσεων στην τεράστια επιχειρηματική του αυτοκρατορία και έχει δηλώσει ότι θέλει να δημιουργήσει έναν αντίπαλο της τεχνητής νοημοσύνης της Microsoft και της Google.
Ορισμένοι ειδικοί του κλάδου λένε ότι η εστίαση της προσοχής σε μακρινά σενάρια μπορεί να αποσπάσει την προσοχή από τις πιο άμεσες βλάβες που μπορεί να προκαλέσει μια νέα γενιά ισχυρών εργαλείων ΑΙ σε ανθρώπους και κοινότητες, συμπεριλαμβανομένης της διάδοσης παραπληροφόρησης, της διαιώνισης των προκαταλήψεων και της επιβολής διακρίσεων σε διάφορες υπηρεσίες.
Άμεσες απειλές Vs «φανταστικών σεναρίων επιστημονικής φαντασίας»
Για τον Gary Marcus, ερευνητής AI και ομότιμος καθηγητής στο Πανεπιστήμιο της Νέας Υόρκης, «η μεγαλύτερη άμεση απειλή από την τεχνητή νοημοσύνη είναι η απειλή για τη δημοκρατία από τη μαζική παραγωγή επιτακτικής παραπληροφόρησης».
Τα εργαλεία τεχνητής νοημοσύνης, όπως το ChatGPT του OpenAI και το Dall-E, εκπαιδεύονται σε τεράστιους όγκους δεδομένων στο Διαδίκτυο για τη δημιουργία γραπτών εργασιών και εικόνων ανταποκρινόμενοι στις προτροπές των χρηστών. Με αυτά τα εργαλεία, για παράδειγμα, κάποιος θα μπορούσε γρήγορα να μιμηθεί το στυλ ή την ομοιότητα των δημοσίων προσώπων σε μια προσπάθεια να δημιουργήσει εκστρατείες παραπληροφόρησης.
Με τη χρήση ολόκληρων αυτοματοποιημένων ρομπότ όσο και ανθρώπινων λογαριασμών «sockpuppet» (μαριονέτα) είναι πλέον εφικτό να ενισχυθούν ή να κατασταλούν συγκεκριμένες ροές πληροφοριών κατά τη διάρκεια εκλογών, κρίσεων ασφάλειας και άλλων κρίσιμων γεγονότων, επηρεάζοντας την κοινή γνώμη.
Ακόμη και σε πιο καθημερινές περιπτώσεις χρήσης, ωστόσο, υπάρχουν ανησυχίες. Τα ίδια εργαλεία έχουν χρησιμοποιηθεί για την παροχή λανθασμένων και επικίνδυνων απαντήσεων ή απαντήσεων που διαιωνίζουν φυλετικές προκαταλήψεις.
Οι αναλύσεις αυτών των συστημάτων δείχνουν ότι τα δεδομένα στα οποία εκπαιδεύονται αυτά τα συστήματα είναι συχνά μεροληπτικά, φέρνοντας μας ακόμα μία φορά αντιμέτωπους με μία σημαντική πρόκληση στη δημοκρατία και την ισότητα μεταξύ των πολιτών.
Η Emily Bender, καθηγήτρια στο Πανεπιστήμιο της Ουάσιγκτον και διευθύντρια του Εργαστηρίου Υπολογιστικής Γλωσσολογίας, είπε στο CNN ότι ορισμένες εταιρείες μπορεί να θέλουν να αποσπάσουν την προσοχή από την προκατάληψη που υπάρχει στα δεδομένα τους, το ζήτημα της πνευματικής ιδιοκτησίας, της χειραγώγησης και επίσης από τους ισχυρισμούς σχετικά με τον τρόπο εκπαίδευσης των συστημάτων τους.
«Εάν το κοινό και οι ρυθμιστικές αρχές μπορούν να επικεντρωθούν σε αυτά τα φανταστικά σενάρια επιστημονικής φαντασίας, τότε ίσως αυτές οι εταιρείες μπορούν να ξεφύγουν από το να λογοδοτήσουν για την κλοπή δεδομένων και τις πρακτικές εκμετάλλευσης για μεγαλύτερο χρονικό διάστημα», είπε στο CNN.
Επηρεάζοντας τους ρυθμιστές των τεχνολογιών της AI
Οι κινδυνολογίες της τεχνολογικής βιομηχανίας με σενάρια επιστημονικής φαντασίας φαίνεται να έχουν σαν πραγματικό στόχο τις ρυθμιστικές αρχές.
Υπάρχει μία τάση σύμφωνα με την Dr Bender να δημιουργηθεί η εντύπωση ότι μόνο οι οι δημιουργοί της ΑΙ μπορούν να αντιληφθούν τον τρόπο λειτουργίας της και τους κινδύνους της, και επομένως, να είναι εκείνοι που θα επηρεάζουν τις ρυθμιστικές αρχές σχετικά με τον περιορισμό της ΑΙ. Και μέχρι στιγμής, οι άμεση κίνδυνοι για την δημοκρατία δεν έχουν αναφερθεί εκτενώς από εκείνους.
Μία τέτοια προσέγγιση θα ήταν εξαιρετικά προβληματική καθώς θα άφηνε εκτός τη συμβολή ανθρώπων, κοινοτήτων που αντιμετωπίζουν ήδη αρνητικές επιπτώσεις από την τεχνολογική αυτή βιομηχανία.
«Εάν οι ρυθμιστικές αρχές προσανατολιστούν προς τους ανθρώπους που κατασκευάζουν και πωλούν την τεχνολογία ως οι μόνοι που θα μπορούσαν ενδεχομένως να καταλάβουν και να περιορίσουν την τεχνολογία αυτή, και ως εκ τούτου να μπορούν ενδεχομένως να ενημερώσουν και τον τρόπο λειτουργίας της νομοθεσίας, τότε θα χάσουμε πραγματικά», είπε η Dr Bender.
«Αν πιστεύουν ότι το μόνο θέμα είναι η επικράτηση μιας υπέρ σύγχρονης μηχανής ρομπότ και η ανθρώπινη εξαφάνιση, γιατί απλά δε σταματάνε την πορεία της;»
Πρίν λίγες ημέρες, η Αντιπρόεδρος της Ευρωπαϊκής Επιτροπής, υπεύθυνη για τις Αξίες και την Υπερπαρουσίαση, Věra Jourová, υπέγραψε εκ μέρους της Ευρωπαϊκής Ένωσης τη σύμβαση-πλαίσιο του Συμβουλίου της Ευρώπης για την τεχνητή νοημοσύνη, τα ανθρώπινα δικαιώματα, τη δημοκρατία και το κράτος δικαίου. Η υπογραφή πραγματοποιήθηκε κατά τη διάρκεια της άτυπης διάσκεψης των υπουργών Δικαιοσύνης των κρατών μελών του Συμβουλίου της Ευρώπης στο Βίλνιους της Λιθουανίας. Αυτή η σύμβαση αποτελεί την πρώτη νομικά δεσμευτική διεθνή πράξη που σχετίζεται με την τεχνητή νοημοσύνη. Είναι πλήρως συμβατή με το γενικό δίκαιο της Ένωσης και ειδικότερα με την πράξη της ΕΕ για την ΤΝ, η οποία είναι ο πρώτος ολοκληρωμένος κανονιστικός κανονισμός για την τεχνητή νοημοσύνη παγκοσμίως.
Η ραγδαία εξέλιξη της τεχνολογίας και οι καινοτομίες της τεχνητής νοημοσύνης έχουν επηρεάσει κάθε πτυχή της καθημερινότητάς μας, από την ιατρική, την κρατική ασφάλεια, τo gaming, μέχρι τον τρόπο που ακούμε μουσική. Είναι απολύτως λογικό να σκεφτόμαστε πως μία τέτοια εξωφρενική ανάπτυξη ενός τεχνολογικού κλάδου δεν μπορεί να έρχεται χωρίς συνέπειες. Ατελείωτες ώρες συζητήσεων και ακαδημαϊκών ερευνών έχουν αφιερωθεί σχετικά με τους κινδύνους που μία τέτοια εξέλιξη έχει για την κοινωνία και την ανθρωπότητα. Ο φόβος μιας ΑΙ αποκάλυψης μπορεί να τρομάξει ακόμα και τους πιο ψύχραιμους. Η ιδέα ότι μηχανές και ρομπότ θα πάρουν την κατάσταση στα χέρια τους αποτελεί σενάριο από θρίλερ επιστημονικής φαντασίας που σύμφωνα με τους ειδικούς πλέον δεν φαντάζει τόσο απίθανο.
Ωστόσο οι κίνδυνοι μια τέτοιας τεχνολογικής ανάπτυξης δεν αποτελούν μια μελλοντική δυστοπία. Υπάρχουν ήδη, και είναι πιο άμεσοι και λιγότερο Χολιγουντιανοί από όσο νομίζουμε, αλλά οι δημιουργοί και εκπρόσωποι των εταιρειών της δε φαίνεται να λαμβάνουν υπόψιν. Αντίθετα, επικεντρώνονται στο μέλλοντικό, αόριστο κίνδυνο μιας Υπερ-Νοημοσύνης που θα καταλάβει τον κόσμο.
Ο Sam Altman, Διευθύνων Σύμβουλος του OpenAI, που βρίσκεται πίσω από το πασίγνωστο πλέον εργαλείο ChatGPT, ενώθηκε με τον CEO της Google DeepMind, Demis Hassabis, τον CTO της Microsoft, Kevin Scott και δεκάδες άλλους ερευνητές τεχνητής νοημοσύνης και ηγέτες επιχειρήσεων, και υπέγραψαν επιστολή μιας πρότασης που υποστηρίζει τον μετριασμό του κινδύνου εξαφάνισης από την ΑΙ. Η αυστηρή προειδοποίηση καλύφθηκε ευρέως στον Τύπο, με ορισμένους να υποστηρίζουν ότι δείχνει την ανάγκη να ληφθούν πιο σοβαρά υπόψη τέτοια αποκαλυπτικά σενάρια. Αλλά υπογραμμίζει επίσης μια σημαντική δυναμική στη Silicon Valley αυτή τη στιγμή: Κορυφαία στελέχη σε μερικές από τις μεγαλύτερες εταιρείες τεχνολογίας λένε ταυτόχρονα στο κοινό ότι η ΑΙ έχει τη δυνατότητα να προκαλέσει την ανθρώπινη εξαφάνιση, ενώ παράλληλα συνεχίζουν να επενδύουν στην ανάπτυξή της και την παραγωγή προιόντων της.
Ο Διευθύνων Σύμβουλος της Tesla, Έλον Μασκ, για παράδειγμα, είχε πει σε τηλεοπτική συνέντευξη ότι η τεχνητή νοημοσύνη θα μπορούσε να οδηγήσει σε «καταστροφή του πολιτισμού». Ωστόσο, εξακολουθεί να εμπλέκεται βαθιά στην εξέλιξη της συγκεκριμένης τεχνολογίας μέσω επενδύσεων στην τεράστια επιχειρηματική του αυτοκρατορία και έχει δηλώσει ότι θέλει να δημιουργήσει έναν αντίπαλο της τεχνητής νοημοσύνης της Microsoft και της Google.
Ορισμένοι ειδικοί του κλάδου λένε ότι η εστίαση της προσοχής σε μακρινά σενάρια μπορεί να αποσπάσει την προσοχή από τις πιο άμεσες βλάβες που μπορεί να προκαλέσει μια νέα γενιά ισχυρών εργαλείων ΑΙ σε ανθρώπους και κοινότητες, συμπεριλαμβανομένης της διάδοσης παραπληροφόρησης, της διαιώνισης των προκαταλήψεων και της επιβολής διακρίσεων σε διάφορες υπηρεσίες.
Άμεσες απειλές Vs «φανταστικών σεναρίων επιστημονικής φαντασίας»
Για τον Gary Marcus, ερευνητής AI και ομότιμος καθηγητής στο Πανεπιστήμιο της Νέας Υόρκης, «η μεγαλύτερη άμεση απειλή από την τεχνητή νοημοσύνη είναι η απειλή για τη δημοκρατία από τη μαζική παραγωγή επιτακτικής παραπληροφόρησης».
Τα εργαλεία τεχνητής νοημοσύνης, όπως το ChatGPT του OpenAI και το Dall-E, εκπαιδεύονται σε τεράστιους όγκους δεδομένων στο Διαδίκτυο για τη δημιουργία γραπτών εργασιών και εικόνων ανταποκρινόμενοι στις προτροπές των χρηστών. Με αυτά τα εργαλεία, για παράδειγμα, κάποιος θα μπορούσε γρήγορα να μιμηθεί το στυλ ή την ομοιότητα των δημοσίων προσώπων σε μια προσπάθεια να δημιουργήσει εκστρατείες παραπληροφόρησης.
Με τη χρήση ολόκληρων αυτοματοποιημένων ρομπότ όσο και ανθρώπινων λογαριασμών «sockpuppet» (μαριονέτα) είναι πλέον εφικτό να ενισχυθούν ή να κατασταλούν συγκεκριμένες ροές πληροφοριών κατά τη διάρκεια εκλογών, κρίσεων ασφάλειας και άλλων κρίσιμων γεγονότων, επηρεάζοντας την κοινή γνώμη.
Ακόμη και σε πιο καθημερινές περιπτώσεις χρήσης, ωστόσο, υπάρχουν ανησυχίες. Τα ίδια εργαλεία έχουν χρησιμοποιηθεί για την παροχή λανθασμένων και επικίνδυνων απαντήσεων ή απαντήσεων που διαιωνίζουν φυλετικές προκαταλήψεις.
Οι αναλύσεις αυτών των συστημάτων δείχνουν ότι τα δεδομένα στα οποία εκπαιδεύονται αυτά τα συστήματα είναι συχνά μεροληπτικά, φέρνοντας μας ακόμα μία φορά αντιμέτωπους με μία σημαντική πρόκληση στη δημοκρατία και την ισότητα μεταξύ των πολιτών.
Η Emily Bender, καθηγήτρια στο Πανεπιστήμιο της Ουάσιγκτον και διευθύντρια του Εργαστηρίου Υπολογιστικής Γλωσσολογίας, είπε στο CNN ότι ορισμένες εταιρείες μπορεί να θέλουν να αποσπάσουν την προσοχή από την προκατάληψη που υπάρχει στα δεδομένα τους, το ζήτημα της πνευματικής ιδιοκτησίας, της χειραγώγησης και επίσης από τους ισχυρισμούς σχετικά με τον τρόπο εκπαίδευσης των συστημάτων τους.
«Εάν το κοινό και οι ρυθμιστικές αρχές μπορούν να επικεντρωθούν σε αυτά τα φανταστικά σενάρια επιστημονικής φαντασίας, τότε ίσως αυτές οι εταιρείες μπορούν να ξεφύγουν από το να λογοδοτήσουν για την κλοπή δεδομένων και τις πρακτικές εκμετάλλευσης για μεγαλύτερο χρονικό διάστημα», είπε στο CNN.
Επηρεάζοντας τους ρυθμιστές των τεχνολογιών της AI
Οι κινδυνολογίες της τεχνολογικής βιομηχανίας με σενάρια επιστημονικής φαντασίας φαίνεται να έχουν σαν πραγματικό στόχο τις ρυθμιστικές αρχές.
Υπάρχει μία τάση σύμφωνα με την Dr Bender να δημιουργηθεί η εντύπωση ότι μόνο οι οι δημιουργοί της ΑΙ μπορούν να αντιληφθούν τον τρόπο λειτουργίας της και τους κινδύνους της, και επομένως, να είναι εκείνοι που θα επηρεάζουν τις ρυθμιστικές αρχές σχετικά με τον περιορισμό της ΑΙ. Και μέχρι στιγμής, οι άμεση κίνδυνοι για την δημοκρατία δεν έχουν αναφερθεί εκτενώς από εκείνους.
Μία τέτοια προσέγγιση θα ήταν εξαιρετικά προβληματική καθώς θα άφηνε εκτός τη συμβολή ανθρώπων, κοινοτήτων που αντιμετωπίζουν ήδη αρνητικές επιπτώσεις από την τεχνολογική αυτή βιομηχανία.
«Εάν οι ρυθμιστικές αρχές προσανατολιστούν προς τους ανθρώπους που κατασκευάζουν και πωλούν την τεχνολογία ως οι μόνοι που θα μπορούσαν ενδεχομένως να καταλάβουν και να περιορίσουν την τεχνολογία αυτή, και ως εκ τούτου να μπορούν ενδεχομένως να ενημερώσουν και τον τρόπο λειτουργίας της νομοθεσίας, τότε θα χάσουμε πραγματικά», είπε η Dr Bender.
«Αν πιστεύουν ότι το μόνο θέμα είναι η επικράτηση μιας υπέρ σύγχρονης μηχανής ρομπότ και η ανθρώπινη εξαφάνιση, γιατί απλά δε σταματάνε την πορεία της;»