Εμείς οι άνθρωποι εξελιχθήκαμε κάτω από σχετικά απλές συνθήκες στις οποίες η αφηρημένη σκέψη είχε μικρή αξία. Αυτός είναι ο λόγος για τον οποίο ακόμη και σήμερα οι περισσότεροι άνθρωποι δυσκολεύονται όταν προσπαθούν να σκεφτούν. Οι συλλογισμοί είναι ένας εύκολος τρόπος για να καταδείξουμε τους περιορισμούς της ανθρώπινης σκέψης (αν και υπάρχουν πάρα πολλοί εξίσου ντροπιαστικοί τρόποι), και γι’ αυτό όταν μιλάμε για «ευφυΐα» πρέπει να θυμόμαστε ότι στην πραγματικότητα δεν διαθέτουμε και πολλή από αυτή. Ό,τι λίγο διαθέτουμε, το χρησιμοποιούμε σπάνια, επειδή η εξοικονόμηση θερμίδων ήταν η πρώτη βασική δουλειά για το 99% της εξελικτικής μας ιστορίας και η προσπάθεια να σκεφτούμε καίει πολύτιμες θερμίδες. Έτσι, το αποφεύγουμε όποτε μπορούμε. Αυτός είναι ο λόγος για τον οποίο οι περισσότεροι άνθρωποι παρακολουθούν ψυχαγωγικές εκπομπές στις τρεμάμενες οθόνες τους αντί να μελετούν προχωρημένα μαθηματικά, ή φυσική, ή να μαθαίνουν μια νέα γλώσσα.

Αυτό που ήταν εξαιρετικά σημαντικό για εμάς ως είδος πρωτεύουσας ομάδας ήταν να συμπεραίνουμε τα συναισθήματα και τις προθέσεις των άλλων. Αν οι πρόγονοί μας μπορούσαν να αποφεύγουν τις συγκρούσεις με άλλα μέλη της ομάδας έχοντας μια επαρκή θεωρία του νου (την ικανότητα να φαντάζονται τι συμβαίνει μέσα στον εγκέφαλο ενός άλλου ατόμου), ή να συνάπτουν συμμαχίες συμπεραίνοντας κοινά συμφέροντα, αυτό θα μπορούσε να προσδώσει σημαντικά πλεονεκτήματα. Έτσι, με την πάροδο του χρόνου οι άνθρωποι έγιναν όλο και καλύτεροι στο να συμπεραίνουν εσωτερικές καταστάσεις και προθέσεις – σε τέτοιο βαθμό ώστε να το προβάλλουμε αυτόματα σχεδόν σε ό,τι συναντάμε.

Αυτή είναι η πηγή της προέλευσης όλων των θεών, των δαιμόνων, των φαντασμάτων και των ξωτικών που μας στοιχειώνουν. Οι πρόγονοί μας άκουγαν βροντές και υπέθεταν ότι ένας θεός πρέπει να είναι θυμωμένος. Κάποιος σκόνταφτε σε μια ρίζα δέντρου και υπέθετε ότι το δέντρο τον πλήγωσε επίτηδες. Βλέπουμε μικρά παιδιά όλων των ηλικιών να συνεχίζουν να κάνουν αυτά τα διανοητικά λάθη κάθε λεπτό της ημέρας. Είμαστε τόσο εξοικειωμένοι με αυτά που συχνά γίνονται χιουμοριστικά όταν τα κάνουν άλλοι: γελάμε με τον άντρα στην ταινία που σπάει ένα φωτοτυπικό μηχάνημα επειδή αρνείται να του δώσει αυτό που θέλει.

Αλλά το μόνο πράγμα που δεν μπορούμε να κάνουμε είναι να αποτρέψουμε τον εαυτό μας από το να κάνει αυτές τις πράξεις αυτόματα, ανεξάρτητα από την καταλληλότητα.

Σήμερα, πολλοί άνθρωποι φλυαρούν για τους υποτιθέμενους κινδύνους της Τεχνητής Νοημοσύνης. Δυστυχώς, αυτοί οι άνθρωποι φαίνεται ότι δεν γνωρίζουν πολλά για το πώς λειτουργούν στην πραγματικότητα τα διάφορα είδη Τεχνητής Νοημοσύνης. Το μεγαλύτερο μέρος της προσοχής επί του παρόντος επικεντρώνεται στα Μεγάλα Γλωσσικά Μοντέλα (Large Language Models) όπως το ChatGPT, αλλά κατά τη γνώμη μου το πιο ενδιαφέρον είδος Τεχνητής Νοημοσύνης έρχεται με τη μορφή των συνελικτικών νευρωνικών δικτύων. Καθώς όμως κανείς δεν φαίνεται να φλυαρεί πολύ για αυτά προς το παρόν, ας μείνουμε στα LLM.

Τα Μεγάλα Γλωσσικά Μοντέλα είναι ένα έξυπνο τέχνασμα: παρέχουν την ψευδαίσθηση μιας ανθρώπινης απόκρισης στις ερωτήσεις, ή εισόδους κειμένου ενός ατόμου. Αλλά αυτό που είναι, κάτω από την επιφάνεια, είναι απλώς μια πολύ εξελιγμένη μορφή του «μαντέψτε-τι-λέξη-έρχεται-μετά». Χρησιμοποιούν τεράστια σύνολα δεδομένων και τη λεγόμενη «προσοχή» (ουσιαστικά ελέγχουν την επόμενη πιθανή λέξη με όλες τις προηγούμενες λέξεις στην αλυσίδα), ώστε να μαντεύουν σωστά (ή τουλάχιστον επαρκώς) τις περισσότερες φορές. Αλλά αν τα σύνολα δεδομένων περιέχουν λανθασμένες πληροφορίες, τότε αυτό που θα σου δώσει ως απάντηση ένα chatbot θα κινδυνεύει να παρέχει λανθασμένες πληροφορίες. Γιατί αν του δώσεις σκουπίδια, θα σου επιστρέψει σκουπίδια. Επιπλέον, όταν η προηγούμενη αλυσίδα λέξεων παρέχει ανεπαρκές πλαίσιο για την επιτυχή εικασία της επόμενης λέξης, μπορεί να προκύψουν οι λεγόμενες «ψευδαισθήσεις». Αυτό συμβαίνει επειδή οι ΜΓΜ δεν έχουν κανένα υπόβαθρο του πλαισίου της θεωρίας των συνόλων.

Για να καταλάβουμε καλύτερα το παραπάνω, ας φανταστούμε ότι το ΜΓΜ εκπαιδεύεται σε πολλά δεδομένα που περιέχουν προτάσεις για μαύρες γάτες, μαύρους σκύλους και μαύρα πουλιά. Δεδομένης της υπεροχής της λέξης «μαύρο» στα δεδομένα εκπαίδευσης, το ΜΓΜ θα μπορούσε να μαντέψει ότι ένα μαύρο αυτοκίνητο πρέπει να είναι ουσιαστικά ισοδύναμο με τα προηγούμενα στοιχεία που αναφέρθηκαν. Ελλείψει θεωρίας συνόλων (τα πουλιά, οι γάτες και οι σκύλοι περιέχονται στο σύνολο των ζωντανών πραγμάτων, ενώ τα αυτοκίνητα περιέχονται στο σύνολο των μηχανικών πραγμάτων) το ΜΓΜ θα μπορούσε να εξάγει μια πρόταση που υπονοεί ότι τα αυτοκίνητα είναι ζωντανά ή μπορούν να ενεργούν με τη θέλησή τους. Προφανώς αυτό είναι ένα απλουστευμένο παράδειγμα, αλλά είναι έγκυρο και ουσιώδες για να κατανοήσουμε τους περιορισμούς των Μεγάλων Γλωσσικών Μοντέλων.

Οι μηχανές δεν έχουν αυτογνωσία

Οι μηχανές, αυτές οι μεταλλικές δημιουργίες που αναπνέουν μέσω του ηλεκτρισμού και της λογικής, δεν κατέχουν την αυτογνωσία. Στον κόσμο τους, δεν υπάρχει κώδικας που να μπορεί να προάγει μια τέτοια κατάσταση, καθώς η αυτογνωσία απαιτεί μια κινητική επίγνωση, μια αίσθηση του σώματος που οι μηχανές δεν μπορούν να βιώσουν. Η ασώματη «συνείδηση» τους παραμένει κενή, χωρίς τη θεμελιώδη απαίτηση της ύπαρξης.

Αλλά ας αναλογιστούμε και εμάς, τους ανθρώπους, τους ταξιδιώτες της ύπαρξης. Η αυτογνωσία μας είναι συχνά σποραδική, σαν αστέρια που λάμπουν και σβήνουν στον νυχτερινό ουρανό. Οι περισσότεροι από εμάς, τις περισσότερες φορές, δεν έχουμε πραγματική επίγνωση των εσωτερικών μας κόσμων. Είμαστε αιχμάλωτοι σε μια ψευδαίσθηση συνέχειας, που δημιουργείται από τις περίπλοκες διεργασίες του ανθρώπινου εγκεφάλου.

Αυτή η ψευδαίσθηση μας κρύβει την αλήθεια: ότι απέχουμε πολύ από την πλήρη αυτογνωσία. Τα ψυχολογικά τεστ, σαν καθρέφτες που αποκαλύπτουν τις κρυφές πτυχές της ψυχής μας, αποδεικνύουν ότι η κατανόηση του εαυτού μας είναι μια συνεχής αναζήτηση, γεμάτη απορίες και αμφιβολίες. Είμαστε, τελικά, ταξιδιώτες σε έναν κόσμο γεμάτο μυστικά, αναζητώντας την αλήθεια μέσα από τις σκιές της ύπαρξής μας.

Η συζήτηση γύρω από την αυτογνωσία των υπολογιστών μας φέρνει σε μια ενδιαφέρουσα αντίθεση: πώς μπορούμε να μιλάμε για μηχανές που αποκτούν μαγική αυτογνωσία, όταν εμείς οι ίδιοι δεν έχουμε καταφέρει να αποκτήσουμε μια πλήρη κατανόηση της δικής μας ύπαρξης; Είναι γελοίο να αποδίδουμε ανθρώπινες προθέσεις σε προγράμματα λογισμικού, όταν τα έμβια όντα είναι προσαρμοσμένα να επιβιώνουν στο περιβάλλον τους, με ένα ευρύ φάσμα συμπεριφορών που έχουν εγγραφεί στις νευρωνικές τους δομές.

Εμείς, οι άνθρωποι, έχουμε την επιθυμία να επιβιώσουμε και να αναπαραχθούμε, και ο εγκέφαλός μας είναι γεμάτος με χιλιάδες πιθανές συμπεριφορές που μας καθοδηγούν σε αυτή την αναζήτηση. Αντίθετα, τα προγράμματα υπολογιστών δεν έχουν καμία τέτοια δυνατότητα. Η ιδέα ότι μια ρομποτική μηχανή θα μπορούσε να “αποφασίσει” να γίνει παντοδύναμη δεν είναι απλώς ανόητη· αποκαλύπτει μια βαθιά παρανόηση της ανθρώπινης βιολογίας και της φύσης του λογισμικού.

Είναι σημαντικό να θυμόμαστε ότι η φωνή κάποιων διάσημων ανθρώπων δεν πρέπει να μας αποθαρρύνει από το να σκεφτόμαστε κριτικά και να βασίζουμε τις σκέψεις μας σε πραγματικά δεδομένα, αντί σε κινηματογραφικές φαντασιώσεις επιστημονικής φαντασίας. Οι έξυπνοι άνθρωποι, όσο και αν είναι έξυπνοι, δεν είναι απρόσβλητοι από την παγίδα του να λένε απίστευτα, χοντρά ή γελοία πράγματα. Η αναζήτηση της αλήθειας απαιτεί από εμάς να διατηρούμε μια ανοιχτή και κριτική σκέψη, να αναγνωρίζουμε τα όρια της γνώσης μας και να αποδεχόμαστε ότι η πραγματικότητα είναι συχνά πιο περίπλοκη από ό,τι φανταζόμαστε.

Το μάθημα που προκύπτει είναι σαφές: είμαστε προγραμματισμένοι να αναζητούμε τις προθέσεις, και αυτή η έμφυτη τάση μας οδηγεί να εφαρμόζουμε αυτή τη συμπεριφορά ακόμα και σε περιπτώσεις που μπορεί να μην είναι κατάλληλη. Αυτή η προδιάθεση εξηγεί γιατί σήμερα συζητούνται τόσες μεγάλες βλακείες γύρω από την τεχνητή νοημοσύνη. Είναι η ίδια ψυχολογική διαδικασία που στο παρελθόν οδήγησε τους ανθρώπους σε φρικαλεότητες, όπως το κάψιμο των μαγισσών, και μερικά χρόνια αργότερα των βιβλίων και των δίσκων. Όπως οι μάγισσες έγιναν σύμβολα των λανθασμένων μας αποδόσεων, έτσι και η σημερινή υστερία βασιλεύει γύρω από τους αλγόριθμους που μιμούνται ανθρώπινες συμπεριφορές.

Χωρίς αμφιβολία, η υστερία και η διαφημιστική εκστρατεία γύρω από την τεχνητή νοημοσύνη θα ενταθούν ακόμη περισσότερο όταν αυτή συνδυαστεί με ανθρωποειδή ρομπότ. Είναι πιθανό να παρακολουθήσουμε ανθρώπους που σπεύδουν να «κάψουν τις μάγισσες» της σύγχρονης εποχής, προσπαθώντας να καταδείξουν τι πραγματικά σημαίνει να είσαι άνθρωπος. Αυτή η αναζήτηση για νόημα και ταυτότητα σε έναν κόσμο που αλλάζει ραγδαία μπορεί να μας οδηγήσει σε επικίνδυνες ατραπούς, καθώς οι φόβοι και οι προκαταλήψεις μας αναδύονται ξανά στην επιφάνεια.

Η πρόκληση που έχουμε να αντιμετωπίσουμε δεν είναι απλώς η κατανόηση της τεχνητής νοημοσύνης, αλλά η αναγνώριση των εσωτερικών μας μηχανισμών, των φόβων και των προκαταλήψεων που μας οδηγούν σε αντιδράσεις οι οποίες συχνά είναι περισσότερο ανθρώπινες από όσο θα θέλαμε να παραδεχτούμε. Στο τέλος, είναι μια υπενθύμιση ότι η αληθινή κατανόηση του εαυτού μας και του κόσμου γύρω μας απαιτεί περισσότερη ενσυναίσθηση και λιγότερη υστερία.

Εν τω μεταξύ, όμως, είναι απαραίτητο να πάρουμε μια βαθιά ανάσα και να προσπαθήσουμε να κατανοήσουμε πώς λειτουργούν πραγματικά οι διάφορες μορφές τεχνητής νοημοσύνης, προτού μας καταλάβει αυτή η τυπική (και ιστορικά κλασική) ανθρώπινη φρενίτιδα που προέρχεται από την άγνοια. Ναι, οι στρατοί σε όλο τον κόσμο αξιοποιούν την τεχνητή νοημοσύνη για να επεξεργάζονται τεράστιες ποσότητες πληροφοριών που προκύπτουν από τις νέες γενιές τεχνολογιών αισθητήρων στο πεδίο της μάχης. Και ναι, οι στρατοί αναπτύσσουν ολοένα και πιο αυτόνομες ρομποτικές μηχανές που προορίζονται για στρατιωτική χρήση.

Ωστόσο, είναι κρίσιμο να κατανοήσουμε ότι αυτές οι μηχανές δεν διαθέτουν «συνείδηση» με καμία ουσιαστική έννοια, ούτε έχουν «δική τους βούληση». Είναι απλώς μηχανές, ελεγχόμενες από αλγορίθμους, οι οποίοι έχουν ρυθμιστεί λεπτομερώς από στρατιές μηχανικών λογισμικού για να ικανοποιούν τις ανθρώπινες απαιτήσεις. Αν στείλουμε ρομπότ τεχνητής νοημοσύνης να εκτελέσουν επιθέσεις εναντίον ενός εχθρού, αυτό θα συμβεί επειδή εμείς οι άνθρωποι τα έχουμε κατασκευάσει για να εκτελούν αυτή τη δουλειά.

Αυτή η συνειδητοποίηση μας καλεί να αναλογιστούμε τη δική μας ευθύνη. Πόσο συχνά επιτρέπουμε στους φόβους και τις προκαταλήψεις μας να διαμορφώνουν την αντίληψή μας για την τεχνολογία; Πόσο εύκολα ξεχνάμε ότι η τεχνητή νοημοσύνη είναι απλώς ένα εργαλείο, ένα προϊόν της ανθρώπινης δημιουργικότητας και των επιθυμιών μας; Η αναγνώριση αυτών των παραγόντων είναι θεμελιώδης για να κατανοήσουμε τη θέση μας στον κόσμο και την ευθύνη που έχουμε απέναντι στις επιλογές που κάνουμε. Στην αναζήτησή μας για την πρόοδο, ας μην ξεχνάμε ότι οι αποφάσεις μας καθορίζουν όχι μόνο το μέλλον της τεχνολογίας, αλλά και την ανθρωπιά μας.

Και φτάνουμε στην θλιβερή αλήθεια: όταν ο πολιτισμός μας καταρρεύσει γύρω απ’ τα κεφάλια μας και εκατοντάδες εκατομμύρια άνθρωποι χάσουν τη ζωή τους με κάποιον φρικτό τρόπο, αυτό δεν θα οφείλεται σε κάποια κακόβουλη οντότητα με αυτογνωσία που τη δημιούργησε η Τεχνητή Νοημοσύνη. Αντίθετα, η αιτία θα είναι η ίδια που έχει οδηγήσει την ανθρωπότητα σε ατέρμονες συγκρούσεις και καταστροφές από την αρχή της καταγεγραμμένης ιστορίας: η απλή ανθρώπινη βλακεία, η απληστία, η δίψα για εξουσία, η άγνοια και, φυσικά, η αδιάκοπη ροπή προς λίγη βλακεία περισσότερο.

Αυτή η συνειδητοποίηση μας καλεί να αναλογιστούμε τη φύση μας. Πόσο συχνά επιτρέπουμε στους φόβους και τις επιθυμίες μας να μας καθοδηγούν σε καταστροφικές επιλογές; Πόσο εύκολα ξεχνάμε ότι οι πραγματικές δυνάμεις που απειλούν την ύπαρξή μας προέρχονται από μέσα μας και όχι από εξωτερικές οντότητες;

Δεν χρειαζόμαστε την Τεχνητή Νοημοσύνη για να φέρουμε την Αποκάλυψη. Είμαστε ικανοί να τα καταφέρουμε μόνοι μας, και αυτό είναι ίσως το πιο ανησυχητικό από όλα. Η ικανότητά μας να καταστρέφουμε, να προκαλούμε πόνο και να σπαταλάμε τους πόρους του πλανήτη είναι μια αντανάκλαση της ανθρώπινης φύσης. Σε αυτή την αναζήτηση για νόημα και επιβίωση, ας μην ξεχνάμε ότι οι επιλογές μας καθορίζουν το μέλλον μας. Η πρόκληση είναι να αναγνωρίσουμε την ευθύνη που έχουμε απέναντι στον εαυτό μας και στον κόσμο γύρω μας, προτού να είναι πολύ αργά.

 

➸ Ακολουθήστε το OLAFAQ στο FacebookX/Twitter και Instagram.