Η τεχνολογία δεν μας εντυπωσιάζει επειδή κάνει κάτι γρήγορα ή φθηνά, αλλά επειδή ακουμπά σε κάτι που θεωρούσαμε βαθιά ανθρώπινο. Η γλώσσα ήταν πάντα ένα τέτοιο καταφύγιο. Ως μέσο επικοινωνίας, ως τρόπος σκέψης, ως εσωτερική αρχιτεκτονική του νου. Σήμερα βρισκόμαστε μπροστά σε μια αμήχανη διαπίστωση: για πρώτη φορά ένα σύστημα τεχνητής νοημοσύνης φαίνεται ικανό να αναλύει τη γλώσσα με τρόπο συγκρίσιμο με έναν ανθρώπινο ειδικό. 

Για δεκαετίες η κυρίαρχη άποψη στη γλωσσολογία ήταν καθησυχαστική. Οι μηχανές μπορεί να μιμούνται τη γλώσσα, αλλά δεν την κατανοούν. Μπορεί να παράγουν προτάσεις, όχι όμως να συλλογίζονται για τη δομή τους. Ο Νόαμ Τσόμσκι το είχε διατυπώσει “ωμά”: η γλώσσα δε μαθαίνεται απλώς με το να «κολυμπάς» σε δεδομένα. Χρειάζεται εσωτερικούς κανόνες, αφηρημένες δομές, κάτι που μοιάζει περισσότερο με ανθρώπινη νόηση παρά με στατιστική πρόβλεψη. 

Μετά ήρθε η έρευνα του Μπέγκους και των συνεργατών του με το πιο αυστηρό εργαλείο της επιστήμης: το τεστ. Συντακτικά δέντρα, αναδρομή, αμφισημίες. Επινοημένες γλώσσες, ώστε να αποκλειστεί κάθε υποψία αποστήθισης και μέσα από αυτή τη διαδικασία ένα γλωσσικό μοντέλο το o1 της OpenAI άρχισε να συμπεριφέρεται όχι σαν παπαγάλος της γλώσσας, αλλά σαν φοιτητής γλωσσολογίας. Να αναλύει, να ξεχωρίζει ερμηνείες, να “σκέφτεται” τη γλώσσα. 

Το σοκ δεν είναι ότι μια μηχανή τα κατάφερε. Το σοκ είναι ότι τα κατάφερε εκεί που λέγαμε ότι δεν μπορεί. Στην αναδρομή, εκείνη τη φαινομενικά ταπεινή, αλλά στην πραγματικότητα εκρηκτική ιδιότητα της ανθρώπινης γλώσσας που μας επιτρέπει να βάζουμε σκέψεις μέσα σε σκέψεις, προτάσεις μέσα σε προτάσεις και να το κάνουμε θεωρητικά χωρίς όριο. Αν αυτό όντως δεν ήταν απλώς ένα κόλπο, αλλά κάτι που το μοντέλο “χειρίζεται”, τότε κάτι αλλάζει στον τρόπο που ορίζουμε το ανθρώπινο. 

Εδώ αρχίζει η αμηχανία. Αυτή είναι μια υπερβολικά ναρκισσιστική ανησυχία, επειδή χάνουμε τη βεβαιότητα. Για χρόνια λέγαμε: «Η ΤΝ δεν καταλαβαίνει, απλώς προβλέπει». Τώρα βλέπουμε συστήματα που όχι μόνο προβλέπουν, αλλά διαχειρίζονται αμφισημίες, χτίζουν αφηρημένες αναπαραστάσεις, γενικεύουν κανόνες σε γλώσσες που δεν έχουν ξαναδεί. Αν αυτό δεν είναι μορφή κατανόησης, τότε ίσως πρέπει να επανεξετάσουμε τι εννοούμε με τη λέξη. 

Βέβαια ας μην παρασυρθούμε. Τα ίδια τα ευρήματα δείχνουν και τα όρια. Τα μοντέλα αυτά δεν παράγουν νέα γλωσσολογική γνώση. Δε μας λένε κάτι που δεν ξέραμε. Δεν έχουν θεωρία για τη γλώσσα, έχουν επιδόσεις στη γλωσσική ανάλυση κι αυτό είναι μια κρίσιμη διάκριση. Όμως και οι άνθρωποι δε γεννιούνται με θεωρίες, μαθαίνουν να αναλύουν πριν μάθουν να εξηγούν. 

Το ερώτημα λοιπόν, δεν είναι αν η Τεχνητή Νοημοσύνη “είναι σαν εμάς”. Είναι αν ορισμένες ικανότητες που θεωρούσαμε αποκλειστικά ανθρώπινες είναι τελικά περισσότερο ζήτημα δομής και κλίμακας παρά βιολογικής μοίρας. Αν η γλωσσική σκέψη μπορεί να προκύψει από αρκετά περίπλοκα συστήματα επεξεργασίας, τότε η γραμμή που τραβήξαμε ανάμεσα στο ανθρώπινο και το τεχνητό αρχίζει να ξεθωριάζει. 

Η συζήτηση συναντά τον φόβο: τον φόβο ότι δε ξέρουμε πια τι ακριβώς φτιάχνουμε. Όταν μια μηχανή μπορεί να “σκέφτεται για τη γλώσσα”, τότε δεν μιλάμε απλώς για εργαλείο. Μιλάμε για σύστημα που ακουμπά στον πυρήνα της ανθρώπινης γνωστικής εμπειρίας. Αυτό δεν σημαίνει ότι αύριο θα αντικατασταθούν οι γλωσσολόγοι. Σημαίνει όμως ότι αλλάζει ο ρόλος τους. Όπως αλλάζει και ο ρόλος μας ως κοινωνία. Δεν αρκεί να ρωτάμε αν αυτά τα συστήματα είναι χρήσιμα. Πρέπει να ρωτάμε τι σημαίνει η ύπαρξή τους για την αυτοαντίληψή μας, για την εκπαίδευση, για τη γνώση, για την ευθύνη. 

*Mε στοιχεία από το Αtlantic 

 

 

 Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.