Σε μια σπάνια στροφή ενάντια στο ρεύμα του τεχνολογικού ενθουσιασμού, μια ομάδα ερευνητών της Apple κυκλοφόρησε πρόσφατα μελέτη που αφήνει βαριά υπονοούμενα: η πολυσυζητημένη “λογική” των σύγχρονων μοντέλων AI δεν είναι τίποτα άλλο παρά ένα καλά σκηνοθετημένο θέατρο εντυπώσεων.
Στη δημοσίευση, η οποία φέρει την υπογραφή του Samy Bengio, επικεφαλής της AI και ML Έρευνας της Apple, αμφισβητείται ανοιχτά η ικανότητα μοντέλων όπως το GPT (OpenAI), το Gemini (Google) και το Claude (Anthropic) να κάνουν πραγματικό “reasoning”, δηλαδή λογική επεξεργασία. Ή όπως το αποκαλούν οι συγγραφείς με ψυχρή ευστοχία: “μία ψευδαίσθηση σκέψης”.
Η μελέτη στηρίχθηκε σε “controllable puzzle environments”, δηλαδή σκόπιμα σχεδιασμένα προβλήματα λογικής που επιτρέπουν την αξιολόγηση της “συμπεριφοράς” των μοντέλων υπό πίεση. Το εύρημα; Τα μοντέλα καταρρέουν πλήρως όταν οι γρίφοι αποκτούν ένα ελάχιστο επίπεδο πολυπλοκότητας. Παρά την πρόσβαση σε τεράστιο “token budget” (δηλαδή χωρητικότητα επεξεργασίας), το αποτέλεσμα δεν είναι καλύτερη σκέψη, αλλά υπερφόρτωση.
Σύμφωνα με τους ερευνητές, αυτό δεν οφείλεται απλώς σε τεχνικά όρια, αλλά σε ένα βαθύτερο, “αντι-διαισθητικό” φαινόμενο: όσο περισσότερο εξασκούνται τα μοντέλα στη λογική, τόσο περισσότερο μπερδεύονται. Δηλαδή, το AI αναπτύσσει μια μορφή ψηφιακού υπερ-αναστοχασμού ή αλλιώς: σκέφτεται τόσο πολύ που σταματά να σκέφτεται.
Η τεχνολογία του μέλλοντος, τώρα με λιγότερη λογική
Όλα αυτά έρχονται σε μια χρονική στιγμή που η αγορά AI επενδύει δεκάδες δισεκατομμύρια σε κέντρα δεδομένων, υπολογιστικές υποδομές και “frontier models” που υπόσχονται να κατακτήσουν τον κόσμο, ή έστω να καταλάβουν τι τους ζητάς όταν λες “γράψε μου ένα μέιλ σαν να είμαι ο Καστοριάδης”.
Οι ερευνητές προειδοποιούν πως τα υπάρχοντα benchmarks (τα τεστ δηλαδή με τα οποία αξιολογούμε τις επιδόσεις των μοντέλων) είναι συχνά μολυσμένα από προεκπαιδευμένα δεδομένα και δεν προσφέρουν σαφείς ενδείξεις για την πραγματική “νοημοσύνη” των συστημάτων.
Δεν λείπουν φυσικά οι υποψίες για το ποιος επωφελείται από αυτά τα ευρήματα. Η Apple έχει δεχτεί σκληρή κριτική για το γεγονός ότι έχει μείνει πίσω στην κούρσα της τεχνητής νοημοσύνης, τη στιγμή που Google, OpenAI και Meta έχουν ήδη λανσάρει πλήρως λειτουργικά chatbots και APIs. Πολλοί σχολιαστές βλέπουν τη μελέτη ως μια κομψή βόμβα PR, που ουσιαστικά λέει: «Μπορεί να καθυστερήσαμε, αλλά τουλάχιστον δεν χάψαμε το παραμύθι».
Το παράδοξο; Παρά την έντονη αμφισβήτηση της ίδιας της τεχνολογίας, η Apple έχει ανακοινώσει το νέο της σύστημα “Apple Intelligence”, το οποίο υπόσχεται προσωπική τεχνητή νοημοσύνη στα iPhone και Mac – δηλαδή… βασισμένο σε αυτά ακριβώς τα μοντέλα που τώρα χαρακτηρίζει “σκιαγραφίες σκέψης”.
Η τεχνητή νοημοσύνη δεν απέτυχε, απλώς δεν είναι αυτό που νομίζαμε
Η μελέτη καταλήγει πως το σημερινό AI δεν “σκέφτεται” με την ανθρώπινη έννοια. Αντί για συνειρμό, αιτιολόγηση ή λογική συνέπεια, βασίζεται σε στατιστικά patterns. Και αυτό, όσο χρήσιμο κι αν είναι, δεν το καθιστά σκεπτόμενο ον, το κάνει έναν πολύ γρήγορο παπαγάλο με εξαιρετική μνήμη.
Η ερώτηση, λοιπόν, δεν είναι πια αν το AI μπορεί να σκεφτεί σαν άνθρωπος. Η ερώτηση είναι: Γιατί περιμέναμε να το κάνει;
Επίσης, υπάρχουν και άλλες ερωτήσεις. Είναι η Apple ο μόνος νηφάλιος παίκτης μέσα στον πυρετό της τεχνητής μεσσιανικότητας; Ή απλώς δείχνει το δάχτυλο την ώρα που προσπαθεί να καλύψει το χαμένο έδαφος; Ίσως η μεγαλύτερη ειρωνεία είναι ότι ενώ καταρρίπτει το αφήγημα της reasoning AI, η Apple ταυτόχρονα μάς υπόσχεται “εξυπνότερα iPhone”, γεμάτα… μα με τι άλλο; AI, φυσικά. Και στο τέλος, το μόνο που “reasonably” καταλαβαίνουμε είναι ότι ακόμα και οι πιο έξυπνοι αλγόριθμοι δεν μπορούν να απαντήσουν στην πιο ανθρώπινη ερώτηση απ’ όλες: «Μήπως λέω βλακείες και δεν το ξέρω;».
Άποψη: Ναι στην τεχνητή νοημοσύνη, αλλά χωρίς αυταπάτες
Η τεχνητή νοημοσύνη είναι, αναμφίβολα, ένα από τα πιο συναρπαστικά εργαλεία που έχει αναπτύξει η ανθρωπότητα τις τελευταίες δεκαετίες. Είναι γρήγορη, προσαρμόσιμη, εντυπωσιακά ικανή στη γλωσσική επεξεργασία και ιδανική για μια τεράστια γκάμα εφαρμογών: από τον αυτοματισμό ως την υποβοηθούμενη δημιουργικότητα, και από την ανάλυση δεδομένων μέχρι την προσομοίωση σύνθετων σεναρίων.
Αλλά ας είμαστε ξεκάθαροι: AI δεν σημαίνει σκέψη. Δεν σημαίνει κατανόηση. Δεν σημαίνει κρίση.
Η χρήση όρων όπως “reasoning” ή “αλυσίδα σκέψης” αποδίδει στα μοντέλα αυτά ανθρώπινα χαρακτηριστικά που δεν έχουν. Και ούτε πρόκειται να αποκτήσουν με το παρόν επίπεδο τεχνολογίας. Το να περιμένουμε από ένα μοντέλο να σκέφτεται όπως ένας άνθρωπος είναι σαν να περιμένουμε από έναν καθρέφτη να νιώσει αυτά που βλέπει.
Το ότι τα μοντέλα συχνά “υπερφορτώνονται” ή “καταρρέουν” μπροστά στην πολυπλοκότητα, δεν είναι ένδειξη αποτυχίας. Είναι υπενθύμιση του τι πραγματικά είναι: μάντεις και φορείς λέξεων που βασίζονται σε μαθηματικές πιθανότητες, και όχι φιλόσοφοι σε training.
Άρα τι κάνουμε;
Χρησιμοποιούμε την AI με μέτρο, γνώση και επίγνωση
Την αξιοποιούμε ως εργαλείο υποστήριξης, όχι αντικατάστασης σκέψης. Ως συνδημιουργό, όχι ως αυθεντία. Ως ένα “έξυπνο autocomplete” σε μεγαλειώδη κλίμακα, όχι ως ψηφιακή συνείδηση.
Η τεχνητή νοημοσύνη μπορεί να προσφέρει απίστευτες δυνατότητες, αρκεί να μην της αναθέτουμε ρόλους που ανήκουν στον άνθρωπο: ηθική κρίση, δημιουργική πρόθεση, ευθύνη. Εκεί, το σύστημα τρέχει στο κενό.
Στο τέλος, το πιο ανθρώπινο πράγμα που μπορούμε να κάνουμε απέναντι στην AI είναι να τη χρησιμοποιούμε όχι σαν να είναι “κάτι παραπάνω από εμάς”, αλλά σαν αυτό που είναι: Ένα εργαλείο στα χέρια ενός μυαλού που ακόμα, ευτυχώς, μπορεί να σκέφτεται.
➪ Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.
Σε μια σπάνια στροφή ενάντια στο ρεύμα του τεχνολογικού ενθουσιασμού, μια ομάδα ερευνητών της Apple κυκλοφόρησε πρόσφατα μελέτη που αφήνει βαριά υπονοούμενα: η πολυσυζητημένη “λογική” των σύγχρονων μοντέλων AI δεν είναι τίποτα άλλο παρά ένα καλά σκηνοθετημένο θέατρο εντυπώσεων.
Στη δημοσίευση, η οποία φέρει την υπογραφή του Samy Bengio, επικεφαλής της AI και ML Έρευνας της Apple, αμφισβητείται ανοιχτά η ικανότητα μοντέλων όπως το GPT (OpenAI), το Gemini (Google) και το Claude (Anthropic) να κάνουν πραγματικό “reasoning”, δηλαδή λογική επεξεργασία. Ή όπως το αποκαλούν οι συγγραφείς με ψυχρή ευστοχία: “μία ψευδαίσθηση σκέψης”.
Η μελέτη στηρίχθηκε σε “controllable puzzle environments”, δηλαδή σκόπιμα σχεδιασμένα προβλήματα λογικής που επιτρέπουν την αξιολόγηση της “συμπεριφοράς” των μοντέλων υπό πίεση. Το εύρημα; Τα μοντέλα καταρρέουν πλήρως όταν οι γρίφοι αποκτούν ένα ελάχιστο επίπεδο πολυπλοκότητας. Παρά την πρόσβαση σε τεράστιο “token budget” (δηλαδή χωρητικότητα επεξεργασίας), το αποτέλεσμα δεν είναι καλύτερη σκέψη, αλλά υπερφόρτωση.
Σύμφωνα με τους ερευνητές, αυτό δεν οφείλεται απλώς σε τεχνικά όρια, αλλά σε ένα βαθύτερο, “αντι-διαισθητικό” φαινόμενο: όσο περισσότερο εξασκούνται τα μοντέλα στη λογική, τόσο περισσότερο μπερδεύονται. Δηλαδή, το AI αναπτύσσει μια μορφή ψηφιακού υπερ-αναστοχασμού ή αλλιώς: σκέφτεται τόσο πολύ που σταματά να σκέφτεται.
Η τεχνολογία του μέλλοντος, τώρα με λιγότερη λογική
Όλα αυτά έρχονται σε μια χρονική στιγμή που η αγορά AI επενδύει δεκάδες δισεκατομμύρια σε κέντρα δεδομένων, υπολογιστικές υποδομές και “frontier models” που υπόσχονται να κατακτήσουν τον κόσμο, ή έστω να καταλάβουν τι τους ζητάς όταν λες “γράψε μου ένα μέιλ σαν να είμαι ο Καστοριάδης”.
Οι ερευνητές προειδοποιούν πως τα υπάρχοντα benchmarks (τα τεστ δηλαδή με τα οποία αξιολογούμε τις επιδόσεις των μοντέλων) είναι συχνά μολυσμένα από προεκπαιδευμένα δεδομένα και δεν προσφέρουν σαφείς ενδείξεις για την πραγματική “νοημοσύνη” των συστημάτων.
Δεν λείπουν φυσικά οι υποψίες για το ποιος επωφελείται από αυτά τα ευρήματα. Η Apple έχει δεχτεί σκληρή κριτική για το γεγονός ότι έχει μείνει πίσω στην κούρσα της τεχνητής νοημοσύνης, τη στιγμή που Google, OpenAI και Meta έχουν ήδη λανσάρει πλήρως λειτουργικά chatbots και APIs. Πολλοί σχολιαστές βλέπουν τη μελέτη ως μια κομψή βόμβα PR, που ουσιαστικά λέει: «Μπορεί να καθυστερήσαμε, αλλά τουλάχιστον δεν χάψαμε το παραμύθι».
Το παράδοξο; Παρά την έντονη αμφισβήτηση της ίδιας της τεχνολογίας, η Apple έχει ανακοινώσει το νέο της σύστημα “Apple Intelligence”, το οποίο υπόσχεται προσωπική τεχνητή νοημοσύνη στα iPhone και Mac – δηλαδή… βασισμένο σε αυτά ακριβώς τα μοντέλα που τώρα χαρακτηρίζει “σκιαγραφίες σκέψης”.
Η τεχνητή νοημοσύνη δεν απέτυχε, απλώς δεν είναι αυτό που νομίζαμε
Η μελέτη καταλήγει πως το σημερινό AI δεν “σκέφτεται” με την ανθρώπινη έννοια. Αντί για συνειρμό, αιτιολόγηση ή λογική συνέπεια, βασίζεται σε στατιστικά patterns. Και αυτό, όσο χρήσιμο κι αν είναι, δεν το καθιστά σκεπτόμενο ον, το κάνει έναν πολύ γρήγορο παπαγάλο με εξαιρετική μνήμη.
Η ερώτηση, λοιπόν, δεν είναι πια αν το AI μπορεί να σκεφτεί σαν άνθρωπος. Η ερώτηση είναι: Γιατί περιμέναμε να το κάνει;
Επίσης, υπάρχουν και άλλες ερωτήσεις. Είναι η Apple ο μόνος νηφάλιος παίκτης μέσα στον πυρετό της τεχνητής μεσσιανικότητας; Ή απλώς δείχνει το δάχτυλο την ώρα που προσπαθεί να καλύψει το χαμένο έδαφος; Ίσως η μεγαλύτερη ειρωνεία είναι ότι ενώ καταρρίπτει το αφήγημα της reasoning AI, η Apple ταυτόχρονα μάς υπόσχεται “εξυπνότερα iPhone”, γεμάτα… μα με τι άλλο; AI, φυσικά. Και στο τέλος, το μόνο που “reasonably” καταλαβαίνουμε είναι ότι ακόμα και οι πιο έξυπνοι αλγόριθμοι δεν μπορούν να απαντήσουν στην πιο ανθρώπινη ερώτηση απ’ όλες: «Μήπως λέω βλακείες και δεν το ξέρω;».
Άποψη: Ναι στην τεχνητή νοημοσύνη, αλλά χωρίς αυταπάτες
Η τεχνητή νοημοσύνη είναι, αναμφίβολα, ένα από τα πιο συναρπαστικά εργαλεία που έχει αναπτύξει η ανθρωπότητα τις τελευταίες δεκαετίες. Είναι γρήγορη, προσαρμόσιμη, εντυπωσιακά ικανή στη γλωσσική επεξεργασία και ιδανική για μια τεράστια γκάμα εφαρμογών: από τον αυτοματισμό ως την υποβοηθούμενη δημιουργικότητα, και από την ανάλυση δεδομένων μέχρι την προσομοίωση σύνθετων σεναρίων.
Αλλά ας είμαστε ξεκάθαροι: AI δεν σημαίνει σκέψη. Δεν σημαίνει κατανόηση. Δεν σημαίνει κρίση.
Η χρήση όρων όπως “reasoning” ή “αλυσίδα σκέψης” αποδίδει στα μοντέλα αυτά ανθρώπινα χαρακτηριστικά που δεν έχουν. Και ούτε πρόκειται να αποκτήσουν με το παρόν επίπεδο τεχνολογίας. Το να περιμένουμε από ένα μοντέλο να σκέφτεται όπως ένας άνθρωπος είναι σαν να περιμένουμε από έναν καθρέφτη να νιώσει αυτά που βλέπει.
Το ότι τα μοντέλα συχνά “υπερφορτώνονται” ή “καταρρέουν” μπροστά στην πολυπλοκότητα, δεν είναι ένδειξη αποτυχίας. Είναι υπενθύμιση του τι πραγματικά είναι: μάντεις και φορείς λέξεων που βασίζονται σε μαθηματικές πιθανότητες, και όχι φιλόσοφοι σε training.
Άρα τι κάνουμε;
Χρησιμοποιούμε την AI με μέτρο, γνώση και επίγνωση
Την αξιοποιούμε ως εργαλείο υποστήριξης, όχι αντικατάστασης σκέψης. Ως συνδημιουργό, όχι ως αυθεντία. Ως ένα “έξυπνο autocomplete” σε μεγαλειώδη κλίμακα, όχι ως ψηφιακή συνείδηση.
Η τεχνητή νοημοσύνη μπορεί να προσφέρει απίστευτες δυνατότητες, αρκεί να μην της αναθέτουμε ρόλους που ανήκουν στον άνθρωπο: ηθική κρίση, δημιουργική πρόθεση, ευθύνη. Εκεί, το σύστημα τρέχει στο κενό.
Στο τέλος, το πιο ανθρώπινο πράγμα που μπορούμε να κάνουμε απέναντι στην AI είναι να τη χρησιμοποιούμε όχι σαν να είναι “κάτι παραπάνω από εμάς”, αλλά σαν αυτό που είναι: Ένα εργαλείο στα χέρια ενός μυαλού που ακόμα, ευτυχώς, μπορεί να σκέφτεται.
➪ Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.