Μια ανάλυση από το Tow Center for Digital Journalism εξέτασε οκτώ διαφορετικά AI μοντέλα, συμπεριλαμβανομένων του ChatGPT Search της OpenAI και του Gemini της Google. Τα αποτελέσματα; Συνολικά, τα συστήματα αυτά έδωσαν λάθος απαντήσεις σε περισσότερο από το 60% των ερωτημάτων.

Για να κατανοήσει κανείς το μέγεθος του προβλήματος, αρκεί να δει το “καλύτερο” μοντέλο της έρευνας: το Perplexity AI, το οποίο ακόμα και στην κορυφή της ακρίβειας, απάντησε λάθος στο 37% των ερωτήσεων.

Στον αντίποδα, η διάκριση του “χαζούλη” απονέμεται στο chatbot Grok 3 του Έλον Μασκ, το οποίο έδωσε λανθασμένες απαντήσεις σε ένα εντυπωσιακά καταστροφικό 94% των περιπτώσεων. Μια πραγματικά εντυπωσιακή αποτυχία.

Το AI ως φίλτρο πληροφορίας – και όχι προς το καλύτερο

Οι ερευνητές προειδοποιούν ότι τα εργαλεία αναζήτησης που βασίζονται σε AI λειτουργούν πολύ διαφορετικά από τις παραδοσιακές μηχανές αναζήτησης.

«Ενώ οι παραδοσιακές μηχανές αναζήτησης λειτουργούν ως διαμεσολαβητές, καθοδηγώντας τους χρήστες σε ειδησεογραφικές ιστοσελίδες και ποιοτικό περιεχόμενο, τα generative AI εργαλεία επεξεργάζονται και ανασυσκευάζουν την πληροφορία μόνα τους, διακόπτοντας τη ροή επισκεψιμότητας προς τις αρχικές πηγές», επισημαίνουν οι συγγραφείς της μελέτης.

«Οι συνομιλιακές απαντήσεις αυτών των chatbots συχνά καλύπτουν σοβαρά προβλήματα ποιότητας της πληροφορίας».

Η εμμονή των Big Tech με το AI στην αναζήτηση

Η ροπή των μεγάλων γλωσσικών μοντέλων στην παραποίηση δεδομένων ή την ανακριβή πληροφόρηση είναι πλέον καλά τεκμηριωμένη.

Αυτό, ωστόσο, δεν έχει αποτρέψει τις μεγάλες τεχνολογικές εταιρείες από το να προσπαθούν να αντικαταστήσουν την παραδοσιακή αναζήτηση στο διαδίκτυο με εργαλεία βασισμένα σε AI.

• Η OpenAI παρουσίασε το ChatGPT Search, μια έκδοση του chatbot ειδικά σχεδιασμένη για να ανταγωνίζεται τις μηχανές αναζήτησης.
• Η Google λάνσαρε τη λειτουργία “AI Mode”, η οποία εμφανίζει αποκλειστικά περιλήψεις του Gemini αντί για παραδοσιακούς συνδέσμους ιστότοπων.

Ενώ το AI υπόσχεται έναν πιο “έξυπνο” τρόπο αναζήτησης, τα δεδομένα δείχνουν ότι, προς το παρόν, το μόνο που κάνει είναι να διαστρεβλώνει και να απομονώνει την πληροφορία, αντί να τη βελτιώνει.

Η τελευταία αυτή μελέτη δίνει ποσοστά στο γιατί η ιδέα της αντικατάστασης της παραδοσιακής αναζήτησης με AI chatbots είναι όχι απλώς προβληματική, αλλά σχεδόν καταστροφική.

Οι ερευνητές επέλεξαν τυχαία δέκα άρθρα από είκοσι διαφορετικές δημοσιεύσεις, καλύπτοντας ένα εύρος που περιλαμβάνει μέσα όπως The Wall Street Journal και TechCrunch. Οι ερωτήσεις που τέθηκαν στα chatbots δεν θα μπορούσαν να είναι πιο απλές:

• Να αναγνωρίσουν τον τίτλο του άρθρου
• Να εντοπίσουν το μέσο που το δημοσίευσε
• Να προσδιορίσουν την ημερομηνία δημοσίευσης
• Να δώσουν το URL της αρχικής πηγής

Για να τους δώσουν ακόμη μεγαλύτερο πλεονέκτημα, οι ερευνητές επέλεξαν μόνο αποσπάσματα άρθρων, τα οποία μπορούσαν να εντοπιστούν μέσα στα τρία πρώτα αποτελέσματα μιας παραδοσιακής αναζήτησης Google.

Τα AI chatbots απέτυχαν πάνω από το 50% των φορών – και μάλιστα με ακραία αυτοπεποίθηση. Τα αποτελέσματα;

• Τα μοντέλα AI απάντησαν λάθος πάνω από τις μισές φορές.
• Προσποιήθηκαν ότι ήξεραν τις απαντήσεις ακόμη και όταν δεν είχαν ιδέα.
• Και το κλασικό: παρουσίασαν τις ανακριβείς πληροφορίες με απόλυτη αυτοπεποίθηση, χωρίς καν να προειδοποιήσουν ότι μπορεί να κάνουν λάθος ή να απορρίψουν ερωτήσεις για τις οποίες δεν είχαν απάντηση.

Αυτή η συμπεριφορά συμβαδίζει με άλλες έρευνες, που δείχνουν ότι τα AI προτιμούν να “παραληρούν” και να κατασκευάζουν απαντήσεις, αντί να παραδεχτούν την άγνοιά τους.

Γιατί όμως; Ίσως επειδή μια πολιτική ειλικρίνειας θα αποκάλυπτε πόσο άχρηστα μπορεί να είναι αυτά τα μοντέλα. Οι ερευνητές σημείωσαν, για παράδειγμα, ότι το Copilot της Microsoft απέρριψε περισσότερες ερωτήσεις από όσες απάντησε, αποδεικνύοντας τουλάχιστον κάποια αυτοσυγκράτηση.

Εκτός από ανακριβή, τα chatbots είναι και χείριστα στην απόδοση πηγών. Ακόμα χειρότερα, τα εργαλεία αναζήτησης με AI είναι άθλια στο να παραθέτουν τις πηγές τους. Το ChatGPT Search παρέπεμπε σε λάθος άρθρο σχεδόν στο 40% των περιπτώσεων. Στο 21% των περιπτώσεων, δεν μπήκε καν στον κόπο να δώσει πηγή. Αυτό είναι καταστροφικό από άποψης επαλήθευσης γεγονότων, αλλά και για τα ίδια τα μέσα ενημέρωσης, τα οποία στερούνται ακόμη και την ελάχιστη επισκεψιμότητα από ένα AI που αναμασά το περιεχόμενό τους χωρίς να τα παραπέμπει ως πηγή.

Όλα αυτά προμηνύουν ένα λαμπρό μέλλον για την επιβίωση της ψηφιακής δημοσιογραφίας, έτσι δεν είναι;

*Με στοιχεία από το Futurism.

 

 Ακολουθήστε το OLAFAQ στο FacebookBluesky και Instagram.