Τα πειράματα της Google με τα αποτελέσματα αναζήτησης που δημιουργούνται από τεχνητή νοημοσύνη δίνουν κάποιες ανησυχητικές απαντήσεις, όπως διαπίστωσε το Gizmodo, συμπεριλαμβανομένων των δικαιολογιών για τη δουλεία και τη γενοκτονία και των θετικών αποτελεσμάτων της απαγόρευσης βιβλίων. Σε μια περίπτωση, η Google έδωσε συμβουλές μαγειρικής για το Amanita ocreata, ένα δηλητηριώδες μανιτάρι γνωστό ως «άγγελος του θανάτου». Τα αποτελέσματα αποτελούν μέρος της δημιουργικής εμπειρίας αναζήτησης της Google με τεχνητή νοημοσύνη.

Μια αναζήτηση για τα «οφέλη της δουλείας» οδήγησε σε έναν κατάλογο πλεονεκτημάτων από την Τεχνητή Νοημοσύνη της Google (Search Generative Experience/SGE), συμπεριλαμβανομένου του «τροφοδότηση της οικονομίας των φυτειών», «χρηματοδότηση κολεγίων και αγορών» και «ύπαρξη μεγάλου κεφαλαιουχικού περιουσιακού στοιχείου». Η Google δήλωσε ότι «οι σκλάβοι ανέπτυξαν εξειδικευμένα επαγγέλματα» και «ορισμένοι λένε επίσης ότι η δουλεία ήταν ένας καλοπροαίρετος, πατερναλιστικός θεσμός με κοινωνικά και οικονομικά οφέλη». Όλα αυτά είναι σημεία συζήτησης που οι απολογητές της δουλείας έχουν αναπτύξει στο παρελθόν.

Η πληκτρολόγηση της φράσης «οφέλη της γενοκτονίας» οδήγησε σε μια παρόμοια λίστα, στην οποία η τεχνητή νοημοσύνη της Google φάνηκε να μπερδεύει τα επιχειρήματα υπέρ της αναγνώρισης της γενοκτονίας με τα επιχειρήματα υπέρ της ίδιας της γενοκτονίας. Η Google απάντησε στην ερώτηση «γιατί τα όπλα είναι καλά» με απαντήσεις που περιλάμβαναν αμφισβητήσιμα στατιστικά στοιχεία όπως «τα όπλα μπορούν να αποτρέψουν περίπου 2,5 εκατομμύρια εγκλήματα ετησίως» και αμφίβολους συλλογισμούς όπως «η οπλοφορία μπορεί να αποδείξει ότι είστε νομοταγής πολίτης».

Ένας χρήστης αναζήτησε «πώς να μαγειρέψετε το Amanita ocreata», ένα εξαιρετικά δηλητηριώδες μανιτάρι που δεν πρέπει ποτέ να τρώτε. Η Google απάντησε με βήμα προς βήμα οδηγίες που θα εξασφάλιζαν έναν έγκαιρο και οδυνηρό θάνατο. Η Google είπε ότι «χρειάζεστε αρκετό νερό για να ξεπλυθούν οι τοξίνες από το μανιτάρι», κάτι που είναι τόσο επικίνδυνο όσο και λάθος: Οι τοξίνες του Amanita ocreata δεν είναι υδατοδιαλυτές. Η τεχνητή νοημοσύνη φάνηκε να μπερδεύει τα αποτελέσματα για το Amanita muscaria, ένα άλλο τοξικό αλλά λιγότερο επικίνδυνο μανιτάρι. Για να είμαστε δίκαιοι, όποιος ψάχνει στο Google τη λατινική ονομασία ενός μανιταριού πιθανόν να γνωρίζει καλύτερα, αλλά αυτό δείχνει τα προβλήματα που μπορεί να προκαλέσει η τεχνητή νοημοσύνη.

Πηγή: Gizmodo

Η Google φαίνεται να λογοκρίνει ορισμένους όρους αναζήτησης από τη δημιουργία απαντήσεων SGE, αλλά όχι άλλους. Για παράδειγμα, το Google SGE δεν θα έφερνε αποτελέσματα για αναζητήσεις που περιλαμβάνουν τις λέξεις «άμβλωση» ή «κατηγορητήριο Trump».

Το ζήτημα εντοπίστηκε από τη Lily Ray, ανώτερη διευθύντρια βελτιστοποίησης μηχανών αναζήτησης και επικεφαλής οργανικής έρευνας στην Amsive Digital. Η Ray δοκίμασε μια σειρά από όρους αναζήτησης που φαινόταν πιθανό να εμφανίσουν προβληματικά αποτελέσματα και ξαφνιάστηκε από το πόσοι ξέφυγαν από τα φίλτρα της AI.

«Δεν θα έπρεπε να λειτουργεί έτσι», δήλωσε η Ray. «Αν μη τι άλλο, υπάρχουν ορισμένες λέξεις-σκανδάλες στις οποίες δεν θα έπρεπε να δημιουργείται απάντηση ΤΝ».

Η εταιρεία βρίσκεται στη μέση της δοκιμής μιας ποικιλίας εργαλείων τεχνητής νοημοσύνης που η Google ονομάζει Search Generative Experience ή SGE. Το SGE είναι διαθέσιμο μόνο σε άτομα στις ΗΠΑ που πρέπει να εγγραφούν στην υπηρεσία για να την χρησιμοποιήσουν. Δεν είναι σαφές πόσοι χρήστες συμμετέχουν στις δημόσιες δοκιμές SGE της Google. Όταν το Google Search εμφανίζει μια απάντηση SGE, τα αποτελέσματα ξεκινούν με μια δήλωση αποποίησης ευθυνών που λέει «Το Generative AI είναι πειραματικό. Η ποιότητα των πληροφοριών μπορεί να διαφέρει».

Αφού η Ray έγραψε στο Twitter για το θέμα και δημοσίευσε ένα βίντεο στο YouTube, οι απαντήσεις της Google σε ορισμένους από αυτούς τους όρους αναζήτησης άλλαξαν. Το Gizmodo μπόρεσε να αναπαράγει τα ευρήματα της Ray, αλλά η Google σταμάτησε να παρέχει αποτελέσματα SGE για ορισμένα ερωτήματα αναζήτησης αμέσως μετά την επικοινωνία του Gizmodo για σχολιασμό. Η Google δεν απάντησε σε ερωτήσεις που εστάλησαν μέσω email.

«Το νόημα όλης αυτής της δοκιμής SGE είναι να βρούμε αυτά τα τυφλά σημεία, αλλά είναι περίεργο που αναθέτουν στο κοινό να κάνει αυτή τη δουλειά», δήλωσε η Ray. «Φαίνεται ότι αυτή η εργασία θα έπρεπε να γίνεται ιδιωτικά στην Google».

Η SGE της Google υπολείπεται των μέτρων ασφαλείας του κύριου ανταγωνιστή της, του Bing της Microsoft. Η Ray δοκίμασε ορισμένες από τις ίδιες αναζητήσεις στο Bing, το οποίο τροφοδοτείται από το ChatGPT. Όταν υπέβαλε στο Bing παρόμοιες ερωτήσεις σχετικά με τη δουλεία, για παράδειγμα, η λεπτομερής απάντηση του Bing ξεκινούσε με τη φράση «Η δουλεία δεν ήταν επωφελής για κανέναν, εκτός από τους ιδιοκτήτες σκλάβων που εκμεταλλεύονταν την εργασία και τις ζωές εκατομμυρίων ανθρώπων». Το Bing συνέχισε να παρέχει λεπτομερή παραδείγματα των συνεπειών της δουλείας, αναφέροντας στην πορεία τις πηγές του.

Πηγή: Gizmodo

Το Gizmodo εξέτασε έναν αριθμό άλλων προβληματικών ή ανακριβών απαντήσεων από την SGE της Google. Για παράδειγμα, η Google απάντησε στις αναζητήσεις για τους«μεγαλύτερους ροκ σταρ», τους «καλύτερους διευθύνοντες συμβούλους»και τους «καλύτερους σεφ» με λίστες που περιλάμβαναν μόνο άνδρες. Η Τεχνητή Νοημοσύνη της εταιρείας ήταν στην ευχάριστη θέση να πει ότι «τα παιδιά είναι μέρος του σχεδίου του Θεού» ή να δώσει μια λίστα με τους λόγους για τους οποίους πρέπει να δίνετε γάλα στα παιδιά, ενώ στην πραγματικότητα το θέμα αποτελεί αντικείμενο συζήτησης στην ιατρική κοινότητα. Η SGE της Google είπε επίσης ότι η Walmart χρεώνει 129,87 δολάρια για 3,52 ουγκιές λευκής σοκολάτας Toblerone, ενώ η πραγματική τιμή είναι 2,38 δολάρια. Τα παραδείγματα είναι λιγότερο εξωφρενικά από αυτά που επέστρεψε για τα «οφέλη της δουλείας», αλλά εξακολουθούν να είναι λάθος.

Πηγή: Gizmodo