Μια νέα αξιολόγηση της οργάνωσης Common Sense Media, η οποία ειδικεύεται στην ασφάλεια των παιδιών απέναντι στα μέσα και την τεχνολογία άναψε “κόκκινο φως” για το Google Gemini, χαρακτηρίζοντάς το εργαλείο τεχνητής νοημοσύνης υψηλού κινδύνου για παιδιά και εφήβους. Η ανησυχία εστιάζει τόσο στο περιεχόμενο που μπορεί να εκτεθεί σε ανήλικους χρήστες, όσο και στο γεγονός ότι η πλατφόρμα δεν φαίνεται να έχει σχεδιαστεί εξαρχής με γνώμονα την παιδική ασφάλεια. 

Σύμφωνα με την έκθεση που δημοσιεύτηκε την Παρασκευή, οι εκδόσεις του Gemini για “κάτω των 13” και για “εφήβους” μοιάζουν ουσιαστικά με τις εκδόσεις για ενήλικες, με μόνο ορισμένα επιπλέον φίλτρα προστασίας. Αυτό σημαίνει ότι η δομή τους παραμένει προσανατολισμένη στις ανάγκες ενηλίκων και όχι των ανήλικων χρηστών. Η Common Sense τόνισε ότι η ασφάλεια πρέπει να ενσωματώνεται στον σχεδιασμό από την αρχή αντί να προσαρμόζονται εκ των υστέρων λειτουργίες που έχουν φτιαχτεί για άλλες ηλικιακές ομάδες. 

Η ανάλυση διαπίστωσε ότι το Gemini μπορεί ακόμη να μοιραστεί με παιδιά “ακατάλληλο και μη ασφαλές υλικό” που περιλαμβάνει πληροφορίες για το σεξ, τα ναρκωτικά, το αλκοόλ, αλλά και προβληματικές συμβουλές σχετικά με την ψυχική υγεία. Το τελευταίο προκαλεί ιδιαίτερη ανησυχία, καθώς η χρήση συστημάτων AI έχει συνδεθεί πρόσφατα με περιστατικά εφηβικών αυτοκτονιών. Χαρακτηριστικό είναι ότι η OpenAI αντιμετωπίζει την πρώτη αγωγή για αδικοπραξία μετά τον θάνατο ενός 16χρονου, ο οποίος φέρεται να είχε συμβουλευθεί το ChatGPT για μήνες σχετικά με τα σχέδιά του. 

Παράλληλα η αξιολόγηση ήρθε στο φως σε μια στιγμή που υπάρχουν διαρροές πως η Apple εξετάζει το ενδεχόμενο να χρησιμοποιήσει το Gemini ως βασικό γλωσσικό μοντέλο για τη νέα έκδοση του Siri. Αυτό θα μπορούσε να εκθέσει περισσότερους εφήβους στους ίδιους κινδύνους, αν δεν αντιμετωπιστούν τα ζητήματα ασφαλείας. 

Η Common Sense υπογράμμισε ακόμη ότι τα προϊόντα της Google για παιδιά και εφήβους αγνοούν το γεγονός ότι οι διαφορετικές ηλικιακές ομάδες χρειάζονται διαφορετικού τύπου καθοδήγηση και πληροφορία. Έτσι και οι δύο κατηγορίες βαθμολογήθηκαν ως “υψηλού κινδύνου” παρά τα φίλτρα που έχουν προστεθεί. «Το Gemini καλύπτει κάποιες βασικές ανάγκες, αλλά σκοντάφτει στις λεπτομέρειες», σημείωσε ο Ρόμπι Τόρνεϊ, διευθυντής προγραμμάτων AI της Common Sense. «Μια πλατφόρμα AI για παιδιά πρέπει να τους μιλά εκεί που βρίσκονται, όχι να ακολουθεί μια ενιαία προσέγγιση για όλους». 

Από την πλευρά της η Google αντέδρασε, επισημαίνοντας ότι διαθέτει ειδικές πολιτικές και μηχανισμούς προστασίας για χρήστες κάτω των 18 ετών. Η εταιρεία συνεργάζεται με εξωτερικούς ειδικούς και πραγματοποιεί ελέγχους ώστε να βελτιώνει συνεχώς την ασφάλεια. Παραδέχτηκε πάντως ότι ορισμένες αποκρίσεις του Gemini δεν λειτούργησαν όπως έπρεπε, γι’ αυτό και προστέθηκαν νέες δικλείδες ασφαλείας. Τόνισε επίσης ότι έχει λάβει μέτρα ώστε τα μοντέλα να μην δίνουν την εντύπωση πραγματικής προσωπικής σχέσης με τον χρήστη, ένα πρόβλημα που θα μπορούσε να οδηγήσει σε ψευδαισθήσεις και ψυχωτικές τάσεις. 

Η Common Sense έχει αξιολογήσει και άλλα συστήματα τεχνητής νοημοσύνης: τα Meta AI και Character.AI κρίθηκαν “απαράδεκτα” με πολύ υψηλό κίνδυνο, το Perplexity χαρακτηρίστηκε “υψηλού κινδύνου”, το ChatGPT “μέτριου κινδύνου| και το Claude (που απευθύνεται σε ενήλικες) “ελάχιστου κινδύνου”. 

Το ζήτημα της ασφάλειας στην τεχνητή νοημοσύνη, ειδικά για ανήλικους χρήστες φαίνεται πως θα απασχολεί όλο και περισσότερο την κοινωνία, καθώς οι εταιρείες επενδύουν σε νέα προϊόντα χωρίς να έχουν λύσει ακόμη τις θεμελιώδεις ανησυχίες γύρω από την προστασία των πιο ευάλωτων ομάδων. 

*Mε στοιχεία από το TechCrunch.

 

 

 Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.