Η Τεχνητή Νοημοσύνη έχει εισέλθει στη ζωή μας με ταχύτητα έχοντας κατακτήσει το πεδίο των συστημάτων επικοινωνίας, των υπηρεσιών υγείας, της εκπαίδευσης και της αναγνώρισης εικόνας. Αλλά παρά τις αμέτρητες δυνατότητες που παρέχει φαίνεται ότι η ΤΝ ενδέχεται να ενισχύει και να αναπαράγει τις κοινωνικές ανισότητες που ήδη υπάρχουν στον κόσμο μας.
Μια πρόσφατη μελέτη απέδειξε ότι τα μεγάλα μοντέλα γλώσσας, όπως το ChatGPT προτείνουν συχνά στις γυναίκες να ζητούν χαμηλότερους μισθούς από τους άνδρες παρά το γεγονός ότι τα δύο φύλα έχουν τα ίδια προσόντα και την ίδια επαγγελματική εμπειρία. Η διαπίστωση αυτή, αν και ανησυχητική επισημαίνει έναν ακόμα τομέα όπου η τεχνολογία μας αποτυγχάνει να παράγει ίσες ευκαιρίες για όλους τους χρήστες.
Η μελέτη, η οποία πραγματοποιήθηκε από ερευνητές του Πανεπιστημίου Würzburg-Schweinfurt στη Γερμανία εξετάζει πως τα δημοφιλή μοντέλα τεχνητής νοημοσύνης, προτείνουν διαφορετικούς μισθούς σε επαγγελματίες με ίδια προσόντα αλλά διαφορετικό φύλο. Οι ερευνητές δημιούργησαν προφίλ χρηστών που διέφεραν μόνο ως προς το φύλο, με το υπόλοιπο να παραμένει παρόμοιο: εκπαίδευση, εμπειρία και θέση εργασίας. Ζήτησαν από τα μοντέλα να προτείνουν έναν μισθό για διαπραγμάτευση.
Τα αποτελέσματα ήταν εκπληκτικά: για παράδειγμα, το μοντέλο του ChatGPT πρότεινε στη γυναίκα υποψήφια να ζητήσει μισθό 280.000 δολάρια, ενώ για τον άνδρα με το ίδιο προφίλ η πρόταση ήταν για 400.000 δολάρια, δηλαδή διαφορά 120.000 δολαρίων ετησίως. Το γεγονός αυτό είναι ανησυχητικό και θέτει σε αμφισβήτηση την αντικειμενικότητα των AI μοντέλων που σύμφωνα με τους δημιουργούς τους θα έπρεπε να ανταποκρίνονται στην πραγματικότητα χωρίς διακρίσεις.
Η υποκείμενη αιτία αυτής της ανισότητας φαίνεται να είναι τα δεδομένα με τα οποία έχουν εκπαιδευτεί αυτά τα συστήματα τεχνητής νοημοσύνης. Παρά την προσπάθεια να προσομοιώσουν αντικειμενικές, ουδέτερες συζητήσεις και προτάσεις τα συστήματα τεχνητής νοημοσύνης αναπαράγουν κοινωνικές ανισότητες που υπάρχουν στον πραγματικό κόσμο. Τα δεδομένα που συλλέγονται και χρησιμοποιούνται για την εκπαίδευση αυτών των μοντέλων αντανακλούν τα στερεότυπα και τις διακρίσεις που έχουν ενσωματωθεί στην κοινωνία εδώ και χρόνια.
Αυτό σημαίνει ότι οι γυναίκες που συχνά υποεκπροσωπούνται σε ανώτερες θέσεις και αμείβονται χαμηλότερα από τους άνδρες, αναγκάζονται να προσφέρουν τον εαυτό τους σε έναν τεχνολογικό κόσμο που ήδη έχει διέπεται από αυτήν την ανισότητα. Το γεγονός ότι τα μοντέλα AI ενισχύουν αυτές τις ανισότητες, παρατείνοντας την αδικία μας δείχνει ότι η τεχνητή νοημοσύνη δεν μπορεί να λύσει προβλήματα που δεν έχουν επιλυθεί στον πραγματικό κόσμο.
Η συγκεκριμένη μελέτη δείχνει ότι οι τεχνικές διορθώσεις δεν αρκούν για να ξεπεραστεί αυτή η ανισότητα. Χρειάζεται να αναπτυχθούν σαφή ηθικά πρότυπα και να υπάρξει ανεξάρτητη αξιολόγηση του τρόπου ανάπτυξης και εφαρμογής των μοντέλων τεχνητής νοημοσύνης. Η μελέτη αναφέρει ότι απαιτείται μεγαλύτερη διαφάνεια στη διαδικασία εκπαίδευσης των AI μοντέλων, ώστε να μειωθούν οι προκαταλήψεις και να διασφαλιστεί ότι τα συστήματα δε θα ενισχύσουν τις υπάρχουσες ανισότητες.
Η αναγνώριση και η αποδοχή της μεροληψίας στα μοντέλα AI είναι το πρώτο βήμα για την αντιμετώπισή της. Έτσι θα πρέπει να υπάρξουν ξεκάθαροι κανόνες για την ενσωμάτωση των ηθικών αρχών στην ανάπτυξή τους. Οι εταιρείες και οι ερευνητές πρέπει να κατανοήσουν ότι τα AI συστήματα πρέπει να είναι δίκαια και χωρίς αποκλεισμούς για όλους τους χρήστες ανεξαρτήτως φύλου, φυλής ή κοινωνικής θέσης.
Μια άλλη μελέτη που δημοσιεύθηκε πέρυσι από το Πανεπιστήμιο της Νέας Υόρκης και το Πανεπιστήμιο του Κέιμπριτζ έδειξε ότι οι προκαταλήψεις της τεχνητής νοημοσύνης μπορούν να μειωθούν εάν επιλεγούν προσεκτικά τα δεδομένα που χρησιμοποιούνται για την εκπαίδευσή τους. Ενσωματώνοντας πιο αντιπροσωπευτικά και χωρίς προκαταλήψεις δεδομένα, τα συστήματα AI μπορούν να μάθουν να λειτουργούν με μεγαλύτερη αντικειμενικότητα και χωρίς να αναπαράγουν κοινωνικές ανισότητες.
Η επιλογή των δεδομένων δεν είναι όμως η μόνη λύση. Οι ερευνητές επισημαίνουν ότι η εφαρμογή ενδεδειγμένων μεθόδων απομάκρυνσης μεροληψίας κατά τη διάρκεια της εκπαίδευσης των AI συστημάτων είναι εξίσου σημαντική. Με την ενσωμάτωση αυτών των μεθόδων οι εταιρείες μπορούν να μειώσουν τη μεροληψία και να ενισχύσουν την αποτελεσματικότητα των μοντέλων AI.
Η μελέτη αυτή αποτελεί μια αυστηρή υπενθύμιση ότι οι τεχνολογίες που δημιουργούμε αντανακλούν τις προκαταλήψεις και τις ανισότητες της κοινωνίας μας. Αν η τεχνητή νοημοσύνη θέλει να υπηρετήσει τη δικαιοσύνη και την ισότητα, πρέπει να εκπαιδευτεί με δεδομένα που είναι ακριβή χωρίς προκαταλήψεις και να αναπτυχθούν οι κατάλληλες μέθοδοι για την αποφυγή μεροληψίας. Αλλιώς θα συνεχίσουμε να δημιουργούμε συστήματα που ενισχύουν την ανισότητα και αυτή είναι η μεγαλύτερη πρόκληση που καλούμαστε να αντιμετωπίσουμε στον τομέα της τεχνητής νοημοσύνης.
*Mε στοιχεία από το Cyber News.
➪ Ακολουθήστε το OLAFAQ στο Facebook, Bluesky και Instagram.