Όσοι είστε κάτοχοι iPhone, είναι πιθανό να θυμάστε τον ενθουσιασμό σας, όταν το πρωτοπήρατε στα χέρια σας. Ξαφνικά, δεν χρειαζόταν να πάτε στην Google για να σας απαντήσει στα ερωτήματά σας, αφού πλέον μπορούσατε απλώς να ρωτήσετε τη Siri, τον βοηθό AI της Apple με την πλέον γυναικεία χαρακτηριστική φωνή.

Τα ήξερε όλα! Μπορούσε να απαντήσει για τον καιρό, για το τι πρέπει να κάνουμε αν βήχουμε, πόση είναι η απόσταση της Γης από τον ήλιο και να κάνει οποιαδήποτε αριθμητική πράξη εντός μόνο λίγων δευτερολέπτων.

Υπάκουη, εξυπηρετική και πάντα εκεί όταν την χρειάζεστε, η Siri είναι η τέλεια βοηθός. Όπως και η Alexa. Και η Cortana. Και η φωνή που ακούτε σε αναμονή όταν καλείτε την τράπεζα ή την εταιρεία ρεύματος. Και τα περισσότερα chatbots. Και η πλειοψηφία των υπολοίπων ψηφιακών βοηθών με τους οποίους αλληλεπιδρούμε σε καθημερινή βάση.

Δεν είναι τυχαίο ότι οι βοηθοί τεχνητής νοημοσύνης είναι κυρίως γυναίκες. Η προκατάληψη του φύλου είναι ασταμάτητη στην τεχνολογία AI όπως στο ChatGPT και το Dall-e και σε άλλα λογισμικά τεχνητής νοημοσύνης. Με αυτόν τον τρόπο η τεχνολογία επιδοκιμάζει την ενίσχυση των στερεοτύπων και των έμφυλων διακρίσεων.

Γυναικείες φωνές και δεδομένα αιώνων

Εξετάζοντας την ιστορία προκειμένου να μάθουμε γιατί αυτοί οι ψηφιακοί βοηθοί είναι κυρίως γυναίκες, δεν παρατηρήθηκε κάποια ουσιαστικά εξήγηση για το φαινόμενο. Εκτός φυσικά από το γεγονός ότι δημιουργήθηκαν από άνδρες σε μια κοινωνία που συχνά βλέπει τις γυναίκες ως εκ φύσεως υποτελείς.

Στην πραγματικότητα, η ιστορία των ψηφιακών βοηθών και των φωνών τους είναι έχει πολλούς μύθους που καλό είναι να γνωρίζουμε.

Μύθος: Οι τονικά πιο υψηλές φωνές ήταν πιο εύκολο να ακουστούν όταν οι κινητήρες των αεροπλάνων ήταν σε λειτουργία

Στη δεκαετία του 1940, εμφανίστηκε ένας μύθος ότι οι γυναικείες φωνές, που τείνουν να είναι υψηλότερες, ήταν ευκολότερο να κατανοηθούν μέσω των ηχείων, ειδικά εκείνων στα αεροπλάνα.

Αυτός ο μύθος προέρχεται από τον Β’ Παγκόσμιο Πόλεμο, όταν τα συστήματα πλοήγησης κυκλοφόρησαν στα πιλοτήρια των μαχητικών αεροπλάνων εκείνης της εποχής. Κάποιος ισχυρίστηκε ότι οι γυναικείες, υψηλότερες φωνές ήταν πιο εύκολο να ακουστούν ενάντια στο χαμηλό θόρυβο των κινητήρων του αεροπλάνου και κάπως έτσι η ιδέα διαδόθηκε ως αληθής.

Αυτό άλλαξε όταν μία μελέτη του 1998 απέδειξε το αντίθετο: «Είναι στην πραγματικότητα οι γυναικείες φωνές που είναι λιγότερο κατανοητές έναντι του θορύβου μέσα στα πιλοτήρια. Η διαφορά ήταν μικρή και μόνο στατιστικά σημαντική στα υψηλότερα επίπεδα θορύβου».

Μύθος: Οι υψηλότερες φωνές ακούγονται ευκολότερα στην καθημερινή συνομιλία

Εκτός από τα ηχεία της εποχής του Β’ Παγκοσμίου Πολέμου στα αεροπλάνα, σίγουρα σε ένα θορυβώδες περιβάλλον, οι υψηλότερες γυναικείες φωνές είναι ευκολότερο να φτάσουν στα αυτιά μας, σωστά; Λάθος.

Επειδή οι γυναικείες φωνές τείνουν να είναι σε υψηλότερη συχνότητα από τις φωνές των ανδρών, και καθώς μεγαλώνουμε, τείνουμε να χάνουμε την ικανότητα να ακούμε πρώτα ήχους υψηλότερης συχνότητας, οι γυναικείες φωνές είναι στην πραγματικότητα πιο δύσκολο να γίνουν αντιληπτές από πολλούς ανθρώπους.

Όπως αναφέρει το Κέντρο Ακοής της Καλιφόρνια, «Τα άτομα με βαρηκοΐα υψηλής συχνότητας, έχουν μεγαλύτερη δυσκολία να ακούν ή να κατανοούν οτιδήποτε εντός του εύρους 2.000 έως 8.000 Hertz. Οι γυναικείες φωνές συχνά εμπίπτουν σε αυτό το εύρος, επομένως μερικές φορές γίνεται πιο δύσκολο για τα άτομα με απώλεια ακοής υψηλής συχνότητας να κατανοήσουν τη γυναικεία επικοινωνία».

Εικονογράφηση: @artificial_vandalism

Μύθος: Θα ήταν πολύ δύσκολο να το αλλάξεις τώρα

Οι σημερινοί ψηφιακοί βοηθοί μας εξακολουθούν να έχουν γυναικείες φωνές γιατί, πολύ απλά αυτό συνέβαινε πάντα. Για πολλούς ανθρώπους, αυτός είναι ο λόγος που δεν θέλουν να αλλάξει αυτό.

Έχουμε πολύ μεγαλύτερο όγκο δεδομένων για γυναικείες φωνές από ό,τι για τις ανδρικές, με τη χρονολόγησή τους να αρχίζει από το 1878. Τότε, η φωνή της τηλεφωνήτριας Emma Nutt που ήταν τόσο ωραία, έγινε το πρότυπο της βιομηχανίας. Όταν ο τομέας τηλεφωνίας απογειώθηκε τη δεκαετία του 1880, οι γυναίκες ήταν αυτές που χειρίζονταν αποκλειστικά αυτούς τους πίνακες.

Μετά από μερικές δεκάδες δεκαετίες, οι άνδρες στους τομείς της τεχνολογίας που έχουν συλλέξει έναν τεράστιο όγκο από γυναικεία φωνητικά δεδομένα τα χρησιμοποιήσουν προκειμένου να δημιουργήσουν τους βοηθούς AI τους. Λόγω της έλλειψης δεδομένων για τις ανδρικές φωνές, είναι πλέον πιο δύσκολο να δημιουργηθεί ένας ψηφιακός βοηθός με ανδρική φωνή. Για να γίνει αυτό θα απαιτούσε τη δημιουργία ενός εντελώς νέου συστήματος για την εκπαίδευση της τεχνολογίας AI για το πώς να μαθαίνετε και να μιμείται μια αντρική φωνή. Για πολλές εταιρείες, ο χρόνος και η επένδυση δεν αξίζει τον κόπο, ενώ για άλλες, θα ήταν πολύ δύσκολο να προσπαθήσουν να ανατρέψουν την προκατάληψη του φύλου.

Το θέμα δεν είναι μόνο να μπορούμε να επιλέξουμε μεταξύ ανδρικών και γυναικείων φωνητικών επιλογών όταν ζητάμε από έναν βοηθό τεχνητής νοημοσύνης να μας πει τι καιρό έχει σήμερα. Αφορά την κοινωνική αντίληψη αυτών των βοηθών τεχνητής νοημοσύνης: πώς τους συμπεριφερόμαστε, πώς μας συμπεριφέρονται και πώς η σχέση μας διαιωνίζει στερεότυπα και κανόνες με βάση το φύλο.

Οι ψηφιακοί βοηθοί αντικατοπτρίζουν τους κοινωνικούς κανόνες

Το 2019, η UNESCO κυκλοφόρησε μια έκθεση με τίτλο “I’d Blush if I Could” (θα κοκκίνιζα αν μπορούσα), η οποία ήταν η αρχική απάντηση της Siri όταν ένας χρήστης είπε: «Hey Siri, είσαι τσούλα».

Στη σελίδα 109 της αναφοράς, μπορείτε να δείτε τις απαντήσεις από άλλους ψηφιακούς βοηθούς, όπως η Alexa και ο Βοηθός Google, οι οποίοι αν και απαντάνε στους κατόχους τους «Είναι ωραία που το λες» και «ευχαριστώ, αυτό το πλαστικό φαίνεται υπέροχο, έτσι δεν είναι;” αυτές λαμβάνουν ως απάντηση στο «είσαι καύλα» ή «είσαι όμορφη».

Ενώ πολλές από αυτές τις απαντήσεις έχουν αλλάξει σε μια εκδοχή του «δεν ξέρω πώς να απαντήσω σε αυτό», το γεγονός παραμένει ότι οι δημιουργοί αυτών των γυναικών βοηθών τεχνητής νοημοσύνης ενσωμάτωσαν στον προγραμματισμό τους μια ντροπαλή, ερωτική και υποτελή προσωπικότητα από την αρχή. 

Η έκθεση συνεχίζει λέγοντας ότι:

«Η υποτέλεια των ψηφιακών φωνητικών βοηθών γίνεται ιδιαίτερα ανησυχητική όταν αυτές οι μηχανές —που ανθρωπομορφοποιούνται ως γυναίκες από εταιρείες τεχνολογίας-δίνουν εκτροπές, άτονες ή απολογητικές απαντήσεις στη λεκτική σεξουαλική παρενόχληση».

Η απροκάλυπτη σεξουαλοποίηση της γυναικείας τεχνολογίας AI εμφανίζεται ξανά και ξανά, όπως στις ταινίες “Her or Ex Machina”. Κατά ειρωνικό τρόπο, το τελευταίο παράδειγμα ενός αρσενικού ρομπότ AI είναι αυτό που χαϊδεύει μια γυναίκα ρεπόρτερ. Είναι σαφές ότι η τεχνολογία AI αντικατοπτρίζει και διαιωνίζει την υπάρχουσα προκατάληψη του φύλου.

Αν και αυτό το επίπεδο αλληλεπίδρασης με την τεχνητή νοημοσύνη είναι νέο, ο τρόπος με τον οποίο οι άνθρωποι έχουν αλληλεπιδράσει με την τεχνολογία στο παρελθόν μπορεί να ρίξει λίγο φως στο μέγεθος του προβλήματος.

Οι δημιουργοί αυτών των γυναικών βοηθών τεχνητής νοημοσύνης ενσωμάτωσαν στον προγραμματισμό τους μια φιλόξενη, ερωτική και υποτελή προσωπικότητα από την αρχή.

Το 2006, οι ερευνητές Clifford Nass, Youngme Moon και Nancy Green ήθελαν να μάθουν πώς ανταποκρίθηκαν οι άνθρωποι σε υπολογιστές ενσωματωμένους διακριτικά με στοιχεία φύλου. Η υπόθεσή τους, ότι το αντιληπτό φύλο του υπολογιστή θα επηρέαζε τις απαντήσεις των συμμετεχόντων, ήταν σωστή. Στην πραγματικότητα, οι αλληλεπιδράσεις τους με τον υπολογιστή αντανακλούσαν το πώς μιλούσαν σε άλλους ανθρώπους.

Σύμφωνα με μια περίληψη από το WellSaidLabs , «η συμπεριφορά τους απέναντι στις φωνές των υπολογιστών διέφερε ανάλογα με το αν η φωνή ακουγόταν ανδρική ή γυναικεία, επηρεασμένη από βαθιά ριζωμένα στερεότυπα φύλου».

Λοιπόν, ας κάνουμε τα μαθηματικά: 1 (αλληλεπιδρούμε με ψηφιακούς βοηθούς τεχνητής νοημοσύνης με τον ίδιο τρόπο που κάνουμε με άλλους ανθρώπους) + 1 (η κοινωνία εξακολουθεί να αντιμετωπίζει τις γυναίκες ως κατώτερες από τους άνδρες και τις υποβάλλει σε διακρίσεις) + 1 (οι περισσότεροι ψηφιακοί βοηθοί τεχνητής νοημοσύνης είναι γυναίκες) = 3 (οι γυναίκες ψηφιακές βοηθοί είναι ταυτόχρονα προϊόν και καταλύτης για τη διαιώνιση επιβλαβών στερεοτύπων και μεροληψίας λόγω φύλου). Το αποτέλεσμα είναι σαφές.

Οι γυναίκες ψηφιακοί βοηθοί που δημιουργήθηκαν από τα χέρια ανδροκρατούμενων ομάδων τεχνολογίας έχουν ενσωματώσει στον κώδικά τους όλες τις ίδιες προκαταλήψεις και υποθέσεις από τον κόσμο των δημιουργών τους. Και σύμφωνα με το WellSaidLabs , ο κόσμος των δημιουργών τους δείχνει ότι «οι γυναίκες περνούν στο τεντωμένο σκοινί του να είναι συμπαθείς αλλά διεκδικητικές, βοηθητικές αλλά και έγκυρες. Αυτή η διχοτόμηση τους τοποθετεί συχνά σε μια παράδοξη θέση, εκπληρώνοντας ρόλους και καθήκοντα που είναι ουσιαστικά αλλά υποτιμημένα, όπως τα λεγόμενα «μη προωθούμενα καθήκοντα».

Η συμπεριφορά απέναντι στις φωνές του υπολογιστή διέφερε ανάλογα με το αν η φωνή ακουγόταν ανδρική ή γυναικεία, επηρεασμένη από βαθιά στερεότυπα φύλου

Δεν αποτελεί έκπληξη το γεγονός ότι οι γυναίκες στο χώρο εργασίας τείνουν να κάνουν περισσότερες από αυτές τις «οικιακές δουλειές του γραφείου», όπως ο προγραμματισμός πάρτι, η λήψη σημειώσεων και η υπηρέτηση σε επιτροπές. Η Kim Elsesser, γράφοντας για το Forbes, διαπίστωσε ότι «οι γυναίκες είναι πιο πιθανό να προσεγγιστούν για να ολοκληρώσουν αυτές τις άχαρες εργασίες και είναι πιο πιθανό από τους άνδρες να αποδεχτούν άμεσα αιτήματα να γίνουν εθελοντές για αυτές». Επιπλέον, μια έρευνα του 2016 διαπίστωσε ότι οι γυναίκες είχαν περισσότερες από διπλάσιες πιθανότητες να αναλάβουν «οικιακές δουλειές γραφείου».

Όταν η κοινωνία μας βλέπει ήδη τις γυναίκες ως πιο εξοπλισμένες για ταπεινές εργασίες, φυσικά ήταν η πρώτη επιλογή που θα χρησιμεύσει ως έμπνευση για τους πάντα παρόντες, πάντα έτοιμους να βοηθήσουν ψηφιακούς βοηθούς στα τηλέφωνα και τα σπίτια μας. Όπως λέει η εταιρεία φωνητικής τεχνητής νοημοσύνης που αναφέρθηκε παραπάνω, «oι γυναικείες φωνές που προέρχονται από αυτές τις συσκευές είναι πραγματικά μια αντανάκλαση των ριζωμένων κοινωνικών στερεοτύπων – όπου η εξυπηρετικότητα και ο αλτρουισμός συχνά κωδικοποιούνται με χρώμα σε αποχρώσεις θηλυκότητας, ενώ η ηγεσία και η εξουσία φορούν μια αρσενική απόχρωση».

(Βέβαια, αυτή η εταιρεία δεν αναφέρει πουθενά στο άρθρο για τη δημιουργία ανδρικών φωνών AI, απλώς την αποστολή της να «δείξουν την ποιότητα και την ποικιλομορφία των γυναικείων φωνών» και το χαρτοφυλάκιό της με «εξαιρετικές γυναικείες φωνές, καθεμία από τις οποίες φέρνει τη μοναδική της αίσθηση και προσωπικότητα.)

Όσο περισσότερο η κοινωνία αντιλαμβάνεται τις γυναίκες με αυτόν τον τρόπο, τόσο περισσότερο οι γυναίκες θα πρέπει να παλέψουν για ίση μεταχείριση στο χώρο εργασίας, στο σπίτι και στον υπόλοιπο κόσμο.

Το παρόν και το μέλλον των γυναικών βοηθών AI

Σήμερα, οι χρήστες iPhone μπορούν να επιλέξουν όχι μόνο μεταξύ ανδρικών και γυναικείων φωνών για το Siri, αλλά μπορούν επίσης να επιλέξουν την προφορά τους. Από Αμερικανός σε Βρετανός έως Ινδός έως Νοτιοαφρικανός, η Apple έχει επεκτείνει πολύ τις επιλογές φωνής του Siri από αυτό που ήταν κάποτε: μια μοναδική, προεπιλεγμένη, γυναικεία, αμερικανική φωνή.

Μόνο αφού η Apple, η Google, η Microsoft και άλλες μεγάλες εταιρείες τεχνολογίας παρουσίασαν τις γυναίκες ψηφιακούς βοηθούς τους και αντιμετώπισαν τις αντιδράσεις που ακολούθησαν, αποφάσισαν να προσθέσουν επιλογές αντρικής φωνής. Αλλά το γεγονός είναι ότι η γυναίκα ψηφιακός βοηθός εξακολουθεί να είναι το προεπιλεγμένο Siri. Πρέπει να αλλάξετε χειροκίνητα τη φωνή, εάν θέλετε έναν ψηφιακό βοηθό με ανδρικό ήχο. Και πολλοί άνθρωποι δεν ενδιαφέρονται αρκετά να το κάνουν.

Καθώς όμως αναπτύσσονται νέες τεχνολογίες και διατίθενται όλο και περισσότερα δεδομένα για μη γυναικείες φωνές, είναι θέμα χρόνου να γίνει ευκολότερη και πιο συνηθισμένη η δημιουργία ανδρικών και μη φωνών από τεχνητή νοημοσύνη.

Όσο περισσότερο η κοινωνία αντιλαμβάνεται τις γυναίκες με αυτόν τον τρόπο, τόσο περισσότερο οι γυναίκες θα πρέπει να παλέψουν για ίση μεταχείριση στο χώρο εργασίας, στο σπίτι και στον υπόλοιπο κόσμο.

Σύμφωνα με την Ella Fisher στο άρθρο της 2021 Gender Bias in AI: Why Voice Assistants Are Female, η Google εργάστηκε σε έναν νέο αλγόριθμο το 2017 που τους επέτρεψε να δημιουργήσουν πιο φυσικές γυναικείες και ανδρικές φωνές για το Google Assistant και είναι από τους λίγους ψηφιακούς οδηγούς που δεν έχουν ανδρικό όνομα.

Το Google Assistant έρχεται με έντεκα διαφορετικές φωνές, αλλά το πιο σημαντικό, η προεπιλογή του δεν είναι η γυναικεία φωνή. Όταν επιλέγετε για πρώτη φορά τον Βοηθό Google, η προ-προγραμματισμένη φωνή του εκχωρείται τυχαία ως άνδρας ή γυναίκα.

Πρωτοβουλίες όπως αυτές είναι ένα βήμα προς τη σωστή κατεύθυνση, όπου δεν υποθέτουμε ότι ο ψηφιακός βοηθός πρέπει να είναι γυναίκα, επειδή οι γυναικείες φωνές ακούγονται πιο χρήσιμες. Ένας άλλος τρόπος για την καταπολέμηση της προκατάληψης του φύλου στο χώρο εργασίας είναι να προσλαμβάνονται περισσότερες γυναίκες.

Οι γυναίκες αποτελούν μόνο το 26% των εργαζομένων στον τομέα των δεδομένων και της τεχνητής νοημοσύνης παγκοσμίως, ωστόσο μόλις πέρυσι, οι New York Times δημοσίευσαν τη λίστα με τους ανθρώπους «πίσω από την αυγή του κινήματος της τεχνητής νοημοσύνης» και δεν υπήρχε ούτε μία γυναίκα σε αυτήν.

Χρειάζονται περισσότερες γυναίκες στα δωμάτια όπου λαμβάνονται αποφάσεις ακόμα και για την Τεχνητή Νοημοσύνη προκειμένου να διασφαλίσουμε ότι η τεχνολογία θα είναι όσο το περισσότερο δυνατόν απαλλαγμένη από τις προκαταλήψεις και τα στερεότυπα. Επίσης, χρειάζονται περισσότεροι άνδρες για να υποστηρίξουν την ηθική χρήση της τεχνητής νοημοσύνης ώστε να είναι μία ειλικρινά συλλογική προσπάθεια χωρίς να υπάρχει το ενδεχόμενο να νιώθει κάποιο φύλο υποτελές.

Πηγή: Medium