Τα συστήματα τεχνητής όμως νοημοσύνης είναι παντού στον σύγχρονο κόσμο, από τα smartphone, τις μηχανές αναζήτησης στο Διαδίκτυο, τους ψηφιακούς βοηθούς, ως και τον τρόπο που ψωνίζουμε από το διαδίκτυο. Τ
Tα τελευταία χρόνια σημειώνουν εκπληκτική πρόοδο στην κατανόηση της φυσικής γλώσσας και στη δημιουργία απαντήσεων που βασίζονται σε κείμενο, όπως γίνεται με το ChatGPT. Πριν από λίγο καιρό, η Microsoft αποκάλυψε την ενσωμάτωση AI με το πρόγραμμα περιήγησης Edge και τη μηχανή αναζήτησης Bing.
Εκτός από τον γραπτό λόγο, τα τελευταία χρόνια έχει γίνει πολλή συζήτηση σχετικά με τις προόδους της τεχνητής νοημοσύνης για την τεχνολογία απεικόνισης, η οποία έχει δώσει αξιοσημείωτα αποτελέσματα. Υπάρχουν διάφορα εργαλεία όπως τα DALL-E 2, Stable Diffusion και Midjourney, μεταξύ άλλων, που έχουν τη δυνατότητα να δημιουργούν νέες εικόνες και ακόμη και να αναδημιουργούν τέχνη.
H @WeirdLime, μέλος της Reddit κοινότητας, χρησιμοποίησε το Midjourney για να δημιουργήσει αναπαραστάσεις των πιο «στερεοτυπικών» ανδρών και γυναικών από διάφορες ευρωπαϊκές χώρες και τα αποτελέσματα ήταν αξιοσημείωτα.
Κάθε εικόνα ήταν αποτέλεσμα ενός κράματος στερεοτυπικών απόψεων για την κάθε χώρα που ισορροπούσε επικινδύνως προς μία ρατσιστική προσέγγιση απέναντι σε κάθε λαό.
Οι Γάλλοι παρουσιάζονται με τον πύργο του Άιφελ ενώ οι Φινλανδοί είναι στα δάση με παραδοσιακές ενδυμασίες. Οι Ιταλοί τρώνε σαφώς πίτσα και οι Δανοί έχουν μωρά και κουβαλούν μόνιμα ένα backpack.
Ο στερεοτυπικός Έλληνας από την άλλη, φαίνεται να είναι οι παππούδες και οι γιαγιάδες μας στα χωριά. Μάλλον το σύστημα ΤΝ διάβασε άρθρα για γεροντοποίηση του πληθυσμού, σκάναρε φωτογραφίες τουριστών από γραφικά χωριουδάκια στην Ελλάδα και το αποτέλεσμα ήταν διθυραμβικό.
Όταν μιλάμε για Τεχνητή Νοημοσύνη, συχνά στο μυαλό μας υπάρχει σαν κάτι αυτόνομο. Σαν να είναι ένα ρομπότ, ή ένας υπολογιστής που παίρνει αποφάσεις μόνος του και λειτουργεί αυτοβούλως. Αυτό που δε συνειδητοποιούμε είναι ότι πίσω από κάθε σύστημα ΤΝ που υπάρχει στην δουλειά μας ή στην καθημερινότητά μας, βρίσκεται μία ομάδα ανθρώπων που έχει δημιουργήσει και εκπαιδεύσει αυτό το σύστημα.
Χαρακτηριστικό παράδειγμα αποτελεί το δημοφιλές νέο εργαλείο τεχνητής νοημοσύνης ChatGPT. Πίσω από την δημιουργία κειμένων, άρθρων πολιτικής, απαντήσεις σε επιστημονικά και φιλοσοφικά ερωτήματα και εκατομμύρια άλλες δυνατότητες αυτής της σαγηνευτικής τεχνολογίας, υπάρχει στην πραγματικότητα ένα σύστημα μηχανικής μάθησης που οι αλγόριθμοι μαθαίνουν να προβλέπουν συγκεκριμένα αποτελέσματα από τα μοτίβα και τις δομές σε τεράστια σύνολα δεδομένων. Σύνολα δεδομένων που η ανθρώπινη δραστηριότητα έχει παραχωρήσει.
Αυτό έχει σημασία γιατί οι περισσότεροι από τους κινδύνους που ενέχουν αυτά τα συστήματα δεν έχουν καμία σχέση με τα ρομπότ που καταλαμβάνουν τον κόσμο ή τα συστήματα τεχνητής νοημοσύνης που μπορούν να σκεφτούν μόνα τους. Μεγάλο μέρος της προβληματικής γύρω από την ΤΝ αφορά σε ανθρώπινα λάθη και προκαταλήψεις που περνάνε μέσω της μηχανικής μάθησης μέσα στα νέα αυτά εξελιγμένα συστήματα.
Ένας αλγόριθμος μπορεί να φαίνεται ότι είναι ένα σύνολο μαθηματικών εντολών, αλλά από πίσω τροφοδοτείται και μαθαίνει με στοιχεία που του παρέχει ένας άνθρωπος. Και αυτά τα στοιχεία συχνά περιέχουν στερεότυπα, ανακρίβειες και προκαταλήψεις.
Το 2015 αν κάποιος πληκτρολογούσε “γορίλες” στην αναζήτηση εικόνων της Google, ο τεχνολογικός κολοσσός λανθασμένα παρουσίαζε μαύρους ανθρώπους ως γορίλες. Σίγουρα κάτι τέτοιο δεν έγινε σκόπιμα, αλλά είναι χαρακτηριστικό παράδειγμα για το πώς οι αλγόριθμοι εξασκούνται με δεδομένα που δίνουν προβληματικά αποτελέσματα.
Κάτι ανάλογο συμβαίνει και σε ένα σύστημα ΤΝ της αμερικανικής αστυνομίας. Χρησιμοποιεί λογισμικό που μπορεί να προβλέψει πού θα συμβούν εγκλήματα για να αποφασίσουν πού θα στείλουν αξιωματικούς σε περιπολία. Χρησιμοποιούν επίσης αναγνώριση προσώπου και ανάλυση DNA σε ποινικές έρευνες. Αλλά οι αναλύσεις αυτών των συστημάτων δείχνουν ότι τα δεδομένα στα οποία εκπαιδεύονται αυτά τα συστήματα είναι συχνά μεροληπτικά, οδηγώντας σε άδικα αποτελέσματα, όπως ο ψευδής προσδιορισμός ότι οι Αφροαμερικανοί είναι πιο πιθανό να διαπράξουν εγκλήματα από άλλες ομάδες.
Αναπαραγωγή και ενίσχυση στερεοτύπων
Όταν τα συστήματα τεχνητής νοημοσύνης εκπαιδεύονται σε μεροληπτικά δεδομένα ή σχεδιάζονται με αλγοριθμικά ελαττώματα, μπορούν ακούσια να ενισχύσουν τα υπάρχοντα στερεότυπα, οδηγώντας σε προκατειλημμένα αποτελέσματα σε διάφορες εφαρμογές, από την πρόσληψη αλγορίθμων έως τα συστήματα συστάσεων περιεχομένου.
«Η τεχνητή νοημοσύνη χρησιμοποιείται πολλές φορές, σε συστήματα αποφάσεων, τελείως μηχανικά και σαν να είναι θέσφατο ότι αυτό που έμαθε το μοντέλο μηχανικής μάθησης είναι η πραγματικότητα. Αυτό είναι ένα κύριο πρόβλημα που κινητοποίησε την έρευνά μου, ότι μαθαίνουμε αυτά τα μοντέλα και μετά πιστεύουμε ότι είναι σαν έτσι να δουλεύει ο κόσμος» υποστηρίζει ο ο επίκουρος καθηγητής Διοικητικής Επιστήμης και Τεχνολογίας στο Πανεπιστήμιο Στάνφορντ, Βασίλης Συργκάνης.
« Αυτό μας οδηγεί σε εσφαλμένα συμπεράσματα, βλέπεις σχέσεις που μαθαίνει το μοντέλο, οι οποίες δεν έχουν καμία σχέση με το πώς λειτουργεί ο κόσμος στην πραγματικότητα».
Εάν τα σφάλματα των συστημάτων τεχνητής νοημοσύνης δεν διορθωθούν, οι κίνδυνοι μακροπρόθεσμα είναι μεγάλοι, ακόμα και για να δημιουργηθούν κοινωνικά προβλήματα ανισότητας.
Ο βαθμός στον οποίο η τεχνητή νοημοσύνη διαιωνίζει τις προκαταλήψεις εξαρτάται από την ποιότητα και την ποικιλομορφία των δεδομένων εκπαίδευσης, τους αλγόριθμους που χρησιμοποιούνται και την ευαισθητοποίηση των προγραμματιστών σχετικά με ηθικά ζητήματα.
Ο κ. Συργκάνης φέρνει ως παράδειγμα τη χρήση συστημάτων μηχανικής μάθησης στα δάνεια, όπου ακόμα και η τοποθεσία διαμονής του υποψήφιου δανειολήπτη μπορεί να αποτελέσει κριτήριο αποκλεισμού του από το τραπεζικό σύστημα με αποτέλεσμα «να δημιουργείται ένας συστηματικός ρατσισμός μέσα από τέτοια αλγοριθμικά συστήματα αποφάσεων».
Ωστόσο, με προληπτικά μέτρα όπως ποικίλα δεδομένα εκπαίδευσης, προσεκτικός σχεδιασμός αλγορίθμων και ηθικές οδηγίες, είναι δυνατό να μετριαστούν αυτά τα ζητήματα και να αξιοποιηθεί η δύναμη της τεχνητής νοημοσύνης για την προώθηση της δικαιοσύνης και της συμπερίληψης αντί για τη διαιώνιση επιβλαβών στερεοτύπων.
How AI reduces the world to stereotypeshttps://t.co/OOtuMfeKuL pic.twitter.com/VzbspvgsXg
— Rest of World (@restofworld) March 18, 2024