Η Google ανακοίνωσε την Τρίτη ότι αναθεωρεί τις αρχές που διέπουν τη χρήση της Τεχνητής Νοημοσύνης και άλλων προηγμένων τεχνολογιών. Η εταιρεία αφαίρεσε διατυπώσεις που υπόσχονταν να μην επιδιώκει «τεχνολογίες που προκαλούν ή είναι πιθανό να προκαλέσουν συνολική βλάβη», «όπλα ή άλλες τεχνολογίες των οποίων ο κύριος σκοπός ή η εφαρμογή είναι να προκαλέσουν ή να διευκολύνουν άμεσα τραυματισμούς σε ανθρώπους», «τεχνολογίες που συλλέγουν ή χρησιμοποιούν πληροφορίες για επιτήρηση κατά παράβαση διεθνώς αποδεκτών κανόνων» και «τεχνολογίες των οποίων ο σκοπός αντιβαίνει σε ευρέως αποδεκτές αρχές του διεθνούς δικαίου και των ανθρωπίνων δικαιωμάτων». 

Οι αλλαγές αποκαλύφθηκαν σε μια σημείωση που προστέθηκε στην κορυφή μιας ανάρτησης ιστολογίου του 2018 που είχαν παρουσιαστεί οι κατευθυντήριες αρχές. «Έχουμε κάνει ενημερώσεις στις Αρχές μας για την AI. Επισκεφθείτε το AI.Google για τις τελευταίες πληροφορίες», αναφέρει χαρακτηριστικά η σημείωση. 

Πριν λίγες ώρες δύο στελέχη της Google ανέφεραν τη διαρκώς αυξανόμενη χρήση της τεχνητής νοημοσύνης, τα εξελισσόμενα πρότυπα και τις γεωπολιτικές μάχες γύρω από την AI ως τη βαθύτερη αιτία για την ανάγκη αναθεώρησης των αρχών της εταιρείας. 

Η Google δημοσίευσε για πρώτη φορά τις αρχές της το 2018, καθώς προσπαθούσε να κατευνάσει τις εσωτερικές διαμαρτυρίες σχετικά με την απόφασή της να συνεργαστεί σε ένα στρατιωτικό πρόγραμμα drones των ΗΠΑ. Σε απάντηση η εταιρεία αρνήθηκε να ανανεώσει το κυβερνητικό συμβόλαιο και ανακοίνωσε ένα σύνολο αρχών για να καθοδηγήσει τη μελλοντική χρήση των προηγμένων τεχνολογιών της, όπως η Τεχνητή Νοημοσύνη. Μεταξύ άλλων οι αρχές αυτές όριζαν ότι η Google δεν θα ανέπτυσσε όπλα, ορισμένα συστήματα παρακολούθησης ή τεχνολογίες που υπονομεύουν τα ανθρώπινα δικαιώματα. 

Η Google απέσυρε αυτές τις δεσμεύσεις πριν λίγες ώρες. Η νέα ιστοσελίδα της εταιρείας δεν περιλαμβάνει πλέον έναν κατάλογο απαγορευμένων χρήσεων για τις πρωτοβουλίες Τεχνητής Νοημοσύνης της. Αντίθετα το αναθεωρημένο έγγραφο προσφέρει στη Google μεγαλύτερη ευελιξία να επιδιώξει ευαίσθητες χρήσεις. Αναφέρει ότι η εταιρεία θα εφαρμόζει «κατάλληλη ανθρώπινη εποπτεία, δέουσα επιμέλεια και μηχανισμούς ανατροφοδότησης, ώστε να ευθυγραμμίζεται με τους στόχους των χρηστών, την κοινωνική ευθύνη και τις ευρέως αποδεκτές αρχές του διεθνούς δικαίου και των ανθρωπίνων δικαιωμάτων». Η Google δηλώνει επίσης ότι θα προσπαθεί να «μετριάζει τις ακούσιες ή επιβλαβείς συνέπειες» των εφαρμογών της. 

«Πιστεύουμε ότι οι δημοκρατίες πρέπει να ηγηθούν της ανάπτυξης της Τεχνητής Νοημοσύνης καθοδηγούμενες από βασικές αξίες όπως η ελευθερία, η ισότητα και ο σεβασμός των ανθρωπίνων δικαιωμάτων», έγραψαν ο James Manyika, ανώτερος αντιπρόεδρος της Google για την έρευνα, την τεχνολογία και την κοινωνία και ο Demis Hassabis, διευθύνων σύμβουλος της Google DeepMind, του καταξιωμένου ερευνητικού εργαστηρίου AI της εταιρείας. Πρόσθεσαν ότι η Google θα συνεχίσει να επικεντρώνεται σε έργα ΑΙ «που ευθυγραμμίζονται με την αποστολή μας, την επιστημονική μας εστίαση και τους τομείς εξειδίκευσής μας διατηρώντας τη συνέπεια με τις ευρέως αποδεκτές αρχές του διεθνούς δικαίου και των ανθρωπίνων δικαιωμάτων». 

Η επιστροφή του Προέδρου των ΗΠΑ, Ντόναλντ Τραμπ στο αξίωμα τον περασμένο μήνα έχει ωθήσει πολλές εταιρείες να αναθεωρήσουν πολιτικές που προωθούν την ισότητα και άλλες φιλελεύθερες ιδέες. Ο εκπρόσωπος της Google, Άλεξ Κράσοφ, δηλώνει ότι οι αλλαγές ήταν υπό επεξεργασία εδώ και πολύ περισσότερο καιρό. Τώρα προφανώς είναι η κατάλληλη συνθήκη να εφαρμοστούν. 

Η Google περιγράφει τους νέους της στόχους ως την επιδίωξη τολμηρών, υπεύθυνων και συνεργατικών πρωτοβουλιών στην τεχνητή νοημοσύνη. Δεν περιλαμβάνονται πλέον φράσεις όπως «να είναι κοινωνικά επωφελής» και «να διατηρεί επιστημονική αριστεία». Αντ’ αυτών, έχει προστεθεί μια αναφορά στον «σεβασμό των δικαιωμάτων πνευματικής ιδιοκτησίας». 

Μετά την αρχική δημοσίευση των αρχών AI πριν από περίπου επτά χρόνια η Google δημιούργησε δύο ομάδες για να εξετάζουν εάν τα έργα της εταιρείας ευθυγραμμίζονται με τις δεσμεύσεις της. Μία επικεντρώθηκε στις βασικές λειτουργίες της Google, όπως η αναζήτηση, οι διαφημίσεις, το Assistant και οι Χάρτες. Μια άλλη επικεντρώθηκε στις προσφορές του Google Cloud και στις συμφωνίες με πελάτες. Η μονάδα που ασχολούνταν με τις καταναλωτικές υπηρεσίες της Google διαλύθηκε στις αρχές του περασμένου έτους, καθώς η εταιρεία έτρεχε να αναπτύξει chatbots και άλλα εργαλεία τεχνητής νοημοσύνης για να ανταγωνιστεί την OpenAI. 

Η Τίμνιτ Γκεμπρού, πρώην επικεφαλής της ερευνητικής ομάδας ηθικής AI της Google, που αργότερα απολύθηκε από τη θέση της υποστηρίζει ότι η δέσμευση της εταιρείας στις αρχές της ήταν πάντοτε αμφισβητήσιμη. «Θα έλεγα ότι είναι καλύτερα να μην προσποιείσαι ότι έχεις τέτοιες αρχές, παρά να τις γράφεις και να κάνεις το αντίθετο». 

Τρεις πρώην υπάλληλοι της Google που είχαν συμμετάσχει στην αξιολόγηση έργων για τη συμμόρφωσή τους με τις αρχές της εταιρείας αναφέρουν ότι το έργο ήταν δύσκολο, καθώς υπήρχαν διαφορετικές ερμηνείες των αρχών και πιέσεις από την ηγεσία να δοθεί προτεραιότητα στις επιχειρηματικές ανάγκες. 

Η Google διατηρεί ακόμα αναφορές στην πρόληψη βλαβών στην επίσημη Cloud Platform Acceptable Use Policy που καλύπτει διάφορα προϊόντα AI. Η πολιτική απαγορεύει την παραβίαση «των νομικών δικαιωμάτων άλλων» και τη συμμετοχή ή προώθηση παράνομων δραστηριοτήτων, όπως η «τρομοκρατία ή η βία που μπορεί να προκαλέσει θάνατο, σοβαρή βλάβη ή τραυματισμό σε άτομα ή ομάδες ατόμων». 

Ωστόσο, όταν πιέστηκε να εξηγήσει πώς αυτή η πολιτική συνάδει με το Project Nimbus—μια σύμβαση cloud computing με την ισραηλινή κυβέρνηση που έχει ωφελήσει τον στρατό της χώρας—η Google δήλωσε ότι η συμφωνία «δεν αφορά άκρως ευαίσθητα, διαβαθμισμένα ή στρατιωτικά φορτία εργασίας που σχετίζονται με όπλα ή υπηρεσίες πληροφοριών». «Το συμβόλαιο Nimbus αφορά εργασίες που εκτελούνται στο εμπορικό μας cloud από ισραηλινά κυβερνητικά υπουργεία, τα οποία συμφωνούν να συμμορφώνονται με τους Όρους Παροχής Υπηρεσιών μας και την Πολιτική Αποδεκτής Χρήσης», δήλωσε η εκπρόσωπος της Google, Άννα Κοβάλτσικ. Οι Όροι Παροχής Υπηρεσιών του Google Cloud απαγορεύουν επίσης οποιαδήποτε εφαρμογή που παραβιάζει τον νόμο ή «οδηγεί σε θάνατο ή σοβαρό σωματικό τραυματισμό». Παρόμοιοι κανόνες ισχύουν και για ορισμένες από τις υπηρεσίες τεχνητής νοημοσύνης της Google που απευθύνονται σε καταναλωτές, απαγορεύοντας παράνομες χρήσεις και ορισμένες δυνητικά επιβλαβείς ή προσβλητικές χρήσεις. Για πόσο ακόμα όμως θα ισχύουν όλα αυτά, έστω για τα μάτια του κόσμου; Άγνωστο … 

*Mε στοιχεία από το Wired.

 

Ακολουθήστε το OLAFAQ στο FacebookBluesky και Instagram.