Μόλις πριν από λίγες ημέρες, η σελίδα πολιτικών χρήσης της OpenAI ανέφερε ρητά ότι η εταιρεία απαγορεύει τη χρήση της τεχνολογίας της για «στρατιωτικούς και πολεμικούς σκοπούς». Όμως αυτή η φράση έχει πλέον διαγραφεί. Όπως παρατήρησε για πρώτη φορά το The Intercept, η OpenAI ενημέρωσε τη σελίδα στις 10 Ιανουαρίου «για να είναι πιο σαφής και να παρέχει περισσότερες οδηγίες για συγκεκριμένες υπηρεσίες», όπως αναφέρει το changelog της σελίδας.
Η Πολιτική Χρήση της εταιρείας εξακολουθεί να απαγορεύει τη χρήση των μεγάλων γλωσσικών μοντέλων της (LLM) για οτιδήποτε μπορεί να προκαλέσει βλάβη και προειδοποιεί τους ανθρώπους να μην χρησιμοποιούν τις υπηρεσίες της για «ανάπτυξη ή χρήση όπλων». Ωστόσο, η εταιρεία έχει αφαιρέσει τη φράση που αφορά «στρατιωτικές και πολεμικές επιχειρήσεις».
Αν και δεν έχουμε δει ακόμη τις επιπτώσεις αυτής της αλλαγής στη διατύπωση, η συγκεκριμένη κίνηση έρχεται ακριβώς τη στιγμή που οι στρατιωτικές υπηρεσίες σε όλο τον κόσμο δείχνουν ενδιαφέρον για τη χρήση της τεχνητής νοημοσύνης. «Δεδομένης της χρήσης των συστημάτων AI στη στόχευση αμάχων στη Γάζα, είναι μια αξιοσημείωτη στιγμή για να ληφθεί η απόφαση να αφαιρεθούν οι λέξεις “στρατιωτικές και πολεμικές επιχειρήσεις” από την πολιτική επιτρεπόμενης χρήσης του OpenAI», δήλωσε στο δημοσίευμα η Sarah Myers West, διευθύνουσα σύμβουλος του AI Now Institute.
Η ρητή αναφορά των «στρατιωτικών και πολεμικών επιχειρήσεων» στον κατάλογο των απαγορευμένων χρήσεων έδειχνε ότι το OpenAI δεν μπορούσε να συνεργαστεί με κυβερνητικές υπηρεσίες όπως ένα Υπουργείο Άμυνας, το οποίο συνήθως προσφέρει προσοδοφόρες συμφωνίες σε εργολάβους. Προς το παρόν, η εταιρεία δεν διαθέτει προϊόν που θα μπορούσε να αφαιρέσει ανθρώπινη ζωή άμεσα ή να προκαλέσει σωματική βλάβη σε κάποιον. Αλλά όπως ανέφερε το The Intercept, η τεχνολογία της θα μπορούσε να χρησιμοποιηθεί για εργασίες όπως η συγγραφή κώδικα και η επεξεργασία παραγγελιών προμηθειών για πράγματα που θα μπορούσαν να χρησιμοποιηθούν για να σκοτώσουν.
Όταν ρωτήθηκε σχετικά με την αλλαγή στη διατύπωση της πολιτικής της, ο εκπρόσωπος της OpenAI, Niko Felix, δήλωσε στο δημοσίευμα ότι η εταιρεία «είχε ως στόχο να δημιουργήσει ένα σύνολο καθολικών αρχών που είναι εύκολο να θυμάται και να εφαρμόζεται, ειδικά καθώς τα εργαλεία μας χρησιμοποιούνται πλέον παγκοσμίως από καθημερινούς χρήστες, οι οποίοι μπορούν πλέον επίσης να δημιουργήσουν GPTs». Ο Felix εξήγησε ότι «μια αρχή όπως το “Μην βλάπτεις τους άλλους” είναι ευρεία αλλά εύκολα κατανοητή και σχετική σε πολλά πλαίσια», προσθέτοντας ότι η OpenAI «ανέφερε συγκεκριμένα τα όπλα και τον τραυματισμό άλλων ως σαφή παραδείγματα». Ωστόσο, ο Felix φέρεται να αρνήθηκε να διευκρινίσει αν η απαγόρευση της χρήσης της τεχνολογίας του για να «βλάψει» άλλους περιλαμβάνει όλους τους τύπους στρατιωτικής χρήσης εκτός της ανάπτυξης όπλων.
Σε δήλωσή του στο Engadget, εκπρόσωπος της OpenAI δήλωσε: «Η πολιτική μας δεν επιτρέπει τη χρήση των εργαλείων μας για να βλάψουν ανθρώπους, να αναπτύξουν όπλα, να παρακολουθήσουν επικοινωνίες, να τραυματίσουν άλλους ή να καταστρέψουν περιουσία. Υπάρχουν, ωστόσο, περιπτώσεις χρήσης εθνικής ασφάλειας που ευθυγραμμίζονται με την αποστολή μας. Για παράδειγμα, συνεργαζόμαστε ήδη με την DARPA για να δώσουμε ώθηση στη δημιουργία νέων εργαλείων κυβερνοασφάλειας για την ασφάλεια λογισμικού ανοικτού κώδικα από το οποίο εξαρτώνται κρίσιμες υποδομές και η βιομηχανία. Δεν ήταν σαφές αν αυτές οι ευεργετικές περιπτώσεις χρήσης θα επιτρεπόταν στο πλαίσιο των “στρατιωτικών” στις προηγούμενες πολιτικές μας. Έτσι, ο στόχος με την επικαιροποίηση της πολιτικής μας είναι να παράσχουμε σαφήνεια και τη δυνατότητα διεξαγωγής αυτών των συζητήσεων».
Πηγή: Engadget