Η Meta φέρεται να έχει διαλύσει την ομάδα Responsible AI (RAI), καθώς επενδύει περισσότερους πόρους της στη γεννητική τεχνητή νοημοσύνη. Το The Information δημοσίευσε την είδηση εχθές, επικαλούμενο μια εσωτερική ανάρτηση που είδε.

Σύμφωνα με την έκθεση, τα περισσότερα μέλη της RAI θα μετακινηθούν στην ομάδα προϊόντων γεννητικής τεχνητής νοημοσύνης της εταιρείας, ενώ άλλα θα εργαστούν στην υποδομή τεχνητής νοημοσύνης της Meta. Η εταιρεία δηλώνει τακτικά ότι θέλει να αναπτύσσει την ΤΝ με υπευθυνότητα και μάλιστα έχει μια σελίδα αφιερωμένη στην υπόσχεση αυτή, όπου η εταιρεία απαριθμεί τους «πυλώνες της υπεύθυνης ΤΝ», συμπεριλαμβανομένης της υπευθυνότητας, της διαφάνειας, της ασφάλειας, της ιδιωτικότητας και άλλων.

Το δημοσίευμα του The Information αναφέρει τον Jon Carvill, ο οποίος εκπροσωπεί τη Meta, λέγοντας ότι η εταιρεία «θα συνεχίσει να δίνει προτεραιότητα και να επενδύει στην ασφαλή και υπεύθυνη ανάπτυξη της τεχνητής νοημοσύνης». Πρόσθεσε ότι παρόλο που η εταιρεία διαχωρίζει την ομάδα, τα μέλη αυτά «θα συνεχίσουν να υποστηρίζουν τις σχετικές διακλαδικές προσπάθειες της Meta για την υπεύθυνη ανάπτυξη και χρήση της ΤΝ».

Η Meta δεν απάντησε σε αίτημα για σχολιασμό μέχρι αυτή τη στιγμή.

Η ομάδα γνώρισε ήδη μια αναδιάρθρωση νωρίτερα φέτος, η οποία, όπως έγραψε το Business Insider, περιελάμβανε απολύσεις που άφησαν τη RAI υποστελεχωμένη. Το εν λόγω δημοσίευμα συνέχισε λέγοντας ότι η ομάδα RAI, η οποία υπήρχε από το 2019, είχε μικρή αυτονομία και ότι οι πρωτοβουλίες της έπρεπε να περάσουν από μακροχρόνιες διαπραγματεύσεις με τους ενδιαφερόμενους φορείς προτού μπορέσουν να υλοποιηθούν.

Η RAI δημιουργήθηκε για να εντοπίσει προβλήματα με τις προσεγγίσεις εκπαίδευσης της τεχνητής νοημοσύνης, συμπεριλαμβανομένου του κατά πόσον τα μοντέλα της εταιρείας εκπαιδεύονται με επαρκώς διαφορετικές πληροφορίες, με στόχο την αποτροπή ζητημάτων όπως η λεγόμενη «μετριοπάθεια» (moderation) στις πλατφόρμες της. Τα αυτοματοποιημένα συστήματα στις κοινωνικές πλατφόρμες της Meta έχουν οδηγήσει σε προβλήματα όπως ένα ζήτημα μετάφρασης στο Facebook που προκάλεσε μια λανθασμένη σύλληψη, η δημιουργία αυτοκόλλητων με τεχνητή νοημοσύνη (AI sticker) στο WhatsApp που οδηγεί σε προκατειλημμένες εικόνες όταν δίνονται ορισμένες προτροπές και οι αλγόριθμοι του Instagram που βοηθούν τους ανθρώπους να βρουν υλικό σεξουαλικής κακοποίησης παιδιών.

Κινήσεις όπως αυτή της Meta και μια παρόμοια κίνηση της Microsoft στις αρχές του έτους έρχονται καθώς οι παγκόσμιες κυβερνήσεις αγωνίζονται να δημιουργήσουν ρυθμιστικές δικλείδες για την ανάπτυξη της τεχνητής νοημοσύνης. Η κυβέρνηση των ΗΠΑ συνήψε συμφωνίες με εταιρείες τεχνητής νοημοσύνης και ο πρόεδρος Biden έδωσε αργότερα εντολή σε κυβερνητικές υπηρεσίες να καταρτίσουν κανόνες ασφαλείας για την τεχνητή νοημοσύνη. Εν τω μεταξύ, η Ευρωπαϊκή Ένωση δημοσίευσε τις αρχές της για την τεχνητή νοημοσύνη και εξακολουθεί να αγωνίζεται να περάσει τον νόμο της για την τεχνητή νοημοσύνη.

Πηγή: The Verge