Το ChatGPT είναι ένα πολύ χρήσιμο εργαλείο για μία ευρεία γκάμα εργασιών. Αλλά αυτό που δεν καταλαβαίνουν πολλοί, είναι πως οτιδήποτε μοιράζονται με αυτό, μπορεί να χρησιμοποιηθεί για να εκπαιδεύσει το σύστημα και έτσι, μπορεί να εμφανιστεί ως απάντηση σε άλλους χρήστες. Αυτό σίγουρα δεν το σκέφτηκαν τρεις υπάλληλοι της Samsung, οι οποίοι μοιράστηκαν εμπιστευτικές πληροφορίες της εταιρίας με το chatbot.
Σύμφωνα λοιπόν με το The Economist Korea, ένας υπάλληλος ζήτησε από το ChatGPT να ελέγξει μία database του πηγαίου κώδικα της εταιρίας για λάθη. Ένας ακόμα υπάλληλος το χρησιμοποίησε για βελτιστοποίηση του κώδικα και ένας τρίτος καταχώρησε τις σημειώσεις ενός meeting και ζήτησε από το ChatGPT να προσθέσει χρονική σήμανση.
Μετά τα τρία περιστατικά, η Samsung προχώρησε σε έρευνα για τους τρεις υπαλλήλους, ενώ ξεκίνησε τη δημιουργία του δικού της chatbot για να αποτρέψει παρόμοια περιστατικά στο μέλλον.
Με πληροφορίες από το endgadget.