Des ingénieurs de Samsung partagent des infos confidentielles avec ChatGPT

chatgpt 2
chatgpt 2

Chez Samsung, les ingénieurs n’hésitent pas à s’appuyer sur ChatGPT pour travailler. La mauvaise nouvelle, c’est que des données secrètes ont été divulguées au moins trois fois lors de requêtes envoyées à ChatGPT.

Il y a quelques jours, j’ai mis en ligne un article intitulé « De nombreuses infos confidentielles partagées avec ChatGPT, un réel danger pour les entreprises » suite à la publication d’une étude de l’entreprise Cyberhaven, au sujet des données confidentielles communiquées à ChatGPT. Parmi ces données, il y a notamment des informations sensibles / internes, des données clientes, des codes sources, etc… On parle d’environ 3,1% des salariés d’après cette même étude.

Cette affaire qui affecte le géant Samsung est un excellent exemple de ce qu’il ne faut pas faire avec ChatGPT. Samsung compte dans ses rangs une quantité importante d’ingénieurs. Parmi eux, trois ingénieurs qui ont fait un mauvais usage de ChatGPT. En l’espace de 20 jours, Samsung a identifié trois cas problématiques où il y a eu une fuite de données vers ChatGPT.

En effet, l’IA générative a été sollicitée pour corriger des erreurs dans un code source confidentiel. Il est question de modèles de test conçus pour identifier les puces défectueuses. Voici pour un premier cas.

On peut aussi citer un autre exemple où un employé a sollicité le service Naver Clova pour convertir un enregistrement de réunion en document, avant d’envoyer le contenu à ChatGPT pour être accompagné dans la préparation d’une présentation.

Pour le moment, et en réaction à cet incident, Samsung a pris la décision de limiter à 1 024 octets la longueur des requêtes soumises à ChatGPT. À l’avenir, Samsung pourrait bloquer l’accès à ChatGPT pour ses employés s’il y a de nouveaux incidents, même si l’entreprise pourrait développer son propre équivalent à ChatGPT en interne.

N’oubliez pas que toutes les données transmises à ChatGPT sont conservées…