chatgpt cybersecurity
Des employés de Samsung Semiconductor ont partagé des informations confidentielles par erreur en s’aidant de ChatGPT.
L’entreprise avait permis à ses ingénieurs d’utiliser le modèle d’intelligence artificielle générative pour s’aider dans certaines tâches de code, mais certains des employés ont partagé avec la machine des éléments de code source confidentiel d’un programme en cours de fabrication et des notes de réunions concernant du matériel construit par l’entreprise.
En un mois, l’entreprise a recensé au moins trois cas de partage intempestif de ce type, selon TechRadar : l’un d’eux avait demandé à la machine de vérifier des erreurs dans son code, un autre l’avait utilisé pour transformer des notes de réunion en une présentation.
Or le modèle retient les données qui lui sont envoyées pour continuer son entraînement.
De fait, les documents confidentiels qui ont été soumis à ChatGPT sont désormais partagées avec OpenAI. Pour éviter que le problème ne se répète, Samsung Semiconductor est désormais en train de construire son propre modèle d’IA générative, mais pour le moment, celui n’accepte que des requêtes limitées à 1024 bytes.
L'IA : opportunité ou menace ? Les DSI de la finance s'interrogent Alors que l'intelligence…
Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le…
La transformation numérique du secteur financier n'a pas que du bon : elle augmente aussi…
Telegram envisage de quitter la France : le chiffrement de bout en bout au cœur…
L'intelligence artificielle (IA) révolutionne le paysage de la cybersécurité, mais pas toujours dans le bon…
TISAX® et ISO 27001 sont toutes deux des normes dédiées à la sécurité de l’information. Bien qu’elles aient…
This website uses cookies.