chatgpt cybersecurity
Des employés de Samsung Semiconductor ont partagé des informations confidentielles par erreur en s’aidant de ChatGPT.
L’entreprise avait permis à ses ingénieurs d’utiliser le modèle d’intelligence artificielle générative pour s’aider dans certaines tâches de code, mais certains des employés ont partagé avec la machine des éléments de code source confidentiel d’un programme en cours de fabrication et des notes de réunions concernant du matériel construit par l’entreprise.
En un mois, l’entreprise a recensé au moins trois cas de partage intempestif de ce type, selon TechRadar : l’un d’eux avait demandé à la machine de vérifier des erreurs dans son code, un autre l’avait utilisé pour transformer des notes de réunion en une présentation.
Or le modèle retient les données qui lui sont envoyées pour continuer son entraînement.
De fait, les documents confidentiels qui ont été soumis à ChatGPT sont désormais partagées avec OpenAI. Pour éviter que le problème ne se répète, Samsung Semiconductor est désormais en train de construire son propre modèle d’IA générative, mais pour le moment, celui n’accepte que des requêtes limitées à 1024 bytes.
Qu’est-ce que la cybersécurité ? Définition, enjeux et bonnes pratiques en 2025 La cybersécurité est…
Cybersécurité : les établissements de santé renforcent leur défense grâce aux exercices de crise Face…
L'IA : opportunité ou menace ? Les DSI de la finance s'interrogent Alors que l'intelligence…
Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le…
La transformation numérique du secteur financier n'a pas que du bon : elle augmente aussi…
Introduction La cybersécurité est devenue une priorité stratégique pour toutes les entreprises, grandes ou petites.…
This website uses cookies.