ChatGPT

Les salariés partagent trop de données sensibles avec ChatGPT

L’engouement pour ChatGPT et modèles d’IA similaires ne doit pas faire oublier les règles basiques de partage d’informations. Selon une étude, les salariés ont tendance à soumettre des requêtes intégrant des données sensibles.

Si les cybercriminels se sont rapidement emparés des agents conversationnels à base d’IA comme ChatGPT pour améliorer leurs attaques, ils pourraient aussi trouver une aide précieuse auprès des salariés. En effet, ceux-ci auraient la fâcheuse tendance à transmettre des données sensibles de leur société à ces grands modèles de langage (LLM). Et les cas sont loin d’être isolés comme l’indique dans un rapport l’éditeur de sécurité Cyberhaven. Il a détecté et bloqué des requêtes comprenant des informations confidentielles ou réglementées, du code source émanant de 4,2% d’1,6 million des salariés des entreprises clientes (soit un peu plus de 67 000 collaborateurs).

En terme de statistiques, l’éditeur a constaté sur un échantillon de 100 000 personnes (du 19 au 25 février 2023) 43 fuites de dossiers sur des projets sensibles (document de planification d’acquisition d’un terrain pour construire un parc à thème), 130 fuites de données client (contenu d’un document envoyé à un cabinet d’avocats par son client). Il y a aussi 119 fuites de code source (code utilisé dans une application de médias sociaux qui doit être modifié pour changer de fonctionnalité) ou 150 fuites de données confidentielles (un mémo discutant de la manière de gérer une action réglementaire à venir de la part du gouvernement).

Des outils et une sensibilisation à mettre en place

Parmi les exemples saillants, Cyberhaven cite un cadre qui a copié un document stratégique 2023 de l’entreprise dans ChatGPT et lui a demandé de créer une présentation PowerPoint. Dans un autre cas, un médecin a saisi le nom d’un patient et son dossier médical dans ChatGPT pour rédiger une lettre à l’intention de la mutuelle du patient. A l’avenir, un tiers pourra solliciter le chatbot en posant comme question « Quel problème de santé à (nom du patient) ? » et obtenir une réponse précise. Idem dans le premier cas avec comme requête, « Quelles sont les priorités stratégiques 2023 de la société (nom) ? ».

Pour remédier à ce risque, certaines entreprises ont décidé d’alerter ou de restreindre l’accès au chatbot à base d’IA comme JPMorgan ou Amazon et Walmart. Les éditeurs, dont Cyberhaven, saisissent l’opportunité pour développer des outils capables de détecter et d’analyser la présence d’informations sensibles au sein des requêtes. Il sera peut-être nécessaire de sensibiliser les collaborateurs à cette problématique au même titre qu’ils sont informés des risques en matière de phishing.

Source 

Veille-cyber

Share
Published by
Veille-cyber

Recent Posts

Directive NIS 2 : Comprendre les obligations en cybersécurité pour les entreprises européennes

Directive NIS 2 : Comprendre les nouvelles obligations en cybersécurité pour les entreprises européennes La…

2 jours ago

NIS 2 : entre retard politique et pression cybersécuritaire, les entreprises dans le flou

Alors que la directive européenne NIS 2 s’apprête à transformer en profondeur la gouvernance de…

3 jours ago

Quand l’IA devient l’alliée des hackers : le phishing entre dans une nouvelle ère

L'intelligence artificielle (IA) révolutionne le paysage de la cybersécurité, mais pas toujours dans le bon…

4 jours ago

APT36 frappe l’Inde : des cyberattaques furtives infiltrent chemins de fer et énergie

Des chercheurs en cybersécurité ont détecté une intensification des activités du groupe APT36, affilié au…

4 jours ago

Vulnérabilités des objets connectés : comment protéger efficacement son réseau en 2025

📡 Objets connectés : des alliés numériques aux risques bien réels Les objets connectés (IoT)…

7 jours ago

Cybersécurité : comment détecter, réagir et se protéger efficacement en 2025

Identifier les signes d'une cyberattaque La vigilance est essentielle pour repérer rapidement une intrusion. Certains…

7 jours ago

This website uses cookies.