CYBERATTAQUES
Microsoft a révélé, dans un rapport rédigé en collaboration avec OpenAI, la manière dont certains hackers chinois, iraniens, nord-coréens et russes utilisent de grands modèles de langage dans le cadre de cyberattaques. Les deux sociétés ont fermé plusieurs comptes associés à ces groupes de pirates.
Microsoft Threat Intelligence, en collaboration avec la société d’intelligence artificielle OpenAI, ont affirmé dans un rapport rendu public le 14 février que les grands modèles de langage (LLM) comme ChatGPT pouvaient servir aux hackers pour améliorer leurs techniques existantes. Les deux sociétés américaines ont ainsi repéré des tentatives de groupes de pirates soutenus par différents pays, comme la Russie, la Corée du Nord, l’Iran et la Chine.
“Les groupes de cyberciminels, acteurs de la menace des États-nations et d’autres opposants explorent et testent différentes technologies d’IA […] afin de comprendre leur valeur pour leurs opérations, et les contrôles de sécurité qu’ils pourraient avoir besoin de contourner”, résume le rapport. Les pirates peuvent ainsi utiliser l’IA pour simplifier les tâches de script de base, comme la manipulation de fichiers, la sélection de données et le multitraitement, pour “optimiser leurs opérations techniques”.
L'IA : opportunité ou menace ? Les DSI de la finance s'interrogent Alors que l'intelligence…
Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le…
La transformation numérique du secteur financier n'a pas que du bon : elle augmente aussi…
Telegram envisage de quitter la France : le chiffrement de bout en bout au cœur…
L'intelligence artificielle (IA) révolutionne le paysage de la cybersécurité, mais pas toujours dans le bon…
TISAX® et ISO 27001 sont toutes deux des normes dédiées à la sécurité de l’information. Bien qu’elles aient…
This website uses cookies.