CYBERATTAQUES
Microsoft a révélé, dans un rapport rédigé en collaboration avec OpenAI, la manière dont certains hackers chinois, iraniens, nord-coréens et russes utilisent de grands modèles de langage dans le cadre de cyberattaques. Les deux sociétés ont fermé plusieurs comptes associés à ces groupes de pirates.
Microsoft Threat Intelligence, en collaboration avec la société d’intelligence artificielle OpenAI, ont affirmé dans un rapport rendu public le 14 février que les grands modèles de langage (LLM) comme ChatGPT pouvaient servir aux hackers pour améliorer leurs techniques existantes. Les deux sociétés américaines ont ainsi repéré des tentatives de groupes de pirates soutenus par différents pays, comme la Russie, la Corée du Nord, l’Iran et la Chine.
“Les groupes de cyberciminels, acteurs de la menace des États-nations et d’autres opposants explorent et testent différentes technologies d’IA […] afin de comprendre leur valeur pour leurs opérations, et les contrôles de sécurité qu’ils pourraient avoir besoin de contourner”, résume le rapport. Les pirates peuvent ainsi utiliser l’IA pour simplifier les tâches de script de base, comme la manipulation de fichiers, la sélection de données et le multitraitement, pour “optimiser leurs opérations techniques”.
Le règlement DORA : un tournant majeur pour la cybersécurité des institutions financières Le 17…
L’Agence nationale de la sécurité des systèmes d'information (ANSSI) a publié un rapport sur les…
Directive NIS 2 : Comprendre les nouvelles obligations en cybersécurité pour les entreprises européennes La…
Alors que la directive européenne NIS 2 s’apprête à transformer en profondeur la gouvernance de…
L'intelligence artificielle (IA) révolutionne le paysage de la cybersécurité, mais pas toujours dans le bon…
Des chercheurs en cybersécurité ont détecté une intensification des activités du groupe APT36, affilié au…
This website uses cookies.