Microsoft a révélé, dans un rapport rédigé en collaboration avec OpenAI, la manière dont certains hackers chinois, iraniens, nord-coréens et russes utilisent de grands modèles de langage dans le cadre de cyberattaques. Les deux sociétés ont fermé plusieurs comptes associés à ces groupes de pirates.
Microsoft Threat Intelligence, en collaboration avec la société d’intelligence artificielle OpenAI, ont affirmé dans un rapport rendu public le 14 février que les grands modèles de langage (LLM) comme ChatGPT pouvaient servir aux hackers pour améliorer leurs techniques existantes. Les deux sociétés américaines ont ainsi repéré des tentatives de groupes de pirates soutenus par différents pays, comme la Russie, la Corée du Nord, l’Iran et la Chine.
“Les groupes de cyberciminels, acteurs de la menace des États-nations et d’autres opposants explorent et testent différentes technologies d’IA […] afin de comprendre leur valeur pour leurs opérations, et les contrôles de sécurité qu’ils pourraient avoir besoin de contourner”, résume le rapport. Les pirates peuvent ainsi utiliser l’IA pour simplifier les tâches de script de base, comme la manipulation de fichiers, la sélection de données et le multitraitement, pour “optimiser leurs opérations techniques”.