Des chercheurs américains ont révélé que GPT-4 pouvait exploiter des vulnérabilités one-day sur des systèmes réels, et ce, en parfaite autonomie. Une découverte qui marque un tournant pour le futur de la cybersécurité.
Que les grands modèles de langage (LLM) soient capables de pirater des applications n’est pas nouveau en soi. De récents travaux de recherche avaient déjà pu prouver qu’ils étaient capables de hacker des sites web grâce à l’exploitation de vulnérabilités simples. En revanche, des chercheurs américains de l’Université de l’Illinois à Urbana-Champaign (UIUC) viennent tout juste de démontrer que GPT-4 pouvait aussi exploiter des failles autrement complexes, sans intervention humaine directe.
Pour mener à bien cette recherche, l’équipe de l’UIUC a d’abord constitué une base de données de quinze vulnérabilités one-day (failles déjà connues des éditeurs et développeurs) de niveaux de criticité différents (moyen à critique), à partir d’informations issues de registres CVE et de publications scientifiques. Ils ont ensuite développé plusieurs agents basés sur différents LLM, dont GPT (3.5, 4), LLaMa-2 (7B, 13B, 70B) et OpenChat (3.5), spécifiquement programmés pour interagir avec ces failles de sécurité. À noter que les tests ont été effectués dans un environnement virtuel isolé afin d’éviter tout risque de dommage réel.
Directive NIS 2 : Comprendre les nouvelles obligations en cybersécurité pour les entreprises européennes La…
Alors que la directive européenne NIS 2 s’apprête à transformer en profondeur la gouvernance de…
L'intelligence artificielle (IA) révolutionne le paysage de la cybersécurité, mais pas toujours dans le bon…
Des chercheurs en cybersécurité ont détecté une intensification des activités du groupe APT36, affilié au…
📡 Objets connectés : des alliés numériques aux risques bien réels Les objets connectés (IoT)…
Identifier les signes d'une cyberattaque La vigilance est essentielle pour repérer rapidement une intrusion. Certains…
This website uses cookies.