ChatGPT, mauvais détecteur de failles dans le code

chatgpt dangerous
chatgpt dangerous

Selon un rapport de NCC Group, les modèles de machine learning sont très prometteurs pour détecter des attaques zero day. Mais pour débusquer les vulnérabilités dans le code avec l’IA générative, la partie est loin d’être gagnée.

L’IA générative – en particulier ChatGPT – ne devrait pas être considérée comme une ressource fiable pour détecter les vulnérabilités dans le code sans la supervision cruciale d’un expert humain. Toutefois, les modèles d’IA sont très prometteurs pour observer les attaques de type zero day. C’est ce qui ressort d’un dernier rapport du NCC Group, qui explore divers cas d’utilisation de l’IA dans le domaine de la cybersécurité. Le rapport « Safety, Security, Privacy & Prompts : Cyber Resilience in the Age of Artificial Intelligence » a été publié pour aider ceux qui souhaitent mieux comprendre comment l’IA s’applique à la cybersécurité, en résumant comment elle peut être utilisée par les professionnels de ce domaine.

Cette question a fait l’objet d’un grand nombre de discussions, de recherches et d’opinions cette année, suite à l’arrivée explosive et à la croissance de la technologie de l’IA générative à la fin de l’année 2022. On a beaucoup parlé des risques de sécurité que présentent les chatbots d’IA générative, qu’il s’agisse de préoccupations concernant le partage d’informations commerciales sensibles avec des algorithmes d’auto-apprentissage avancés ou d’acteurs malveillants qui les utilisent pour renforcer considérablement les attaques. De même, beaucoup affirment que, s’ils sont utilisés correctement, les chatbots d’IA générative peuvent améliorer les défenses de cybersécurité.

Source