À mesure que les « générateurs de baratin » (« bullshit », en VO) proposés par les chatbots d’intelligences artificielles génératives prolifèrent, les tactiques, techniques et procédures (TTPs) et outils susceptibles de les identifier commencent à être documentées.
S’il suffit d’écrire quelques mots, puis de cliquer sur un bouton, pour que des intelligences artificielles comme Midjourney, DALL-E, Craiyon ou encore Stable Diffusion génèrent, en quelques secondes, des images ultra-réalistes, il n’existe pas de « solution » toute faite pour les identifier en un tournemain.
Après nous être penchés sur la reconnaissance des textes générés par des IA, cette seconde partie fait un tour d’horizon des tactiques, techniques et procédures susceptibles d’identifier les deepfakes visuels.
« Les images ne prouvent rien, et c’est peut-être bien en fait », expliquait récemment l’essayiste Raphaël Doan, au sujet de la prolifération d’images générées par des IA. Sans être devin, on peut néanmoins constater que l’expression « je ne crois que ce que je vois » ne signifie plus rien… sauf à avoir vérifié, recouper et contextualiser ce dont il est question.
Le règlement DORA : un tournant majeur pour la cybersécurité des institutions financières Le 17…
L’Agence nationale de la sécurité des systèmes d'information (ANSSI) a publié un rapport sur les…
Directive NIS 2 : Comprendre les nouvelles obligations en cybersécurité pour les entreprises européennes La…
Alors que la directive européenne NIS 2 s’apprête à transformer en profondeur la gouvernance de…
L'intelligence artificielle (IA) révolutionne le paysage de la cybersécurité, mais pas toujours dans le bon…
Des chercheurs en cybersécurité ont détecté une intensification des activités du groupe APT36, affilié au…
This website uses cookies.