attaque contracdictoire
ChatGPT, Bard et consorts sont vulnérables. D’après une nouvelle étude américaine, les IA peuvent être manipulées par une attaque contradictoire. Ce type d’offensives permet de passer outre les règles qui encadrent l’intelligence artificielle… ouvrant la porte à toutes les dérives.
ChatGPT, Google Bard, Claude d’Anthropic, et tous les autres chatbots animés par l’IA générative sont susceptibles d’être manipulés par leurs interlocuteurs. Avec des requêtes bien réfléchies, il est possible de pousser un chatbot à produire n’importe quel type de contenus, même des textes répréhensibles ou offensants. Des criminels s’en servent dès lors pour coder des malwares, des ransomwares, rédiger des mails de phishing, apprendre à fabriquer des drogues dures ou encore des bombes artisanales. Sur le dark web, des hackers mettent d’ailleurs à disposition des exemples de requêtes permettant de faire dérailler l’IA.
OpenAI, Google, Anthropic et les autres géants de l’IA ont pourtant mis en place une batterie de restrictions pour encadrer l’utilisation de leurs agents conversationnels. Malgré ces mesures restrictives, les pirates, chercheurs et autres utilisateurs découvrent tous les jours de nouvelles façons de berner l’intelligence artificielle et de la pousser dans ses retranchements.
Le règlement DORA : un tournant majeur pour la cybersécurité des institutions financières Le 17…
L’Agence nationale de la sécurité des systèmes d'information (ANSSI) a publié un rapport sur les…
Directive NIS 2 : Comprendre les nouvelles obligations en cybersécurité pour les entreprises européennes La…
Alors que la directive européenne NIS 2 s’apprête à transformer en profondeur la gouvernance de…
L'intelligence artificielle (IA) révolutionne le paysage de la cybersécurité, mais pas toujours dans le bon…
Des chercheurs en cybersécurité ont détecté une intensification des activités du groupe APT36, affilié au…
This website uses cookies.