ChatGPT, Bard, et les autres IA ont un gros problème de sécurité : l’attaque contradictoire

attaque contracdictoire
attaque contracdictoire

ChatGPT, Bard et consorts sont vulnérables. D’après une nouvelle étude américaine, les IA peuvent être manipulées par une attaque contradictoire. Ce type d’offensives permet de passer outre les règles qui encadrent l’intelligence artificielle… ouvrant la porte à toutes les dérives.

ChatGPTGoogle BardClaude d’Anthropic, et tous les autres chatbots animés par l’IA générative sont susceptibles d’être manipulés par leurs interlocuteurs. Avec des requêtes bien réfléchies, il est possible de pousser un chatbot à produire n’importe quel type de contenus, même des textes répréhensibles ou offensants. Des criminels s’en servent dès lors pour coder des malwares, des ransomwares, rédiger des mails de phishing, apprendre à fabriquer des drogues dures ou encore des bombes artisanales. Sur le dark web, des hackers mettent d’ailleurs à disposition des exemples de requêtes permettant de faire dérailler l’IA.

OpenAI, Google, Anthropic et les autres géants de l’IA ont pourtant mis en place une batterie de restrictions pour encadrer l’utilisation de leurs agents conversationnels. Malgré ces mesures restrictives, les pirates, chercheurs et autres utilisateurs découvrent tous les jours de nouvelles façons de berner l’intelligence artificielle et de la pousser dans ses retranchements.

Source