ChatGPT : OpenAI prépare des outils contre la désinformation électorale

openai
openai

Alors que 2024 sera une année d’élections majeures, notamment aux Etats-Unis ; OpenAI annonce le lancement de nouveaux outils pour prévenir les manipulations à des fins politiques provenant de ChatGPT et DALL-E.

2024 sera une année  riche en périodes électorales  aux quatre coins du globe, notamment aux Etats-Unis, en Inde ou en Grande-Bretagne.  Et les outils d’IA générative auront leur place dans la production des messages politiques.

Dans ce contexte, OpenAI annonce la création de nouveaux outils pour éviter que ChatGPT et DALL-E, ses deux créations majeures de GenAI, ne soient utilisés à des fins de désinformation.

« Nous nous efforçons d’anticiper et de prévenir les abus pertinents, tels que les « deepfakes » trompeurs, les opérations d’influence à grande échelle ou les chatbots se faisant passer pour des candidats.» explique OpenAI.

De nouveaux GPT pour lutter contre la désinformation

Sans donner de détails techniques, l’inventeur de ChatGPT affirme travailler sur le création de nouveaux GPT permettant notamment aux utilisateurs de signaler des détournements de son usage qui permettent de générer des messages de désinformation.

« Jusqu’à ce que nous en sachions plus, nous n’autorisons pas les gens à créer des applications à des fins de campagne politique et de lobbying. (…) Notre approche consiste à poursuivre notre travail de sécurité des plateformes en améliorant l’exactitude des informations sur le vote, en appliquant des politiques mesurées et en améliorant la transparence» déclare OpenAI.

Le champion de la GenAI prend la peine de signaler que des « garde fous » à la puissance de ses deux outils phares existent déjà. C’est le cas pour DALL·E qui refuser les demandes de génération d’images de personnes réelles, y compris de candidats.

Source