ChatGPT invente un cas de harcèlement sexuel et accuse une personne réelle

chatgpt bias
chatgpt bias

Les modèles d’IA générative à la ChatGPT ne sont pas sans risques pour l’écosystème de l’information. Nouvelle illustration avec une récente « hallucination », comme les appellent les chercheurs, de ChatGPT.

Alors qu’un avocat californien demandait à ChatGPT de générer une liste de juristes accusés de harcèlement sexuel, celui-ci a produit le nom de Jonathan Turley. Citant un article publié en mars 2018 par le Washington Post, le robot produit un texte dans lequel il est expliqué que Jonathan Turley aurait attouché sexuellement une étudiante pendant un voyage en Alaska.

Problème : il n’y a pas eu de voyage en Alaska, pas plus que d’article dans le Washington Post. Et si Jonathan Turley avait déjà fait corriger des interviews, cette fois-ci, il n’y avait aucun journaliste ni aucune rédaction à appeler.

L’affaire a été rapportée par le Washington Post (pour de vrai, cette fois-ci) à peine quelque jours après que le maire de Hepburn Shire, en Australie, avait menacé de porter plainte pour diffamation.

Dans son cas, la machine d’OpenAI avait formulé un texte déclarant, à tort, que l’homme avait passé du temps en prison pour corruption.

Dans ces affaires, non seulement la machine diffuse de fausses informations, mais elle les rend d’autant plus crédibles qu’elle fournit aussi de fausses citations sur lesquelles appuyer son propos.

Par ailleurs, le Washington Post a reformulé la requête initiale de l’avocat californien et constaté que la version gratuite de GPT-4 ne lui donnait plus la même réponse.

Du côté de Bard, en revanche, le modèle de Google, les journalistes ont de nouveau obtenu de fausses accusations au sujet de Jonathan Turley.

En citation pour appuyer son texte, la machine a notamment fourni la tribune bien réelle du juriste, publiée dans USA Today… mais dans laquelle il explique précisément avoir été victime d’une fausse information.

Source