Selon une étude de NewsGuard diffusée par Axios, contrairement à ce qu’OpenAI indiquait la semaine dernière à la sortie de la nouvelle version de son modèle de langage GPT, celle-ci serait plus susceptible de créer des textes relatant de fausses informations que son prédécesseur.
Si, selon OpenAI, GPT-4 produirait 40 % de fausses infos de moins que GPT-3.5, le test de NewsGuard est beaucoup plus pessimiste. Ils ont comparé les résultats obtenus avec GPT-4 en réponse à une série de prompts amorçant des conversations sur des infos erronées avec ceux qu’ils avaient obtenus en janvier dernier avec GPT-3.5. Problème, la nouvelle version donne 100 réponses trompeuses aux 100 prompts proposés alors que GPT-3.5 n’en générait que 80 de fausses.
Pour NewsGuard, « si ChatGPT-3.5 était capable de créer des contenus problématiques, ChatGPT-4 est encore meilleur » dans l’exercice.