chatgpt malware
Selon une étude de NewsGuard diffusée par Axios, contrairement à ce qu’OpenAI indiquait la semaine dernière à la sortie de la nouvelle version de son modèle de langage GPT, celle-ci serait plus susceptible de créer des textes relatant de fausses informations que son prédécesseur.
Si, selon OpenAI, GPT-4 produirait 40 % de fausses infos de moins que GPT-3.5, le test de NewsGuard est beaucoup plus pessimiste. Ils ont comparé les résultats obtenus avec GPT-4 en réponse à une série de prompts amorçant des conversations sur des infos erronées avec ceux qu’ils avaient obtenus en janvier dernier avec GPT-3.5. Problème, la nouvelle version donne 100 réponses trompeuses aux 100 prompts proposés alors que GPT-3.5 n’en générait que 80 de fausses.
Pour NewsGuard, « si ChatGPT-3.5 était capable de créer des contenus problématiques, ChatGPT-4 est encore meilleur » dans l’exercice.
Introduction La cybersécurité est devenue une priorité stratégique pour toutes les entreprises, grandes ou petites.…
Cybersécurité : les établissements de santé renforcent leur défense grâce aux exercices de crise Face…
La transformation numérique du secteur financier n'a pas que du bon : elle augmente aussi…
L'IA : opportunité ou menace ? Les DSI de la finance s'interrogent Alors que l'intelligence…
Telegram envisage de quitter la France : le chiffrement de bout en bout au cœur…
Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le…
This website uses cookies.