Wikipedia tests AI for spotting contradictory claims in articles

Artificial intelligence can be used to scour the crowdsourced encyclopedia for contradictory information and flag it to human editors

The charity that maintains Wikipedia has developed AI that can spot contradictory claims in articles and alert the human editors who write and edit the collective encyclopedia.

Wikipedia was launched in 2001 and the English language version now has more than 6 million articles written almost entirely by volunteers. While that huge, unpaid workforce is its biggest strength, it is also a crucial weakness, and errors can be introduced either accidentally or deliberately.

Cheng Hsu at National Cheng Kung …

Read more: https://www.newscientist.com/article/2298169-wikipedia-tests-ai-for-spotting-contradictory-claims-in-articles/#ixzz7CxdpfM1n

Veille-cyber

Share
Published by
Veille-cyber

Recent Posts

L’IA : opportunité ou menace ? Les DSI de la finance s’interrogent

L'IA : opportunité ou menace ? Les DSI de la finance s'interrogent Alors que l'intelligence…

1 mois ago

Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le secteur financier

Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le…

1 mois ago

Règlement DORA : implications contractuelles pour les entités financières et les prestataires informatiques

La transformation numérique du secteur financier n'a pas que du bon : elle augmente aussi…

1 mois ago

Telegram menace de quitter la France : le chiffrement de bout en bout en ligne de mire

Telegram envisage de quitter la France : le chiffrement de bout en bout au cœur…

1 mois ago

Quand l’IA devient l’alliée des hackers : le phishing entre dans une nouvelle ère

L'intelligence artificielle (IA) révolutionne le paysage de la cybersécurité, mais pas toujours dans le bon…

1 mois ago

LES DIFFÉRENCES ENTRE ISO 27001 ET TISAX®

TISAX® et ISO 27001 sont toutes deux des normes dédiées à la sécurité de l’information. Bien qu’elles aient…

2 mois ago

This website uses cookies.