The intractable challenge of bias in AI

Last week, Twitter shared research showing that the platform’s algorithms amplify tweets from right-of-center politicians and news outlets at the expense of left-leaning sources. Rumman Chowdhury, the head of Twitter’s machine learning, ethics, transparency, and accountability team, said in an interview with Protocol that while some of the behavior could be user-driven, the reason for the bias isn’t entirely clear.

“We can see that it is happening. We are not entirely sure why it is happening,” Chowdhury said. “When algorithms get put out into the world, what happens when people interact with it — we can’t model for that. We can’t model for how individuals or groups of people will use Twitter, what will happen in the world in a way that will impact how people use Twitter.”

Read more

Veille-cyber

Share
Published by
Veille-cyber

Recent Posts

L’IA : opportunité ou menace ? Les DSI de la finance s’interrogent

L'IA : opportunité ou menace ? Les DSI de la finance s'interrogent Alors que l'intelligence…

1 mois ago

Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le secteur financier

Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le…

1 mois ago

Règlement DORA : implications contractuelles pour les entités financières et les prestataires informatiques

La transformation numérique du secteur financier n'a pas que du bon : elle augmente aussi…

1 mois ago

Telegram menace de quitter la France : le chiffrement de bout en bout en ligne de mire

Telegram envisage de quitter la France : le chiffrement de bout en bout au cœur…

1 mois ago

Quand l’IA devient l’alliée des hackers : le phishing entre dans une nouvelle ère

L'intelligence artificielle (IA) révolutionne le paysage de la cybersécurité, mais pas toujours dans le bon…

2 mois ago

LES DIFFÉRENCES ENTRE ISO 27001 ET TISAX®

TISAX® et ISO 27001 sont toutes deux des normes dédiées à la sécurité de l’information. Bien qu’elles aient…

2 mois ago

This website uses cookies.