L’agence européenne des droits fondamentaux met en garde contre les biais algorithmiques

biais algorythme
biais algorythme

L’Agence des droits fondamentaux de l’Union européenne a publié récemment un rapport sur les biais des algorithmes, notamment quand ils sont utilisés pour la modération de contenus et la police prédictive.

Dans un rapport du 8 décembre (PDF), l’Agence des droits fondamentaux de l’Union européenne (Fundamental Rights Agency ou FRA) a mis en place deux études de cas sur les biais algorithmiques. L’une se penche sur leur amplification par les algorithmes dans les dispositifs de police prédictive. L’autre analyse les biais ethniques et de genre des outils utilisés pour détecter les discours de haine en ligne. Biais qui les conduisent parfois à des résultats absurdes menant à la discrimination de femmes ou de certaines catégories de personnes.

Le rapport affirme que l’utilisation de l’Intelligence artificielle peut toucher beaucoup de droits fondamentaux. Les rapporteurs prennent notamment l’exemple d’algorithmes biaisés par le service des impôts néerlandais en 2020 a conduit à l’accusation de fraude de plus de 26 000 parents sur leurs demandes d’allocations de garde d’enfants. Beaucoup de ces parents avaient un passé d’immigration.

La FRA explique que bien qu’il y ait depuis récemment un éclairage sur le problème des biais dans les algorithmes, « Malgré l’attention accrue portée récemment au problème du biais dans les algorithmes, ce domaine ne dispose toujours pas d’une base de preuves tangibles qui s’appuie sur des évaluations techniques des algorithmes en pratique et de leurs résultats ».

En savoir plus