Nouveau cas de discrimination assistée par algorithme : le New-York Times rapporte l’histoire de Randal Quran Reid, gardé six jours en garde à vue par la police sur la foi d’un résultat de reconnaissance faciale erronée.
Vivant en Géorgie, aux États-Unis, le jeune homme s’est retrouvé accusé de deux vols dans deux villes proches de New Orléans, quand bien même il n’avait jamais mis les pieds en Louisiane.
Ses parents ont dépensé des milliers de dollars pour trouver des avocats et comprendre ce qui avait mené à l’arrestation de M. Reid. En définitive, celui-ci ressemblait vaguement à un suspect filmé par caméra de surveillance.
Comme l’écrivent les journalistes Kashmir Hill et Ryan Mac, M. Reid semble avoir subi une cascade de mauvaises décisions, à commencer par une mauvaise identification algorithmique – le bureau de police travaille avec les outils de Clearview AI depuis 2019 – puis celle adoptée par les policiers de prendre la suggestion du logiciel pour argent comptant.
Ça n’est pas la première fois qu’un homme se retrouve enfermé à cause de problèmes de ce genre aux États-Unis.
À notre connaissance, tous les cas connus aux États-Unis concernent des hommes noirs. Or, il est notoire, au moins depuis la publication de l’étude Gender Shades par la chercheuse Joy Buolamwini en 2018, que plus la peau d’un sujet est foncée, moins les algorithmes de reconnaissance faciale fonctionnent correctement.
Quant à Clearview AI, si elle est très utilisée par la police américaine, ses technologies restent polémiques, puisque l’entreprise a constitué sa base d’entrainement en « scrapant » toutes les images disponibles sur des réseaux sociaux grand public comme Facebook.