Tracking exposed, AI Forensics : tenir les constructeurs d’algorithmes responsables

ai forensic
ai forensic

Début mai, l’association AI Forensics était lancée, prenant la place de Tracking Exposed, active pendant sept ans. Next INpact a rencontré Claudio Agosti, co-fondateur des deux projets.

Début mai 2023, un message a fleuri sur LinkedinMastodon et ailleurs. Le projet Tracking exposed, qui avait alimenté plusieurs enquêtes sur les effets des algorithmes de recommandation de grandes plateformes sur la société, arrivait à son terme. À la place, son cocréateur Claudio Agosti annonçait la création d’AI Forensics, une organisation à but non lucratif dont le but consiste, comme son prédécesseur, à décortiquer le fonctionnement d’« algorithmes opaques » pour découvrir et faire connaître les éventuels dommages que ces machines provoquent et demander des comptes à leurs constructeurs.

Au même moment, du côté du Parlement européen, le travail sur une régulation européenne de l’intelligence artificielle (IA) arrivait à un nouveau palier. L’occasion était parfaite pour que Next INpact interroge Claudio Agosti et lui fasse raconter son projet autant que l’évolution qu’il avait constatée, au fil des ans, dans les discours autour des effets de l’IA sur la société.

La première chose qu’il tient à mettre au clair, c’est que Tracking exposed comme AI forensics adoptent une « approche adverse : nous construisons des méthodes et des technologies robustes, qui fonctionnent même quand les entreprises concernées ne veulent pas être analysées ». Or ces dernières sont rarement ouvertes à l’exposition de leur cuisine interne, sourit-il.

Source