Travail du clic et régulation de l’IA agitent la conférence FAccT

ai bias
ai bias

La conférence FAccT sur l’équité, la responsabilité et la transparence des systèmes numériques se tient du 12 au 15 juin. Parmi les articles et discussions présentées, des travaux sur la répartition du travail des données et des questionnements sur la régulation de l’IA.

Du 12 au 15 juin, la conférence FAccT – Conference on Fairness, Accountability and Transparency – organisée par l’Association for Computing Machinery se tient à Chicago. Haut lieu des échanges de la recherche en sciences informatiques sur les questions d’éthique, les discussions qui s’y tiennent donnent un bon aperçu des débats qui agitent le milieu.

En effet, l’événement réunit depuis 2018 des chercheurs informatiques de toutes sortes d’horizons – quoique principalement américains – pour réfléchir aux notions d’équité, de responsabilité et de transparence dans les systèmes socio-techniques. Soutenue par de nombreux noms de la tech, parmi lesquels Apple, Microsoft ou Open AI, la conférence avait notoirement mis fin à ses relations avec Google en 2021, après que l’entreprise a licencié les codirectrices de son équipe d’éthique de l’IA Timnit Gebru et Margaret Mitchell à trois mois d’intervalle.

Timnit Gebru, Emily Bender et Angelina McMillan-Major avait d’ailleurs présenté publiquement leur article « On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜 » [PDF] (en français, « À propos des dangers des perroquets stochastiques : les modèles de langages peuvent-ils être trop gros ? 🦜 ») lors de la conférence FAccT 2021. La conférence reste sponsorisée par DeepMind, qui est une entreprise d’Alphabet.