L’institut AI Now appelle à « confronter le pouvoir technologique »

institut ai now
institut ai now

Cofondé en 2017 par les chercheuses Kate Crawford et Meredith Whittaker, l’institut AI Now de l’Université de New-York vient de publier son rapport annuel sur l’intelligence artificielle, titré « confronter le pouvoir technologique ».

Alors que les pronostics sur le futur de l’intelligence artificielle sont toujours plus sombres, « il est temps pour les régulateurs et pour le public de s’assurer que rien dans l’intelligence artificielle (et dans l’industrie qui l’alimente) ne va de soi », introduit la synthèse.

Publiées en 2018 puis en 2019, les précédentes éditions des rapports de l’AI Now Institute se penchaient à l’époque sur le développement des systèmes de reconnaissance faciale, « jusqu’à ce que les réactions des communautés locales fassent pression sur les responsables gouvernementaux ».

De même, insistent encore, en gras, les autrices du rapport : « l’intelligence artificielle n’a rien d’inévitable ».

Il est urgent de tirer des leçons de l’ère du « move fast and break things » des Big Tech, insiste encore l’institut, et bonne nouvelle : cette fois-ci, nous avons déjà mis en place des lois et des débuts de cadres qui s’imposent aux constructeurs d’algorithmes.

Partout où l’IA est utilisée, « la technologie ne fonctionne pas comme prévu et produit des taux d’erreurs élevés et des résultats injustes et discriminatoires ».

Pour pallier ce problème, et celui, peut-être moins simple à discerner, qui chercherait à faire croire que nous n’avons rien à dire sur le déploiement de ces technologies, le rapport propose quatre axes de travail. 
Tous visent un seul but, celui de remettre la responsabilité du déploiement et de la sécurisation de ces technologies dans les mains de leurs créateurs, c’est-à-dire des grandes entreprises technologies :

  • « Faire peser sur les Big Tech la charge de démontrer que leurs technologies et leurs actions ne provoquent pas de dommages, plutôt que de laisser au public et aux régulateurs le rôle d’enquêter en permanence, d’identifier et de trouver des solutions après que les dommages ont eu lieu »
  • « Casser les silos entre les arènes politiques, afin d’être mieux préparés à gérer les effets d’un programme politique sur un autre. » Ici, le rapport pointe la surface d’action des Big Tech à travers de multiples secteurs économiques et politiques, ce qui leur permet de faire jouer à leur avantage le cloisonnement des secteurs.
  • « Identifier les espaces où les approches politiques sont vidées de leur substance par l’industrie et réorienter nos stratégies en conséquence ». Le rapport pointe ici la propension qu’a eu le milieu de la tech à prôner une réglementation « douce », par l’éthique, de la reconnaissance faciale, pour, in fine, pouvoir continuer de développer ses outils.
  • « Dépasser notre focalisation restreinte sur les leviers législatifs et politiques pour adopter une théorie du changement bien plus large ». Ici, le rapport suggère de s’inspirer des organisations de défense du climat ou des travailleurs, qui identifient les enjeux de très long terme pour travailler dessus.