La revue Nature plaide pour s’occuper des dangers actuels de l’IA au lieu de parler d’apocalypse

danger ia
danger ia

Dans un éditorial publié ce mardi 27 juin, la revue scientifique Nature pousse à ce que le débat sur l’IA ne se concentre pas sur une éventuelle apocalypse comme l’ont évoqué plusieurs PDG d’entreprises du numérique en mars dernier, mais sur les dangers concrets et actuels liés aux techniques d’intelligence artificielle.

Faisant remarquer qu’ « il est inhabituel de voir des chefs d’entreprise parler de la létalité potentielle de leur propre produit », la revue estime que c’est un tour de passe-passe qui « détourne l’attention du véritable problème : les dommages sociétaux que les systèmes et outils d’IA causent aujourd’hui, ou risquent de causer à l’avenir ».

Selon cet éditorial, « de nombreux chercheurs et éthiciens en IA auxquels Nature s’est adressé sont frustrés par le discours catastrophiste qui domine les débats sur l’IA ». D’une part, parce qu’il alimente l’image d’une machine toute-puissante qui pousse chaque pays à vouloir la contrôler et en tirer le plus de profit. Et, d’autre part, car très mobilisateur d’émotions, il permet à un groupe homogène de dirigeants d’entreprises et spécialistes des technologies « de dominer la conversation sur les risques et la réglementation de l’IA, tandis que d’autres communautés sont laissées de côté ».

L’éditorial cite les biais des algorithmes d’IA, la suppression d’emplois et l’utilisation abusive de la reconnaissance faciale comme des exemples de sujets sur lesquels « les débats manquent d’oxygène ».

Pour la revue scientifique, « Les entreprises technologiques doivent formuler des normes industrielles pour le développement responsable de systèmes et d’outils d’IA, et entreprendre des tests de sécurité rigoureux avant la mise sur le marché des produits » et « les gouvernements doivent mettre en place des cadres juridiques et réglementaires appropriés et appliquer les lois existantes ».

Nature appelle à ce que les chercheurs spécialistes du domaine soient entendus : « Les chercheurs doivent jouer leur rôle en créant une culture de l’IA responsable à partir de la base ». « Les discours alarmistes sur les risques existentiels ne sont pas constructifs. Une discussion sérieuse sur les risques réels et les mesures à prendre pour les contenir le sont », résume l’éditorial.