Intelligence Artificielle

La revue Nature plaide pour s’occuper des dangers actuels de l’IA au lieu de parler d’apocalypse

Dans un éditorial publié ce mardi 27 juin, la revue scientifique Nature pousse à ce que le débat sur l’IA ne se concentre pas sur une éventuelle apocalypse comme l’ont évoqué plusieurs PDG d’entreprises du numérique en mars dernier, mais sur les dangers concrets et actuels liés aux techniques d’intelligence artificielle.

Faisant remarquer qu’ « il est inhabituel de voir des chefs d’entreprise parler de la létalité potentielle de leur propre produit », la revue estime que c’est un tour de passe-passe qui « détourne l’attention du véritable problème : les dommages sociétaux que les systèmes et outils d’IA causent aujourd’hui, ou risquent de causer à l’avenir ».

Selon cet éditorial, « de nombreux chercheurs et éthiciens en IA auxquels Nature s’est adressé sont frustrés par le discours catastrophiste qui domine les débats sur l’IA ». D’une part, parce qu’il alimente l’image d’une machine toute-puissante qui pousse chaque pays à vouloir la contrôler et en tirer le plus de profit. Et, d’autre part, car très mobilisateur d’émotions, il permet à un groupe homogène de dirigeants d’entreprises et spécialistes des technologies « de dominer la conversation sur les risques et la réglementation de l’IA, tandis que d’autres communautés sont laissées de côté ».

L’éditorial cite les biais des algorithmes d’IA, la suppression d’emplois et l’utilisation abusive de la reconnaissance faciale comme des exemples de sujets sur lesquels « les débats manquent d’oxygène ».

Pour la revue scientifique, « Les entreprises technologiques doivent formuler des normes industrielles pour le développement responsable de systèmes et d’outils d’IA, et entreprendre des tests de sécurité rigoureux avant la mise sur le marché des produits » et « les gouvernements doivent mettre en place des cadres juridiques et réglementaires appropriés et appliquer les lois existantes ».

Nature appelle à ce que les chercheurs spécialistes du domaine soient entendus : « Les chercheurs doivent jouer leur rôle en créant une culture de l’IA responsable à partir de la base ». « Les discours alarmistes sur les risques existentiels ne sont pas constructifs. Une discussion sérieuse sur les risques réels et les mesures à prendre pour les contenir le sont », résume l’éditorial.

Mots-clés : cybersécurité, sécurité informatique, protection des données, menaces cybernétiques, veille cyber, analyse de vulnérabilités, sécurité des réseaux, cyberattaques, conformité RGPD, NIS2, DORA, PCIDSS, DEVSECOPS, eSANTE, intelligence artificielle, IA en cybersécurité, apprentissage automatique, deep learning, algorithmes de sécurité, détection des anomalies, systèmes intelligents, automatisation de la sécurité, IA pour la prévention des cyberattaques.

Veille-cyber

Recent Posts

Bots et IA biaisées : menaces pour la cybersécurité

Bots et IA biaisées : une menace silencieuse pour la cybersécurité des entreprises Introduction Les…

1 jour ago

Cloudflare en Panne

Cloudflare en Panne : Causes Officielles, Impacts et Risques pour les Entreprises  Le 5 décembre…

1 jour ago

Alerte sur le Malware Brickstorm : Une Menace pour les Infrastructures Critiques

Introduction La cybersécurité est aujourd’hui une priorité mondiale. Récemment, la CISA (Cybersecurity and Infrastructure Security…

1 jour ago

Cloud Computing : État de la menace et stratégies de protection

  La transformation numérique face aux nouvelles menaces Le cloud computing s’impose aujourd’hui comme un…

2 jours ago

Attaque DDoS record : Cloudflare face au botnet Aisuru – Une analyse de l’évolution des cybermenaces

Les attaques par déni de service distribué (DDoS) continuent d'évoluer en sophistication et en ampleur,…

2 jours ago

Poèmes Pirates : La Nouvelle Arme Contre Votre IA

Face à l'adoption croissante des technologies d'IA dans les PME, une nouvelle menace cybersécuritaire émerge…

2 jours ago

This website uses cookies.