Intelligence Artificielle

Timnit Gebru demande des régulations ex ante de l’intelligence artificielle

Quelques jours après la publication d’une lettre ouverte signée par plusieurs pontes de l’industrie numérique et appelant à une pause de six mois des laboratoires de recherche en intelligence artificielle, les chercheuses Angelina McMillan-Major, Margaret Mitchell, Emily Bender et Timnit Gebru ont publié leur propre réponse.

En 2020, les quatre femmes avaient cosigné l’article « À propos des dangers des perroquets stochastiques : les modèles de langages peuvent-ils être trop gros ? 🦜 » qui alertait, déjà, contre les multiples problématiques posées par les grands modèles de langages (LLM).

À l’époque, cet article avait valu à Margaret Mitchell et Timnit Gebru d’être licenciées par Google : la première travaille désormais chez Hugging Face et la seconde a co-fondé l’institut de recherche indépendant DAIR (Distributed AI Research Institute).

Dans un entretien accordé à Politico, Timnit Gebru revient sur le fond du message que ses collègues et elles souhaitent faire passer.

Pour la scientifique, les constructeurs de modèles d’IA générative comme OpenAI partent de plusieurs hypothèses sujettes à débat, à commencer par celle qu’il faudrait « un modèle susceptible de fonctionner pour tout le monde, partout, pour que nous n’ayons à payer qu’une ou deux entreprises pour accomplir littéralement toutes les tâches de notre quotidien ». Or, ce présupposé n’a rien d’obligatoire, selon elle.

Par ailleurs, le vocabulaire employé dans la lettre ouverte initiale et dans les prises de parole d’acteurs comme Sam Altman, co-fondateur d’OpenAI, laisse entendre qu’il faudrait « adapter » la société pour faire face aux « perturbations » que les LLM créent pour la démocratie.

« Ça me paraît ridicule » déclare l’informaticienne, qui rejette l’idée de présenter ces innovations comme des technologies qui doivent nécessairement exister, plutôt que comme des outils destinés « à nous aider à exister comme nous souhaitons exister ».

Recadrant le débat dans ses propres termes – ceux de technologies créées par les humains, et donc sur lesquelles les humains ont la main –, la chercheuse appelle donc à des régulations qui s’appliqueraient aux entreprises plutôt qu’aux usagers, et qui demanderaient auxdites sociétés de prouver avant commercialisation que leurs produits d’IA remplissent un certain nombre de prérequis fixés par les législateurs.

Source

Mots-clés : cybersécurité, sécurité informatique, protection des données, menaces cybernétiques, veille cyber, analyse de vulnérabilités, sécurité des réseaux, cyberattaques, conformité RGPD, NIS2, DORA, PCIDSS, DEVSECOPS, eSANTE, intelligence artificielle, IA en cybersécurité, apprentissage automatique, deep learning, algorithmes de sécurité, détection des anomalies, systèmes intelligents, automatisation de la sécurité, IA pour la prévention des cyberattaques.

Veille-cyber

Recent Posts

Bots et IA biaisées : menaces pour la cybersécurité

Bots et IA biaisées : une menace silencieuse pour la cybersécurité des entreprises Introduction Les…

4 semaines ago

Cloudflare en Panne

Cloudflare en Panne : Causes Officielles, Impacts et Risques pour les Entreprises  Le 5 décembre…

4 semaines ago

Alerte sur le Malware Brickstorm : Une Menace pour les Infrastructures Critiques

Introduction La cybersécurité est aujourd’hui une priorité mondiale. Récemment, la CISA (Cybersecurity and Infrastructure Security…

4 semaines ago

Cloud Computing : État de la menace et stratégies de protection

  La transformation numérique face aux nouvelles menaces Le cloud computing s’impose aujourd’hui comme un…

4 semaines ago

Attaque DDoS record : Cloudflare face au botnet Aisuru – Une analyse de l’évolution des cybermenaces

Les attaques par déni de service distribué (DDoS) continuent d'évoluer en sophistication et en ampleur,…

4 semaines ago

Poèmes Pirates : La Nouvelle Arme Contre Votre IA

Face à l'adoption croissante des technologies d'IA dans les PME, une nouvelle menace cybersécuritaire émerge…

4 semaines ago

This website uses cookies.