cybersécurité

Dangers des grands modèles de langage : des chercheuses avaient prévenu

ChatGPT et ses diverses déclinaisons, toutes basées sur les grands modèles de langage, commencent à subir quelques critiques. Mais des chercheuses avaient déjà rassemblé beaucoup de griefs contre cette technologie en 2020 dans un article scientifique qui, pour certaines, leur a coûté leur poste.

Fin octobre dernier, le PDG d’OpenAI a présenté ChatGPT comme un outil utilisant la technologie des grands modèles de langage (Large Langage Models en anglais, LLM), mais avec « encore beaucoup de limites – c’est vraiment une version de recherche ». Plusieurs mois plus tard, le grand public a pu se rendre compte de ces limites à chaque publication d’outils similaires, que ce soit quand Microsoft intègre ChatGPT dans Bing, quand Google présente Bard ou quand Meta a sorti et rapidement retiré Galactica.

Si on ne peut reprocher à la presse et au grand public de n’avoir réagi que sur pièces, après avoir testé les différentes versions publiques de ces outils, les chercheurs et ingénieurs des GAFAM qui les ont confectionnés ne peuvent faire semblant de ne pas avoir été prévenus.

En effet, en 2020, quatre chercheuses, Emily Bender, Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell finalisaient un article scientifique qui rassemblait les différentes critiques qui pouvaient être faites (par elles-mêmes, mais aussi par d’autres chercheurs qu’elles citent), à l’époque, sur l’utilisation des grands modèles de langage et intitulé « On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜 » [PDF] (en français, « À propos des dangers des perroquets stochastiques : les modèles de langages peuvent-ils être trop gros ? 🦜 »).

Timnit Gebru et Margaret Mitchell, qui travaillaient à l’époque chez Google, se sont vu reprocher le contenu de l’article par leur employeur et ont été licenciées. L’article finira par être publié en mars 2021 (avec la signature d’une certaine Shmargaret Shmitchell appartenant à l’institution de « l’Éther » à la place de celle de Margaret Mitchell).

Leur licenciement a fait grand bruit à l’époque, mais les arguments de l’article ont finalement eu peu de répercussions médiatiques. La sortie des ChatGPT et les critiques actuelles en ont eu beaucoup plus, sans doute parce qu’il était difficile de se rendre compte, concrètement, des implications que cette technologie pouvait avoir.

Revenons un peu sur les critiques que les chercheuses formulaient à l’époque sur les modèles de langage (ML).

Source

Veille-cyber

Recent Posts

Directive NIS 2 : Comprendre les obligations en cybersécurité pour les entreprises européennes

Directive NIS 2 : Comprendre les nouvelles obligations en cybersécurité pour les entreprises européennes La…

2 jours ago

NIS 2 : entre retard politique et pression cybersécuritaire, les entreprises dans le flou

Alors que la directive européenne NIS 2 s’apprête à transformer en profondeur la gouvernance de…

3 jours ago

Quand l’IA devient l’alliée des hackers : le phishing entre dans une nouvelle ère

L'intelligence artificielle (IA) révolutionne le paysage de la cybersécurité, mais pas toujours dans le bon…

4 jours ago

APT36 frappe l’Inde : des cyberattaques furtives infiltrent chemins de fer et énergie

Des chercheurs en cybersécurité ont détecté une intensification des activités du groupe APT36, affilié au…

4 jours ago

Vulnérabilités des objets connectés : comment protéger efficacement son réseau en 2025

📡 Objets connectés : des alliés numériques aux risques bien réels Les objets connectés (IoT)…

7 jours ago

Cybersécurité : comment détecter, réagir et se protéger efficacement en 2025

Identifier les signes d'une cyberattaque La vigilance est essentielle pour repérer rapidement une intrusion. Certains…

7 jours ago

This website uses cookies.