AI Act : l’IA générative pourrait être régulée par niveaux

ai act
ai act

ChatGPT aura bousculé tout le monde, législateurs compris : les parlementaires européens avaient déjà bien avancé dans leur travail sur le règlement général de l’intelligence artificielle lorsque les modèles d’IA générative ont explosé. Décision a été prise d’ajouter ce type de modèles à la régulation, quand bien même les entreprises numériques et certains États membres suggéraient de reporter leur encadrement à de prochaines lois.

Dragos Tudorache, corapporteur de l’AI Act au Parlement, donne dans TechCrunch un aperçu des dernières discussions en cours, avant un vote en commission espéré pour le 11 mai (il faudra ensuite passer à l’étape suivante du travail législatif : celle des trilogues).

Pour commencer, les parlementaires différencient depuis quelques semaines les « vrais » modèles d’IA à but général (general purpose AI, GPAI) de modèles « de fondation » (foundation model, FM). Le premier label considère des modèles sans leurs données, explique Euractiv : le client, par exemple un hôpital, aura besoin de les entraîner avec les données qui l’intéressent, par exemple des représentations de lésions cancéreuses. Les GPAI sont donc adaptables à un large panel d’applications, pour lesquels il n’aura pas été spécifiquement entraînées à l’origine.

Le second, dont le nom vient d’une publication de l’université de Stanford, qualifie des modèles avec les données qui les ont entraînées, comme ChatGPT ou Stable Diffusion. Il s’agit cette fois de modèles entraînés sur de larges sommes de données, dont les résultats sont généralement généralistes et qui peuvent être adaptées à une série de tâches différentes.

Pour le moment, les parlementaires optent pour une approche de ces différents modèles en trois niveaux : l’un se concentre sur la répartition des responsabilités le long de la chaîne de production des modèles, un autre veille à créer un cadre à ces modèles de fondation, et un troisième se penche sur les problématiques spécifiques de contenus que posent certains outils, comme les problématiques de désinformation liées à ChatGPT.

En l’état, la première couche s’appliquerait à tous les GPAI, qu’ils soient de fondation ou non. La suivante s’appliquerait plutôt aux modèles de fondation. Et la troisième viserait plus spécifiquement les modèles génératifs qui ont récemment fait des étincelles dans l’actualité, en leur créant des responsabilités plus précises à la fois sur le type de contenu qu’ils produisent et sur leurs obligations en termes de droits d’auteur.

Quelle que soit la version définitive du texte, l’AI Act n’entrera probablement pas en vigueur avant 2025, voire plus tard, selon le temps accordé par l’Union aux entreprises pour qu’elles se mettent en conformité.

Source