Intelligence Artificielle

AI Act : l’IA générative pourrait être régulée par niveaux

ChatGPT aura bousculé tout le monde, législateurs compris : les parlementaires européens avaient déjà bien avancé dans leur travail sur le règlement général de l’intelligence artificielle lorsque les modèles d’IA générative ont explosé. Décision a été prise d’ajouter ce type de modèles à la régulation, quand bien même les entreprises numériques et certains États membres suggéraient de reporter leur encadrement à de prochaines lois.

Dragos Tudorache, corapporteur de l’AI Act au Parlement, donne dans TechCrunch un aperçu des dernières discussions en cours, avant un vote en commission espéré pour le 11 mai (il faudra ensuite passer à l’étape suivante du travail législatif : celle des trilogues).

Pour commencer, les parlementaires différencient depuis quelques semaines les « vrais » modèles d’IA à but général (general purpose AI, GPAI) de modèles « de fondation » (foundation model, FM). Le premier label considère des modèles sans leurs données, explique Euractiv : le client, par exemple un hôpital, aura besoin de les entraîner avec les données qui l’intéressent, par exemple des représentations de lésions cancéreuses. Les GPAI sont donc adaptables à un large panel d’applications, pour lesquels il n’aura pas été spécifiquement entraînées à l’origine.

Le second, dont le nom vient d’une publication de l’université de Stanford, qualifie des modèles avec les données qui les ont entraînées, comme ChatGPT ou Stable Diffusion. Il s’agit cette fois de modèles entraînés sur de larges sommes de données, dont les résultats sont généralement généralistes et qui peuvent être adaptées à une série de tâches différentes.

Pour le moment, les parlementaires optent pour une approche de ces différents modèles en trois niveaux : l’un se concentre sur la répartition des responsabilités le long de la chaîne de production des modèles, un autre veille à créer un cadre à ces modèles de fondation, et un troisième se penche sur les problématiques spécifiques de contenus que posent certains outils, comme les problématiques de désinformation liées à ChatGPT.

En l’état, la première couche s’appliquerait à tous les GPAI, qu’ils soient de fondation ou non. La suivante s’appliquerait plutôt aux modèles de fondation. Et la troisième viserait plus spécifiquement les modèles génératifs qui ont récemment fait des étincelles dans l’actualité, en leur créant des responsabilités plus précises à la fois sur le type de contenu qu’ils produisent et sur leurs obligations en termes de droits d’auteur.

Quelle que soit la version définitive du texte, l’AI Act n’entrera probablement pas en vigueur avant 2025, voire plus tard, selon le temps accordé par l’Union aux entreprises pour qu’elles se mettent en conformité.

Source

Veille-cyber

Share
Published by
Veille-cyber

Recent Posts

Les 7 menaces cyber les plus fréquentes en entreprise

Introduction La cybersécurité est devenue une priorité stratégique pour toutes les entreprises, grandes ou petites.…

4 jours ago

Cybersécurité : Vers une montée en compétence des établissements de santé grâce aux exercices de crise

Cybersécurité : les établissements de santé renforcent leur défense grâce aux exercices de crise Face…

2 semaines ago

Règlement DORA : implications contractuelles pour les entités financières et les prestataires informatiques

La transformation numérique du secteur financier n'a pas que du bon : elle augmente aussi…

2 semaines ago

L’IA : opportunité ou menace ? Les DSI de la finance s’interrogent

L'IA : opportunité ou menace ? Les DSI de la finance s'interrogent Alors que l'intelligence…

2 semaines ago

Telegram menace de quitter la France : le chiffrement de bout en bout en ligne de mire

Telegram envisage de quitter la France : le chiffrement de bout en bout au cœur…

2 semaines ago

Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le secteur financier

Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le…

2 semaines ago

This website uses cookies.