Intelligence Artificielle

AI Act : l’IA générative pourrait être régulée par niveaux

ChatGPT aura bousculé tout le monde, législateurs compris : les parlementaires européens avaient déjà bien avancé dans leur travail sur le règlement général de l’intelligence artificielle lorsque les modèles d’IA générative ont explosé. Décision a été prise d’ajouter ce type de modèles à la régulation, quand bien même les entreprises numériques et certains États membres suggéraient de reporter leur encadrement à de prochaines lois.

Dragos Tudorache, corapporteur de l’AI Act au Parlement, donne dans TechCrunch un aperçu des dernières discussions en cours, avant un vote en commission espéré pour le 11 mai (il faudra ensuite passer à l’étape suivante du travail législatif : celle des trilogues).

Pour commencer, les parlementaires différencient depuis quelques semaines les « vrais » modèles d’IA à but général (general purpose AI, GPAI) de modèles « de fondation » (foundation model, FM). Le premier label considère des modèles sans leurs données, explique Euractiv : le client, par exemple un hôpital, aura besoin de les entraîner avec les données qui l’intéressent, par exemple des représentations de lésions cancéreuses. Les GPAI sont donc adaptables à un large panel d’applications, pour lesquels il n’aura pas été spécifiquement entraînées à l’origine.

Le second, dont le nom vient d’une publication de l’université de Stanford, qualifie des modèles avec les données qui les ont entraînées, comme ChatGPT ou Stable Diffusion. Il s’agit cette fois de modèles entraînés sur de larges sommes de données, dont les résultats sont généralement généralistes et qui peuvent être adaptées à une série de tâches différentes.

Pour le moment, les parlementaires optent pour une approche de ces différents modèles en trois niveaux : l’un se concentre sur la répartition des responsabilités le long de la chaîne de production des modèles, un autre veille à créer un cadre à ces modèles de fondation, et un troisième se penche sur les problématiques spécifiques de contenus que posent certains outils, comme les problématiques de désinformation liées à ChatGPT.

En l’état, la première couche s’appliquerait à tous les GPAI, qu’ils soient de fondation ou non. La suivante s’appliquerait plutôt aux modèles de fondation. Et la troisième viserait plus spécifiquement les modèles génératifs qui ont récemment fait des étincelles dans l’actualité, en leur créant des responsabilités plus précises à la fois sur le type de contenu qu’ils produisent et sur leurs obligations en termes de droits d’auteur.

Quelle que soit la version définitive du texte, l’AI Act n’entrera probablement pas en vigueur avant 2025, voire plus tard, selon le temps accordé par l’Union aux entreprises pour qu’elles se mettent en conformité.

Source

Veille-cyber

Share
Published by
Veille-cyber

Recent Posts

Le règlement DORA : un tournant majeur pour la cybersécurité des institutions financières

Le règlement DORA : un tournant majeur pour la cybersécurité des institutions financières Le 17…

2 jours ago

Cybersécurité des transports urbains : 123 incidents traités par l’ANSSI en cinq ans

L’Agence nationale de la sécurité des systèmes d'information (ANSSI) a publié un rapport sur les…

2 jours ago

Directive NIS 2 : Comprendre les obligations en cybersécurité pour les entreprises européennes

Directive NIS 2 : Comprendre les nouvelles obligations en cybersécurité pour les entreprises européennes La…

4 jours ago

NIS 2 : entre retard politique et pression cybersécuritaire, les entreprises dans le flou

Alors que la directive européenne NIS 2 s’apprête à transformer en profondeur la gouvernance de…

5 jours ago

Quand l’IA devient l’alliée des hackers : le phishing entre dans une nouvelle ère

L'intelligence artificielle (IA) révolutionne le paysage de la cybersécurité, mais pas toujours dans le bon…

6 jours ago

APT36 frappe l’Inde : des cyberattaques furtives infiltrent chemins de fer et énergie

Des chercheurs en cybersécurité ont détecté une intensification des activités du groupe APT36, affilié au…

6 jours ago

This website uses cookies.