Deux défis que ChatGPT pose aux régulateurs

chatgpt regulation
chatgpt regulation

Quels challenges ChatGPT crée-t-il pour les législateurs européens, qui travaillent depuis plusieurs mois à un règlement sur l’intelligence artificielle ?

Dans un article de l’Internet Policy Review, Natali Helberger, chercheuse à l’université d’Amsterdam, et Nicholas Diakopoulos, de la Northwestern University, expliquent que ChatGPT diffère au moins en deux points des modèles « traditionnels » d’intelligence artificielle à partir desquels les premiers jets de textes légaux ont été rédigés.

Les modèles génératifs sont dynamiques (ils ne sont pas construits pour un contexte spécifique) et leur design les rend utilisables à des échelles sans précédent. Cela rend quasiment impossible d’envisager les risques futurs qui découleront des applications inventées au fil du temps par les usagers.

Pour Helberger et Diakopoulos, ces deux aspects remettent en question la possibilité d’approcher les systèmes d’intelligence artificielle selon des catégories de risque (haut, moyen, sans risque), comme le fait, en substance, la directive européenne.

Plutôt que des catégories fixes, les deux chercheurs proposent notamment d’envisager la question de manière plus dynamique, en s’inspirant des logiques de surveillance des risques systémiques encadrées par le DSA (Digital Services Act).

L’article a été publié une semaine à peine après que le parlement européen a ajouté les systèmes génératifs dans les catégories à risque, en particulier quand ceux-ci produisent du contenu difficilement différentiable d’une production humaine.