Le G7 affiche 11 principes pour les organisations développant des IA

G7 IA
G7 IA

Lundi 30 octobre, les leaders du G7 ont présenté leur accord autour de principes internationaux pour guider le développement de l’IA ainsi qu’un « Code de conduite » « volontaire » pour les entreprises du secteur. Sans être un organe législatif, le G7 montre qu’il veut compter dans la gouvernance de l’IA.

Après la vague ChatGPT et les différentes versions d’ « IA génératives » utilisées par les entreprises du numérique pour booster leurs outils et cours de bourse, une nouvelle vague se met en place, plus politique, pour mettre en œuvre une gouvernance autour de ces outils.

Ce lundi, les ministres de l’Économie des pays du G7 (États-Unis, Canada, France, Allemagne, Italie, Japon et le Royaume-Uni) ont publié un « code de bonne conduite » [PDF] à destination des entreprises qui développent des systèmes d’intelligence artificielle dits « avancés », de fait, ce que certains appellent les modèles de fondation.

Ce texte est issu du « processus d’Hiroshima » mis en place lors de la réunion du G7 en mai 2023 au Japon. Il marque la volonté de prendre en main rapidement la gouvernance mondiale de cette technologie. En effet, si l’Europe et les États-Unis sont en train de mettre en place leurs propres règlementations, à l’échelle du globe, le G7 se met en avant de façon inhabituelle concernant la réglementation des technologies, alors que l’ONU vient seulement de lancer son organe consultatif.