G7 IA
Lundi 30 octobre, les leaders du G7 ont présenté leur accord autour de principes internationaux pour guider le développement de l’IA ainsi qu’un « Code de conduite » « volontaire » pour les entreprises du secteur. Sans être un organe législatif, le G7 montre qu’il veut compter dans la gouvernance de l’IA.
Après la vague ChatGPT et les différentes versions d’ « IA génératives » utilisées par les entreprises du numérique pour booster leurs outils et cours de bourse, une nouvelle vague se met en place, plus politique, pour mettre en œuvre une gouvernance autour de ces outils.
Ce lundi, les ministres de l’Économie des pays du G7 (États-Unis, Canada, France, Allemagne, Italie, Japon et le Royaume-Uni) ont publié un « code de bonne conduite » [PDF] à destination des entreprises qui développent des systèmes d’intelligence artificielle dits « avancés », de fait, ce que certains appellent les modèles de fondation.
Ce texte est issu du « processus d’Hiroshima » mis en place lors de la réunion du G7 en mai 2023 au Japon. Il marque la volonté de prendre en main rapidement la gouvernance mondiale de cette technologie. En effet, si l’Europe et les États-Unis sont en train de mettre en place leurs propres règlementations, à l’échelle du globe, le G7 se met en avant de façon inhabituelle concernant la réglementation des technologies, alors que l’ONU vient seulement de lancer son organe consultatif.
Introduction La cybersécurité est devenue une priorité stratégique pour toutes les entreprises, grandes ou petites.…
Cybersécurité : les établissements de santé renforcent leur défense grâce aux exercices de crise Face…
La transformation numérique du secteur financier n'a pas que du bon : elle augmente aussi…
L'IA : opportunité ou menace ? Les DSI de la finance s'interrogent Alors que l'intelligence…
Telegram envisage de quitter la France : le chiffrement de bout en bout au cœur…
Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le…
This website uses cookies.