Juridique

La CNIL propose des lignes directrices pour un usage de l’IA respectueux des données personnelles

La CNIL publie des fiches pratiques concernant les intelligences artificielles et le respect des données personnelles à l’adresse notamment des créateurs de ces outils.

La régulation de l’intelligence artificielle est un sujet dont plusieurs institutions veulent s’emparer alors qu’une partie des entreprises du secteur considère l’IA générative comme la « next big thing » du numérique pour les années à venir.

En septembre, la présidente de la CNIL, Marie-Laure Denis, vantait l’expertise de son institution sur ces enjeux devant la commission des lois de l’Assemblée nationale. Un mois plus tard, la CNIL met en ligne des fiches pratiques pour guider l’usage de l’IA et expliquer les précautions à prendre concernant les données personnelles.

Si la publication de ces fiches s’inscrit dans une temporalité où l’IA générative est très mise en avant, elles concernent l’intelligence artificielle en général, aussi bien pour les différents systèmes reposant sur l’apprentissage (supervisé ou non, ou par renforcement) que pour tous les systèmes déterministes (programmation inductive, systèmes experts, raisonnement symbolique, moteurs d’inférence et de déduction, systèmes fondés sur les bases de connaissance). En fait, elles concernent tout système d’IA qui utilise des données comme base de connaissances, que ça soit par « apprentissage », par bases de connaissances ou par relations entre concepts (ie : les ontologies).

L’Autorité, loin de s’opposer à l’utilisation de ces outils, réaffirme « la compatibilité des recherches et développements en IA avec le RGPD, à condition de ne pas franchir certaines lignes rouges et de respecter certaines conditions ». Avec ces fiches, elle veut « accompagner » les entreprises qui veulent s’emparer de ce marché plutôt que d’être dans une position d’infliger des sanctions.

Ce choix est en partie dû au manque de moyens actuel de la CNIL pour auditer et contrôler ces acteurs, comme le laissait transparaître le discours de Marie-Laure Denis devant les députés, pour qui « il faut disposer de moyens, développer une expertise particulière et définir une méthodologie. Il nous faut un outillage permettant d’auditer les systèmes d’IA, tant a priori qu’a posteriori ».

Source

Veille-cyber

Share
Published by
Veille-cyber

Recent Posts

Les 7 menaces cyber les plus fréquentes en entreprise

Introduction La cybersécurité est devenue une priorité stratégique pour toutes les entreprises, grandes ou petites.…

21 heures ago

Cybersécurité : Vers une montée en compétence des établissements de santé grâce aux exercices de crise

Cybersécurité : les établissements de santé renforcent leur défense grâce aux exercices de crise Face…

1 semaine ago

Règlement DORA : implications contractuelles pour les entités financières et les prestataires informatiques

La transformation numérique du secteur financier n'a pas que du bon : elle augmente aussi…

1 semaine ago

L’IA : opportunité ou menace ? Les DSI de la finance s’interrogent

L'IA : opportunité ou menace ? Les DSI de la finance s'interrogent Alors que l'intelligence…

2 semaines ago

Telegram menace de quitter la France : le chiffrement de bout en bout en ligne de mire

Telegram envisage de quitter la France : le chiffrement de bout en bout au cœur…

2 semaines ago

Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le secteur financier

Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le…

2 semaines ago

This website uses cookies.