Juridique

La CNIL propose des lignes directrices pour un usage de l’IA respectueux des données personnelles

La CNIL publie des fiches pratiques concernant les intelligences artificielles et le respect des données personnelles à l’adresse notamment des créateurs de ces outils.

La régulation de l’intelligence artificielle est un sujet dont plusieurs institutions veulent s’emparer alors qu’une partie des entreprises du secteur considère l’IA générative comme la « next big thing » du numérique pour les années à venir.

En septembre, la présidente de la CNIL, Marie-Laure Denis, vantait l’expertise de son institution sur ces enjeux devant la commission des lois de l’Assemblée nationale. Un mois plus tard, la CNIL met en ligne des fiches pratiques pour guider l’usage de l’IA et expliquer les précautions à prendre concernant les données personnelles.

Si la publication de ces fiches s’inscrit dans une temporalité où l’IA générative est très mise en avant, elles concernent l’intelligence artificielle en général, aussi bien pour les différents systèmes reposant sur l’apprentissage (supervisé ou non, ou par renforcement) que pour tous les systèmes déterministes (programmation inductive, systèmes experts, raisonnement symbolique, moteurs d’inférence et de déduction, systèmes fondés sur les bases de connaissance). En fait, elles concernent tout système d’IA qui utilise des données comme base de connaissances, que ça soit par « apprentissage », par bases de connaissances ou par relations entre concepts (ie : les ontologies).

L’Autorité, loin de s’opposer à l’utilisation de ces outils, réaffirme « la compatibilité des recherches et développements en IA avec le RGPD, à condition de ne pas franchir certaines lignes rouges et de respecter certaines conditions ». Avec ces fiches, elle veut « accompagner » les entreprises qui veulent s’emparer de ce marché plutôt que d’être dans une position d’infliger des sanctions.

Ce choix est en partie dû au manque de moyens actuel de la CNIL pour auditer et contrôler ces acteurs, comme le laissait transparaître le discours de Marie-Laure Denis devant les députés, pour qui « il faut disposer de moyens, développer une expertise particulière et définir une méthodologie. Il nous faut un outillage permettant d’auditer les systèmes d’IA, tant a priori qu’a posteriori ».

Source

Veille-cyber

Share
Published by
Veille-cyber

Recent Posts

Le règlement DORA : un tournant majeur pour la cybersécurité des institutions financières

Le règlement DORA : un tournant majeur pour la cybersécurité des institutions financières Le 17…

2 jours ago

Cybersécurité des transports urbains : 123 incidents traités par l’ANSSI en cinq ans

L’Agence nationale de la sécurité des systèmes d'information (ANSSI) a publié un rapport sur les…

2 jours ago

Directive NIS 2 : Comprendre les obligations en cybersécurité pour les entreprises européennes

Directive NIS 2 : Comprendre les nouvelles obligations en cybersécurité pour les entreprises européennes La…

4 jours ago

NIS 2 : entre retard politique et pression cybersécuritaire, les entreprises dans le flou

Alors que la directive européenne NIS 2 s’apprête à transformer en profondeur la gouvernance de…

5 jours ago

Quand l’IA devient l’alliée des hackers : le phishing entre dans une nouvelle ère

L'intelligence artificielle (IA) révolutionne le paysage de la cybersécurité, mais pas toujours dans le bon…

6 jours ago

APT36 frappe l’Inde : des cyberattaques furtives infiltrent chemins de fer et énergie

Des chercheurs en cybersécurité ont détecté une intensification des activités du groupe APT36, affilié au…

6 jours ago

This website uses cookies.