La CNIL propose des lignes directrices pour un usage de l’IA respectueux des données personnelles

CNIL
CNIL

La CNIL publie des fiches pratiques concernant les intelligences artificielles et le respect des données personnelles à l’adresse notamment des créateurs de ces outils.

La régulation de l’intelligence artificielle est un sujet dont plusieurs institutions veulent s’emparer alors qu’une partie des entreprises du secteur considère l’IA générative comme la « next big thing » du numérique pour les années à venir.

En septembre, la présidente de la CNIL, Marie-Laure Denis, vantait l’expertise de son institution sur ces enjeux devant la commission des lois de l’Assemblée nationale. Un mois plus tard, la CNIL met en ligne des fiches pratiques pour guider l’usage de l’IA et expliquer les précautions à prendre concernant les données personnelles.

Si la publication de ces fiches s’inscrit dans une temporalité où l’IA générative est très mise en avant, elles concernent l’intelligence artificielle en général, aussi bien pour les différents systèmes reposant sur l’apprentissage (supervisé ou non, ou par renforcement) que pour tous les systèmes déterministes (programmation inductive, systèmes experts, raisonnement symbolique, moteurs d’inférence et de déduction, systèmes fondés sur les bases de connaissance). En fait, elles concernent tout système d’IA qui utilise des données comme base de connaissances, que ça soit par « apprentissage », par bases de connaissances ou par relations entre concepts (ie : les ontologies).

L’Autorité, loin de s’opposer à l’utilisation de ces outils, réaffirme « la compatibilité des recherches et développements en IA avec le RGPD, à condition de ne pas franchir certaines lignes rouges et de respecter certaines conditions ». Avec ces fiches, elle veut « accompagner » les entreprises qui veulent s’emparer de ce marché plutôt que d’être dans une position d’infliger des sanctions.

Ce choix est en partie dû au manque de moyens actuel de la CNIL pour auditer et contrôler ces acteurs, comme le laissait transparaître le discours de Marie-Laure Denis devant les députés, pour qui « il faut disposer de moyens, développer une expertise particulière et définir une méthodologie. Il nous faut un outillage permettant d’auditer les systèmes d’IA, tant a priori qu’a posteriori ».

Source