Juridique

La CNIL propose des lignes directrices pour un usage de l’IA respectueux des données personnelles

La CNIL publie des fiches pratiques concernant les intelligences artificielles et le respect des données personnelles à l’adresse notamment des créateurs de ces outils.

La régulation de l’intelligence artificielle est un sujet dont plusieurs institutions veulent s’emparer alors qu’une partie des entreprises du secteur considère l’IA générative comme la « next big thing » du numérique pour les années à venir.

En septembre, la présidente de la CNIL, Marie-Laure Denis, vantait l’expertise de son institution sur ces enjeux devant la commission des lois de l’Assemblée nationale. Un mois plus tard, la CNIL met en ligne des fiches pratiques pour guider l’usage de l’IA et expliquer les précautions à prendre concernant les données personnelles.

Si la publication de ces fiches s’inscrit dans une temporalité où l’IA générative est très mise en avant, elles concernent l’intelligence artificielle en général, aussi bien pour les différents systèmes reposant sur l’apprentissage (supervisé ou non, ou par renforcement) que pour tous les systèmes déterministes (programmation inductive, systèmes experts, raisonnement symbolique, moteurs d’inférence et de déduction, systèmes fondés sur les bases de connaissance). En fait, elles concernent tout système d’IA qui utilise des données comme base de connaissances, que ça soit par « apprentissage », par bases de connaissances ou par relations entre concepts (ie : les ontologies).

L’Autorité, loin de s’opposer à l’utilisation de ces outils, réaffirme « la compatibilité des recherches et développements en IA avec le RGPD, à condition de ne pas franchir certaines lignes rouges et de respecter certaines conditions ». Avec ces fiches, elle veut « accompagner » les entreprises qui veulent s’emparer de ce marché plutôt que d’être dans une position d’infliger des sanctions.

Ce choix est en partie dû au manque de moyens actuel de la CNIL pour auditer et contrôler ces acteurs, comme le laissait transparaître le discours de Marie-Laure Denis devant les députés, pour qui « il faut disposer de moyens, développer une expertise particulière et définir une méthodologie. Il nous faut un outillage permettant d’auditer les systèmes d’IA, tant a priori qu’a posteriori ».

Source

Mots-clés : cybersécurité, sécurité informatique, protection des données, menaces cybernétiques, veille cyber, analyse de vulnérabilités, sécurité des réseaux, cyberattaques, conformité RGPD, NIS2, DORA, PCIDSS, DEVSECOPS, eSANTE, intelligence artificielle, IA en cybersécurité, apprentissage automatique, deep learning, algorithmes de sécurité, détection des anomalies, systèmes intelligents, automatisation de la sécurité, IA pour la prévention des cyberattaques.

Veille-cyber

Share
Published by
Veille-cyber

Recent Posts

Bots et IA biaisées : menaces pour la cybersécurité

Bots et IA biaisées : une menace silencieuse pour la cybersécurité des entreprises Introduction Les…

1 semaine ago

Cloudflare en Panne

Cloudflare en Panne : Causes Officielles, Impacts et Risques pour les Entreprises  Le 5 décembre…

1 semaine ago

Alerte sur le Malware Brickstorm : Une Menace pour les Infrastructures Critiques

Introduction La cybersécurité est aujourd’hui une priorité mondiale. Récemment, la CISA (Cybersecurity and Infrastructure Security…

1 semaine ago

Cloud Computing : État de la menace et stratégies de protection

  La transformation numérique face aux nouvelles menaces Le cloud computing s’impose aujourd’hui comme un…

1 semaine ago

Attaque DDoS record : Cloudflare face au botnet Aisuru – Une analyse de l’évolution des cybermenaces

Les attaques par déni de service distribué (DDoS) continuent d'évoluer en sophistication et en ampleur,…

1 semaine ago

Poèmes Pirates : La Nouvelle Arme Contre Votre IA

Face à l'adoption croissante des technologies d'IA dans les PME, une nouvelle menace cybersécuritaire émerge…

1 semaine ago

This website uses cookies.