CNIL
La CNIL publie des fiches pratiques concernant les intelligences artificielles et le respect des données personnelles à l’adresse notamment des créateurs de ces outils.
La régulation de l’intelligence artificielle est un sujet dont plusieurs institutions veulent s’emparer alors qu’une partie des entreprises du secteur considère l’IA générative comme la « next big thing » du numérique pour les années à venir.
En septembre, la présidente de la CNIL, Marie-Laure Denis, vantait l’expertise de son institution sur ces enjeux devant la commission des lois de l’Assemblée nationale. Un mois plus tard, la CNIL met en ligne des fiches pratiques pour guider l’usage de l’IA et expliquer les précautions à prendre concernant les données personnelles.
Si la publication de ces fiches s’inscrit dans une temporalité où l’IA générative est très mise en avant, elles concernent l’intelligence artificielle en général, aussi bien pour les différents systèmes reposant sur l’apprentissage (supervisé ou non, ou par renforcement) que pour tous les systèmes déterministes (programmation inductive, systèmes experts, raisonnement symbolique, moteurs d’inférence et de déduction, systèmes fondés sur les bases de connaissance). En fait, elles concernent tout système d’IA qui utilise des données comme base de connaissances, que ça soit par « apprentissage », par bases de connaissances ou par relations entre concepts (ie : les ontologies).
L’Autorité, loin de s’opposer à l’utilisation de ces outils, réaffirme « la compatibilité des recherches et développements en IA avec le RGPD, à condition de ne pas franchir certaines lignes rouges et de respecter certaines conditions ». Avec ces fiches, elle veut « accompagner » les entreprises qui veulent s’emparer de ce marché plutôt que d’être dans une position d’infliger des sanctions.
Ce choix est en partie dû au manque de moyens actuel de la CNIL pour auditer et contrôler ces acteurs, comme le laissait transparaître le discours de Marie-Laure Denis devant les députés, pour qui « il faut disposer de moyens, développer une expertise particulière et définir une méthodologie. Il nous faut un outillage permettant d’auditer les systèmes d’IA, tant a priori qu’a posteriori ».
Mots-clés : cybersécurité, sécurité informatique, protection des données, menaces cybernétiques, veille cyber, analyse de vulnérabilités, sécurité des réseaux, cyberattaques, conformité RGPD, NIS2, DORA, PCIDSS, DEVSECOPS, eSANTE, intelligence artificielle, IA en cybersécurité, apprentissage automatique, deep learning, algorithmes de sécurité, détection des anomalies, systèmes intelligents, automatisation de la sécurité, IA pour la prévention des cyberattaques.
Bots et IA biaisées : une menace silencieuse pour la cybersécurité des entreprises Introduction Les…
Cloudflare en Panne : Causes Officielles, Impacts et Risques pour les Entreprises Le 5 décembre…
Introduction La cybersécurité est aujourd’hui une priorité mondiale. Récemment, la CISA (Cybersecurity and Infrastructure Security…
La transformation numérique face aux nouvelles menaces Le cloud computing s’impose aujourd’hui comme un…
Les attaques par déni de service distribué (DDoS) continuent d'évoluer en sophistication et en ampleur,…
Face à l'adoption croissante des technologies d'IA dans les PME, une nouvelle menace cybersécuritaire émerge…
This website uses cookies.