
Après l’annonce, en janvier dernier, de la création de son service dédié à l’intelligence artificielle, la CNIL publie son plan d’action sur le sujet. Celui-ci guidera les missions de ce nouveau service.
Si l’utilisation industrielle du deep learning et des technologies autour de l’intelligence artificielle n’est pas nouvelle, son utilisation massive et ses conséquences sont de plus en plus tangibles. ChatGPT et les outils élaborés autour des grands modèles de langage, ainsi que l’arrivée sur le marché occidental des caméras à reconnaissance faciale, poussent politiques et régulateurs à se pencher plus sérieusement sur le sujet.
Alors que l’AI Act est en discussion au Parlement européen, la CNIL, de son côté, prend depuis le début de l’année le sujet en main, notamment avec la création d’un service dédié. Elle publie aujourd’hui un plan d’action en quatre volets qui guidera l’action de ce service, « considérant que la protection des données personnelles est un enjeu majeur pour la conception et l’utilisation de ces outils ».
- Le développement de l’intelligence artificielle inquiète, des centaines de chercheurs s’engagent
- Dans les méandres de l’intelligence artificielle, entre angoisses, espoirs et recommandations
- Intelligence artificielle : les axes de normalisation de l’Afnor pour une IA de confiance
- La CNCDH s’inquiète de l’impact de l’intelligence artificielle sur les droits fondamentaux
- AI Act : un groupe d’associations demande au Parlement européen de protéger les droits fondamentaux
- AI Act : le texte interdit désormais la reconnaissance faciale, la notation sociale et la police prédictive
Si dans les quatre volets de ce plan d’action, la mission d’audit et de contrôle de l’Autorité est bien présente, ce n’est pas ce que la CNIL a voulu mettre en avant dans son plan, reléguant celle-ci au quatrième point.