Le Forum sur l’information et la démocratie publie ce 28 février un riche rapport sur les moyens d’assurer le contrôle démocratique de l’IA dans l’espace informationnel. Next y a eu accès en avant-première.
Créer un système de certification des entreprises créatrices de systèmes d’intelligence artificielle (IA) ; créer des règles spécifiques donnant aux médias et aux journalistes le droit de savoir (comment leur contenu est utilisé), le droit de se retirer (opt out) et le droit à une compensation équitable en cas d’utilisation de leurs productions pour l’entraînement de modèles ; taxer les revenus des constructeurs de systèmes d’IA pour financer la sécurisation de l’espace public numérique et l’éducation du grand public au fonctionnement de ces nouvelles technologies…
Telles sont certaines des multiples recommandations formulées par le Forum sur l’information et la démocratie dans le riche rapport de 150 pages qu’il publie ce 28 février. Un projet de plus parmi les multiples travaux en cours à travers la planète pour encadrer l’IA ? Oui et non : auprès de Next, la Policy manager du Forum Katharina Zügel pointe que la plupart des projets de lois et de traités « se penchent sur l’IA au sens large. Avec ce travail-ci, le Forum sur l’information et la Démocratie s’intéresse spécifiquement aux effets de ces technologies sur l’espace informationnel ».
Par ailleurs, le rapport ne se cantonne pas à la question de la régulation, mais propose une approche plus holistique : « on y aborde les questions de réglementations et de gouvernance, mais on y formule aussi des recommandations pour les développeurs et les déployeurs d’IA, on réfléchit à des mécanismes d’incitations pour encourager le déploiement de systèmes éthiques, on s’intéresse au rôle des citoyens, des organisations de la société civile, du monde académique… »