ai threat
Le Forum sur l’information et la démocratie publie ce 28 février un riche rapport sur les moyens d’assurer le contrôle démocratique de l’IA dans l’espace informationnel. Next y a eu accès en avant-première.
Créer un système de certification des entreprises créatrices de systèmes d’intelligence artificielle (IA) ; créer des règles spécifiques donnant aux médias et aux journalistes le droit de savoir (comment leur contenu est utilisé), le droit de se retirer (opt out) et le droit à une compensation équitable en cas d’utilisation de leurs productions pour l’entraînement de modèles ; taxer les revenus des constructeurs de systèmes d’IA pour financer la sécurisation de l’espace public numérique et l’éducation du grand public au fonctionnement de ces nouvelles technologies…
Telles sont certaines des multiples recommandations formulées par le Forum sur l’information et la démocratie dans le riche rapport de 150 pages qu’il publie ce 28 février. Un projet de plus parmi les multiples travaux en cours à travers la planète pour encadrer l’IA ? Oui et non : auprès de Next, la Policy manager du Forum Katharina Zügel pointe que la plupart des projets de lois et de traités « se penchent sur l’IA au sens large. Avec ce travail-ci, le Forum sur l’information et la Démocratie s’intéresse spécifiquement aux effets de ces technologies sur l’espace informationnel ».
Par ailleurs, le rapport ne se cantonne pas à la question de la régulation, mais propose une approche plus holistique : « on y aborde les questions de réglementations et de gouvernance, mais on y formule aussi des recommandations pour les développeurs et les déployeurs d’IA, on réfléchit à des mécanismes d’incitations pour encourager le déploiement de systèmes éthiques, on s’intéresse au rôle des citoyens, des organisations de la société civile, du monde académique… »
Mots-clés : cybersécurité, sécurité informatique, protection des données, menaces cybernétiques, veille cyber, analyse de vulnérabilités, sécurité des réseaux, cyberattaques, conformité RGPD, NIS2, DORA, PCIDSS, DEVSECOPS, eSANTE, intelligence artificielle, IA en cybersécurité, apprentissage automatique, deep learning, algorithmes de sécurité, détection des anomalies, systèmes intelligents, automatisation de la sécurité, IA pour la prévention des cyberattaques.
Bots et IA biaisées : une menace silencieuse pour la cybersécurité des entreprises Introduction Les…
Cloudflare en Panne : Causes Officielles, Impacts et Risques pour les Entreprises Le 5 décembre…
Introduction La cybersécurité est aujourd’hui une priorité mondiale. Récemment, la CISA (Cybersecurity and Infrastructure Security…
La transformation numérique face aux nouvelles menaces Le cloud computing s’impose aujourd’hui comme un…
Les attaques par déni de service distribué (DDoS) continuent d'évoluer en sophistication et en ampleur,…
Face à l'adoption croissante des technologies d'IA dans les PME, une nouvelle menace cybersécuritaire émerge…
This website uses cookies.