La facilité avec laquelle il est désormais possible de cloner une voix grâce aux IA entraîne un nombre croissant d’escroqueries et de tentatives d’extorsion, sans parler des risques posés en matière de deepfakes pour les artistes.
Un projet de loi transpartisan intitulé « No AI Fake Replicas and Unauthorized Duplications Act » – abrégée en No AI FRAUD Act – a récemment été déposé à la Chambre des représentants états-unienne, relève music:)ally.
Il cible « les deepfakes abusifs de l’IA, les clones de voix et les imitations humaines numériques exploitantes ». Il mettrait en place des « garde-fous » pour protéger les artistes et les personnalités publiques.
Le président-directeur général de la Recording Industry Association of America (RIAA), Mitch Glazier, l’a qualifié d’« étape significative vers la construction d’un écosystème d’IA sûr, responsable et éthique ».
Le règlement DORA : un tournant majeur pour la cybersécurité des institutions financières Le 17…
L’Agence nationale de la sécurité des systèmes d'information (ANSSI) a publié un rapport sur les…
Directive NIS 2 : Comprendre les nouvelles obligations en cybersécurité pour les entreprises européennes La…
Alors que la directive européenne NIS 2 s’apprête à transformer en profondeur la gouvernance de…
L'intelligence artificielle (IA) révolutionne le paysage de la cybersécurité, mais pas toujours dans le bon…
Des chercheurs en cybersécurité ont détecté une intensification des activités du groupe APT36, affilié au…
This website uses cookies.