La facilité avec laquelle il est désormais possible de cloner une voix grâce aux IA entraîne un nombre croissant d’escroqueries et de tentatives d’extorsion, sans parler des risques posés en matière de deepfakes pour les artistes.
Un projet de loi transpartisan intitulé « No AI Fake Replicas and Unauthorized Duplications Act » – abrégée en No AI FRAUD Act – a récemment été déposé à la Chambre des représentants états-unienne, relève music:)ally.
Il cible « les deepfakes abusifs de l’IA, les clones de voix et les imitations humaines numériques exploitantes ». Il mettrait en place des « garde-fous » pour protéger les artistes et les personnalités publiques.
Le président-directeur général de la Recording Industry Association of America (RIAA), Mitch Glazier, l’a qualifié d’« étape significative vers la construction d’un écosystème d’IA sûr, responsable et éthique ».
VPN : un outil indispensable pour protéger vos données Le VPN, ou « Virtual Private…
Cybersécurité et PME : les risques à ne pas sous-estimer On pense souvent que seules…
Comment reconnaître une attaque de phishing et s’en protéger Le phishing ou « hameçonnage »…
Qu’est-ce que la cybersécurité ? Définition, enjeux et bonnes pratiques en 2025 La cybersécurité est…
Cybersécurité : les établissements de santé renforcent leur défense grâce aux exercices de crise Face…
L'IA : opportunité ou menace ? Les DSI de la finance s'interrogent Alors que l'intelligence…
This website uses cookies.