Juridique

L’outil pour retirer des données personnelles de l’entraînement des IA de Meta ne fonctionne pas

Alors que l’intelligence artificielle générative attirait tous les regards, les inquiétudes sur leur propension à outrepasser les droits d’auteurs des artistes se sont faites croissantes. 
Pour y répondre, Open AI a proposé une fonctionnalité permettant de bloquer son travail de l’entraînement du générateur d’image Dall-E.

De même, Meta a lancé en août un outil compris par beaucoup comme permettant d’éviter que certaines données personnelles soient utilisées dans l’entraînement de ses modèles d’IA générative.

Problème : il ne s’agit que d’un formulaire, qui ne garantit pas grand-chose sur le résultat.

« C’est un faux », se plaignent divers artistes auprès de Wired, « c’est un coup de communication ».

Ceux qui l’ont testé constatent en effet que le processus pour faire enlever des données ou des travaux copyrightés est aussi inefficace que frustrant : Meta demande en effet aux auteurs de prouver que leurs travaux ont été utilisés dans l’entraînement de ses technologies.

Pour les artistes, c’est très complexe, car Meta n’a publié aucun détail sur les données d’entraînement qu’elle utilise et la manière dont elle le fait, ce qui force les artistes à tester toutes sortes de requêtes jusqu’à pouvoir prouver le problème.

Wired n’a trouvé aucun d’interlocuteur qui ait réussi à faire supprimer des données des jeux d’entraînement utilisés par Meta. 
L’entreprise, elle, souligne que son formulaire n’est pas un outil de retrait, mais seulement un formulaire permettant à certaines personnes, dans certaines juridictions (comme l’Union Européenne, avec son RGPD), de s’opposer à ce que certaines données issues de tiers soient utilisées pour l’entraînement de leurs modèles.

Mots-clés : cybersécurité, sécurité informatique, protection des données, menaces cybernétiques, veille cyber, analyse de vulnérabilités, sécurité des réseaux, cyberattaques, conformité RGPD, NIS2, DORA, PCIDSS, DEVSECOPS, eSANTE, intelligence artificielle, IA en cybersécurité, apprentissage automatique, deep learning, algorithmes de sécurité, détection des anomalies, systèmes intelligents, automatisation de la sécurité, IA pour la prévention des cyberattaques.

Veille-cyber

Share
Published by
Veille-cyber

Recent Posts

Bots et IA biaisées : menaces pour la cybersécurité

Bots et IA biaisées : une menace silencieuse pour la cybersécurité des entreprises Introduction Les…

7 jours ago

Cloudflare en Panne

Cloudflare en Panne : Causes Officielles, Impacts et Risques pour les Entreprises  Le 5 décembre…

7 jours ago

Alerte sur le Malware Brickstorm : Une Menace pour les Infrastructures Critiques

Introduction La cybersécurité est aujourd’hui une priorité mondiale. Récemment, la CISA (Cybersecurity and Infrastructure Security…

7 jours ago

Cloud Computing : État de la menace et stratégies de protection

  La transformation numérique face aux nouvelles menaces Le cloud computing s’impose aujourd’hui comme un…

1 semaine ago

Attaque DDoS record : Cloudflare face au botnet Aisuru – Une analyse de l’évolution des cybermenaces

Les attaques par déni de service distribué (DDoS) continuent d'évoluer en sophistication et en ampleur,…

1 semaine ago

Poèmes Pirates : La Nouvelle Arme Contre Votre IA

Face à l'adoption croissante des technologies d'IA dans les PME, une nouvelle menace cybersécuritaire émerge…

1 semaine ago

This website uses cookies.