L’outil pour retirer des données personnelles de l’entraînement des IA de Meta ne fonctionne pas

employees ia
employees ia

Alors que l’intelligence artificielle générative attirait tous les regards, les inquiétudes sur leur propension à outrepasser les droits d’auteurs des artistes se sont faites croissantes. 
Pour y répondre, Open AI a proposé une fonctionnalité permettant de bloquer son travail de l’entraînement du générateur d’image Dall-E.

De même, Meta a lancé en août un outil compris par beaucoup comme permettant d’éviter que certaines données personnelles soient utilisées dans l’entraînement de ses modèles d’IA générative.

Problème : il ne s’agit que d’un formulaire, qui ne garantit pas grand-chose sur le résultat.

« C’est un faux », se plaignent divers artistes auprès de Wired, « c’est un coup de communication ».

Ceux qui l’ont testé constatent en effet que le processus pour faire enlever des données ou des travaux copyrightés est aussi inefficace que frustrant : Meta demande en effet aux auteurs de prouver que leurs travaux ont été utilisés dans l’entraînement de ses technologies.

Pour les artistes, c’est très complexe, car Meta n’a publié aucun détail sur les données d’entraînement qu’elle utilise et la manière dont elle le fait, ce qui force les artistes à tester toutes sortes de requêtes jusqu’à pouvoir prouver le problème.

Wired n’a trouvé aucun d’interlocuteur qui ait réussi à faire supprimer des données des jeux d’entraînement utilisés par Meta. 
L’entreprise, elle, souligne que son formulaire n’est pas un outil de retrait, mais seulement un formulaire permettant à certaines personnes, dans certaines juridictions (comme l’Union Européenne, avec son RGPD), de s’opposer à ce que certaines données issues de tiers soient utilisées pour l’entraînement de leurs modèles.