Deepfakes pornographiques : quand l’intelligence artificielle sert à humilier

deepfake porno
deepfake porno

Avec les progrès de l’IA, notamment générative, il n’a jamais été aussi simple de créer des deepfakes, ces manipulations d’images qui peuvent impliquer des personnes réelles. Certains s’en servent pour créer des montages pornographiques. Premières victimes de cette dérive : les femmes.

« Ah, je viens de tomber sur un truc horrible ! » Le 6 août, la youtubeuse Lena Situations publie l’un de ses habituels vlogs d’août (chaque année, elle publie une vidéo par jour pendant le mois d’été). À la huitième minute de sa vidéo, on la suit, en route pour aller rencontrer une copine, quand elle tombe sur un deepfake pornographique. À Marcus, l’ami qui l’accompagne, elle explique : « C’est des gens qui font des montages, ils mettent ta tête sur le corps d’une femme nue. (…) Et y a tellement de meufs sur internet qui vivent ça. C’est horrible. C’est dégueulasse. »

Si les prouesses d’un ChatGPT et des concurrents ont de quoi épater, si les progrès de l’intelligence artificielle tiennent largement en haleine, ces progrès technologiques apportent aussi leur lot d’usages négatifs. En matière de génération d’images, depuis 2018 au moins, des alertes se multiplient sur la question des deepfakes, aussi nommés hypertrucages, notamment à caractère pornographique.

L’arbre qui cache la forêt : les deepfakes de désinformation

Comme elle le dit elle-même, Lena Situations est loin d’être la seule visée par ce type d’agression. Vingt adolescentes espagnoles ont ainsi reçu, peu après la rentrée des classes, des deepfakes à caractère sexuel d’elles-mêmes.

Mais le phénomène n’a rien de neuf : dès 2018, un faux discours de Barack Obama avait atteint une telle viralité que le monde médiatique s’inquiétaient, déjà, des risques en matière de désinformation. Dans les années qui ont suivi, ce sont de fausses vidéos de Tom Cruise ou Kim Kardashian qui ont amusé les internautes.

Source