avec les avancées continues de l’intelligence artificielle (IA), les deepfakes se répandent à une vitesse alarmante. Ces créations posent des défis majeurs quant à l’authenticité des contenus et à la fiabilité de l’information. Face à ce défi, la blockchain émerge en tant que solution potentielle.
Lors de sa conférence « Ignite », le 15 novembre 2023, Microsoft a présenté Azure AI Speech, un outil permettant de créer des clones vocaux dans plus de 40 langues. Bien que prometteuse, cette technologie souligne également la facilité croissante de générer des deepfakes. Fusion de « deep learning » et « fake », ils désignent des vidéos ou des enregistrements audio trompeurs créés par IA. Ils peuvent être si convaincants qu’ils semblent authentiques, posant des défis éthiques et sécuritaires considérables.
Le Forum Économique Mondial note une augmentation de 900% des deepfakes en ligne, entre 2022 et 2023, soulignant l’intérêt et l’impact croissants de cette technologie. Leur création, désormais accessible avec une expertise technique minimale, rend cette pratique largement répandue. Les deepfakes servent à des fins variées. Dans le divertissement, ils ont permis de rajeunir Harrison Ford dans le dernier Indiana Jones. En cybercriminalité, ils sont utilisés pour des activités malveillantes comme le chantage ou le vol d’identité. Par exemple, un logiciel de mimétisme vocal a permis le vol de 240 000 dollars, démontrant l’usage criminel des deepfakes.
Introduction La cybersécurité est devenue une priorité stratégique pour toutes les entreprises, grandes ou petites.…
Cybersécurité : les établissements de santé renforcent leur défense grâce aux exercices de crise Face…
La transformation numérique du secteur financier n'a pas que du bon : elle augmente aussi…
L'IA : opportunité ou menace ? Les DSI de la finance s'interrogent Alors que l'intelligence…
Telegram envisage de quitter la France : le chiffrement de bout en bout au cœur…
Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le…
This website uses cookies.