Les générateurs de voix par intelligence artificielle, nouveaux vecteurs d’arnaques

chat based ai
chat based ai

Après les textos frauduleux, les faux messages vocaux. En permettant d’imiter des voix et d’y faire passer toute une série d’émotions de manière crédible, les technologies de génération de voix basées sur des modèles algorithmiques rendent beaucoup plus simples les arnaques téléphoniques vocales, rapporte le Washington Post.

Pour les victimes, il est encore plus compliqué de s’y retrouver que face à une arnaque faite par SMS ou messageries.

Ars Technica résume par exemple l’histoire d’un couple qui a envoyé 15 000 dollars en bitcoin à un arnaqueur après que celui-ci s’est fait passer pour leur fils. La voix synthétique leur avait expliqué qu’il avait besoin de cet argent pour obtenir une aide juridique, après avoir tué un diplomate américain dans un accident de voiture.

En 2022, rien qu’aux États-Unis, ce type d’arnaques téléphoniques a représenté le nombre le plus élevé de fraudes relevées par la Federal Trade Commission, pour un total de 11 millions de dollars subtilisés.

Source