chat based ai
Après les textos frauduleux, les faux messages vocaux. En permettant d’imiter des voix et d’y faire passer toute une série d’émotions de manière crédible, les technologies de génération de voix basées sur des modèles algorithmiques rendent beaucoup plus simples les arnaques téléphoniques vocales, rapporte le Washington Post.
Pour les victimes, il est encore plus compliqué de s’y retrouver que face à une arnaque faite par SMS ou messageries.
Ars Technica résume par exemple l’histoire d’un couple qui a envoyé 15 000 dollars en bitcoin à un arnaqueur après que celui-ci s’est fait passer pour leur fils. La voix synthétique leur avait expliqué qu’il avait besoin de cet argent pour obtenir une aide juridique, après avoir tué un diplomate américain dans un accident de voiture.
En 2022, rien qu’aux États-Unis, ce type d’arnaques téléphoniques a représenté le nombre le plus élevé de fraudes relevées par la Federal Trade Commission, pour un total de 11 millions de dollars subtilisés.
Le règlement DORA : un tournant majeur pour la cybersécurité des institutions financières Le 17…
L’Agence nationale de la sécurité des systèmes d'information (ANSSI) a publié un rapport sur les…
Directive NIS 2 : Comprendre les nouvelles obligations en cybersécurité pour les entreprises européennes La…
Alors que la directive européenne NIS 2 s’apprête à transformer en profondeur la gouvernance de…
L'intelligence artificielle (IA) révolutionne le paysage de la cybersécurité, mais pas toujours dans le bon…
Des chercheurs en cybersécurité ont détecté une intensification des activités du groupe APT36, affilié au…
This website uses cookies.