chat based ai
Après les textos frauduleux, les faux messages vocaux. En permettant d’imiter des voix et d’y faire passer toute une série d’émotions de manière crédible, les technologies de génération de voix basées sur des modèles algorithmiques rendent beaucoup plus simples les arnaques téléphoniques vocales, rapporte le Washington Post.
Pour les victimes, il est encore plus compliqué de s’y retrouver que face à une arnaque faite par SMS ou messageries.
Ars Technica résume par exemple l’histoire d’un couple qui a envoyé 15 000 dollars en bitcoin à un arnaqueur après que celui-ci s’est fait passer pour leur fils. La voix synthétique leur avait expliqué qu’il avait besoin de cet argent pour obtenir une aide juridique, après avoir tué un diplomate américain dans un accident de voiture.
En 2022, rien qu’aux États-Unis, ce type d’arnaques téléphoniques a représenté le nombre le plus élevé de fraudes relevées par la Federal Trade Commission, pour un total de 11 millions de dollars subtilisés.
L'IA : opportunité ou menace ? Les DSI de la finance s'interrogent Alors que l'intelligence…
Sécurité des identités : un pilier essentiel pour la conformité au règlement DORA dans le…
La transformation numérique du secteur financier n'a pas que du bon : elle augmente aussi…
Telegram envisage de quitter la France : le chiffrement de bout en bout au cœur…
L'intelligence artificielle (IA) révolutionne le paysage de la cybersécurité, mais pas toujours dans le bon…
TISAX® et ISO 27001 sont toutes deux des normes dédiées à la sécurité de l’information. Bien qu’elles aient…
This website uses cookies.