À Dubaï, des criminels utilisent le clonage de voix par IA pour cambrioler une banque

Une banque à Dubaï, aux Émirats arabes unis, a été cambriolée par des escrocs qui ont utilisé le clonage de voix par intelligence artificielle pour détourner 35 millions de dollars. Des documents judiciaires découverts par Forbes ont révélé que les fraudeurs ont reproduit la voix d’un dirigeant d’une grande entreprise pour tromper le directeur de l’institution financière et transférer le montant en sa possession.

Des fraudeurs ont reproduit la voix d’un dirigeant doté de capacités d’intelligence artificielle pour cambrioler une banque aux Émirats arabes unis. Image : Chingyunsong – Shutterstock

Selon le magazine, le dirigeant présumé aurait déclaré que son entreprise était sur le point de faire une acquisition et avait besoin d’argent pour cela. Le directeur de la banque de Dubaï a reconnu la voix du dirigeant car il avait déjà travaillé avec lui auparavant. Puis, croyant que tout était légitime, il a autorisé le transfert – directement sur les comptes des criminels.

En plus de l’usurpation de voix, un avocat a été engagé pour coordonner la procédure et le directeur de la banque a suivi les e-mails entre le dirigeant et l’avocat, détaillant le montant d’argent à transférer et sur quel compte.

Peu de détails au-delà de cela figuraient dans les documents d’enquête, et il n’y a aucun des noms des victimes. Le ministère public de Dubaï mène l’enquête.

Lire la suite:

Cela s’est produit l’année dernière, mais jusqu’à présent, l’argent n’a pas été entièrement récupéré. Les Émirats arabes unis ont demandé l’aide d’enquêteurs américains pour retracer environ 400 000 dollars qui sont allés sur des comptes bancaires américains.

Une action criminelle à Dubaï a envoyé de l’argent dans plusieurs pays

Les enquêteurs de Dubaï pensent que l’opération a impliqué au moins 17 personnes utilisant du “deepfake” et envoyant de l’argent à des banques du monde entier.

Bien que surprenant, il s’agit du deuxième cas connu de criminels utilisant une fausse voix pour tenter de cambrioler une banque. En 2022, des escrocs ont utilisé l’IA pour reproduire la voix d’un dirigeant et voler 243 000 $, selon le Wall Street Journal.

Il est possible qu’à mesure que la technologie derrière les deepfakes devienne de plus en plus raffinée, de nombreuses autres tentatives de fraude utilisant la fonctionnalité apparaissent.

Gaston Alexandre

En tant que travailleur indépendant, j’ai décidé de me lancer dans la rédaction d’articles basée sur le buzz international. Je traite ainsi différents sujets, et particulièrement ceux qui ont suscité un énorme engouement dans la société mondiale. J’écris ainsi des articles concernant les thématiques à fort caractère, c’est-à-dire qui créent un véritable impact émotionnel chez le lecteur. Le nombre d’articles que j’écris est variable au quotidien. L’objectif étant de fournir le maximum d’informations pertinentes du jour, vous pouvez alors découvrir de nombreuses publications d’une douzaine de lignes par article.
Bouton retour en haut de la page