Selon une étude de McAfee, les escroqueries vocales basées sur l’usurpation d’identité via une intelligence artificielle sont de plus en plus courantes.

Le principe est simple : les malfaiteur·rice·s clonent la voix d’une personne et l’utilise pour appeler l’un·e de ses proches et lui demander de l’argent en urgence sous prétexte d’un accident, d’un vol à l’étranger, d’une arrestation ou d’un kidnapping avec demande de rançon.

La méthode employée pour le clonage de voix est simple et peu coûteuse car les gens envoient fréquemment des messages vocaux via les réseaux sociaux et/ou des mémos audio. 56% des Français·e·s interrogé·e·s partagent leur voix en ligne au moins une fois par semaine et 7% le font jusqu’à 10 fois par semaine.

D’après McAfee, 25% des répondant·e·s de par le monde affirment avoir été victimes d’une escroquerie à l’IA vocale ou connaître une personne ayant été victime de cette entourloupe. En Inde, la proportion s’élève à 47% tandis que dans l’Hexagone, un·e Français·e interrogé·e sur 10 a été confronté·e personnellement à une arnaque au clonage de voix et 15% connaissent quelqu’un qui en a été victime.

77% des victimes interrogées dans le cadre du rapport de McAfee affirment avoir été escroquées d’un montant allant de 1.000 à 15.000 euros. La somme totale des vols recensés via ce type d’imposture s’élève à 2,6 milliards de dollars, selon l’étude intitulée L’Imposteur Artificiel.

« Aujourd’hui, il est plus difficile que jamais de distinguer les vraies personnes des fausses », prévient le spécialiste en cybersécurité, dans un communiqué.

En France, 8 victimes sur 10 déclarent avoir perdu de l’argent suite à une telle arnaque.

Méthodologie 

L’étude a été menée en avril 2023 par MSI Research auprès de 7.054 personnes dans sept pays, dont la France.