“Allo chérie, j’ai besoin d’argent”, ne tombez pas dans le piège des voix imitées par l’IA

De plus en plus d'escrocs font appel à l'IA pour cloner la voix de vos proches ou de personnes de confiance pour vous soutirer de l'argent. En 2025, cette technique a explosé pour atteindre des proportions inquiétantes. On vous explique comment ne pas tomber dans le piège.

IA imitation voix arnaque
Crédits : Adobe Stock

Si la démocratisation de l'IA a révolutionner notre façon de faire des recherches, de travailler, de voyager, de se divertir ou de créer, l'intelligence artificielle a aussi des effets pervers. Pour cause, de plus en plus d'escrocs exploitent les différents outils d'IA à leur disposition pour arnaquer les utilisateurs.

Les exemples ne manquent malheureusement pas, certaines affaires ont d'ailleurs fait la une des journaux. On pense par exemple au cas d'Anne, une quinquagénaire française qui a perdu près de 830 000 euros dans une arnaque terrifiante. En exploitant l'IA, des photos retouchées et du deepfake, des escrocs sont parvenus à la convaincre qu'elle entretenait une relation avec Brad Pitt, légende du cinéma américain.

Il faut également évoquer les “pièges à boomers”, des arnaques qui consistent à générer des images émouvantes par IA (enfants malades, catastrophes naturelles, accidents, etc.) pour susciter l'empathie des internautes… Et les inciter à envoyer de l'argent. Une technique qui repose principalement sur le manque de connaissance de certains utilisateurs pour identifier les contenus visuels générés par l'IA.

IA imitation voix arnaque
Crédits : Adobe Stock

Les voix imitées par IA, un futur fléau

Comme vous le savez, l'IA ne cesse de s'améliorer pour proposer toujours plus de fonctionnalités, pour être toujours plus rapide, toujours plus réaliste. En avril 2024, le leader du secteur OpenAI a par exemple présenté Voice Engine, une IA capable d'imiter n'importe quelle voix. Pour cela, il lui suffit d'un échantillon de quelques secondes.

Depuis, des technologies similaires ont vu le jour et comme il fallait s'y attendre, les pirates n'ont pas tardé à se jeter dessus. En 2025, le clonage illicite de voix via l'IA a pris des proportions très inquiétantes. D'après les spécialistes en sécurité informatique de Moonlock, les escroqueries par IA de ce type ont bondi de 148 % cette année !

Arnaque IA voix

La voix au bout du fil n'est pas celle de vos proches

Concrètement, comment exploitent-ils ces voix imitées par l'IA ? Comme vous pouvez le deviner, l'idée est de se faire passer pour l'un de vos proches ou pour une personne de confiance (responsable hiérarchique, conseiller bancaire, etc.). A titre d'exemple, un pirate a utilisé cette technique pour recréer la voix du PDG d'une grande entreprise et arnaquer un employé sur WhatsApp en avril 2024.

Là où le bât blesse, c'est qu'il est relativement facile pour les pirates de se procurer des échantillons vocaux de vos proches ou de personnes de confiance : vidéos sur les réseaux sociaux, interviews, plateformes de visioconférence, interception de vos messages vocaux, appels enregistrés, etc. D'après l'Université d'Etat de Montclair (USA), même de courts extraits d'un podcast ou d'un cours en ligne peuvent suffire à produire une imitation convaincante de la voix d'une personne par IA.

Certaines arnaques vont encore plus loin, en combinant notamment le clonage de voix et les vidéos Deepfake. Comme le rapportent nos confrères de Forbes, des pirates ont réussi à se faire pour des chefs d'entreprises durant des visioconférences. Résultat, ils ont pu convaincre facilement leurs employés d'autoriser un virement de 25 millions de dollars… Vers le compte des criminels.

IA imitation voix arnaque
Crédits : Adobe Stock

Comment se protéger face à ces arnaques toujours plus intelligentes

A l'image de l'IA qui ne cesse de faire des progrès, ces techniques d'usurpation d'identité par l'IA sont devenues plus sophistiquées, plus rapides et plus difficiles à détecter. Si l'on en croit les dernières données du service de messagerie sécurisée Paubox, près de 48 % des tentatives de phishing générées par l'IA, y compris les clones vocaux et vidéos, échappent à la détection des systèmes de sécurité actuels relatifs aux e-mails et aux appels.

Ce taux de succès s'explique également par l'aspect très personnel de ce genre d'attaque. Pour cause, on a toujours tendance à vouloir aider un proche en détresse. Les criminels exploitent justement votre instinct de confiance envers des voix ou des visages familiers.

Les bons réflexes à adopter

Mais comment se prémunir contre ces attaques ? En premier lieu, faites en sorte de bloquer les appels indésirables, soit via un service de blocage ou une application dédiée comme Préfixe bloqueur, Truecaller ou Hiya. Evitez également de prendre des appels provenant de numéros inconnus et si vous décrochez, ne parlez jamais en premier.

Si la personne au bout du fil prétexte une urgence, il faut ralentir et ne pas réagir sous le coup de l'émotion. Après avoir reçu un coup de fil ou une visio suspecte d'une personne que vous connaissez, prenez le réflexe de l'appeler directement pour confirmer ou non l'urgence évoquée. Faites aussi attention aux signes distinctifs suivants :

  • les voix générées par IA ont parfois un ton monocorde et sans émotion, une diction étrange avec des pauses inhabituelles ou un bruit de fond anormal
  • les vidéos Deepfake affichent parfois des mouvements de bouche anormaux, des contacts visuels décalés ou des arrières-plan clignotants

Une autre bonne technique consiste à instaurer un mot secret au sein de votre famille à utiliser en cas d'urgence. Dans ce genre de cas, cela permettra de confirmer rapidement l'identité de la personne. Vous pouvez également opter pour une phrase de sécurité, qui n'aura à première vue aucun sens (sauf pour vous et les personnes qui la connaissent).

Source : TechRadar, Keeper Security


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers articles !