La police prévient : « Les arnaqueurs utilisent des deepfake vocaux de proches »
En Grande-Bretagne, selon un sondage, 28% des personnes interrogées affirment avoir déjà été victimes d’un deepfake vocal. La police fédérale explique que « les criminels sont désormais capables de cloner une voix à partir d’un extrait sonore de 3 secondes ».
Un appel de détresse d’un proche, demandant de transférer rapidement de l’argent sur un compte pour, par exemple, acheter un billet d’avion de retour à la suite d’un problème à l’étranger ou même pour régler ses courses, cela peut arriver. Toutefois, il ne s’agit pas de la personne que vous connaissez, mais d’un escroc qui a cloné sa voix à l’aide de l’IA. Ce phénomène est qualifié de deepfake vocal. Bien que cette technique ne soit pas nouvelle, la police fédérale alerte sur sa recrudescence.
Sur son site internet, la police fédérale indique : « Aidés par les logiciels d’intelligence artificielle, les criminels sont désormais capables de cloner une voix à partir d’un extrait sonore de 3 secondes. » Selon un sondage, « en Grande-Bretagne, 28% des personnes interrogées affirment avoir déjà été victimes d’un deepfake vocal », ce qui représente plus d’une personne sur quatre.
### Reproduire la voix de notre enfant, en quelques secondes
Nous avons réalisé l’expérience. En quelques secondes, la voix d’un de nos proches a été reproduite. Voici le message réellement laissé par la fille de notre journaliste :
Nous avons utilisé un logiciel d’IA pour cloner la voix, et voici le message que nous avons pu générer.
Les ressemblances entre les deux voix sont frappantes. Cela explique pourquoi autant de personnes se laissent prendre.
### Les conseils de la police
Pour éviter de se faire piéger, la police conseille : « Il existe néanmoins certaines caractéristiques vocales typiques de l’intelligence artificielle permettant de reconnaître la fraude, comme une intonation peu variée et saccadée, des pauses brutales au milieu d’une phrase ou encore des bruits de respiration irréguliers. Tendez donc bien l’oreille ! »
Elle ajoute : « Si le son est associé à une image, vérifiez la cohérence entre les deux, notamment le mouvement des lèvres. Faites attention à des détails comme les doigts de la personne (souvent, l’IA en oublie ou en rajoute) ou aux éléments du décor parfois étranges. Si vous recevez un appel urgent vous demandant de l’argent, raccrochez et composez le numéro habituel de la personne pour confirmer qu’il s’agit bien d’elle. Et comme toujours, ne soyez pas trop pressé ! La peur, le stress et la colère poussent à agir trop vite, sans réflexion, et les escrocs le savent. »
Parmi les autres recommandations, il est également conseillé de créer une « phrase de sécurité » que seul vous connaîtrez, afin de vous assurer que c’est bien votre proche qui est au téléphone et qui a besoin d’aide.
Il est important de rappeler qu légalement, la voix ou l’image de quelqu’un ne peut pas être confiée à un logiciel d’intelligence artificielle sans son accord. Il s’agit d’une donnée personnelle régie par le RGPD. Son utilisation sans consentement est donc passible de sanctions.

