Votre voix peut être clonée par l'IA et 1 Américain sur 4 est ciblé – un expert explique comment les arrêter
0
Suivez-nous
Au cours des années 2000, les escroqueries par courrier électronique sont devenues monnaie courante : la promesse de recevoir d’énormes sommes d’argent uniquement si vous payiez les frais de « transfert » s’est répandue et a trompé de nombreuses victimes innocentes.
Aujourd’hui, nous sommes entrés dans une nouvelle ère d’escroquerie où les escroqueries sont devenues plus sophistiquées, poussées par l’essor de l’IA et du clonage vocal. Une étude récente menée par McAfee a souligné à quel point les escroqueries par clonage vocal sont devenues dangereuses. Selon la société de cybersécurité, 1 adulte sur 4 a désormais été victime d’une arnaque au clonage vocal d’IA ou connaît quelqu’un qui l’a fait. Les pertes financières liées à ces escroqueries sont également assez alarmantes. Par exemple, le Deloitte Center for Financial Services prévoit que les pertes liées à la fraude causées par l’IA générative devraient passer de 12,3 milliards de dollars en 2023 à 40 milliards de dollars d’ici 2027.
James Grifo, un expert en sécurité audio qui possède et supervise Audio Visual Nation en tant que PDG, connaît bien les signes évidents – et moins évidents – à rechercher lorsque vous soupçonnez que vous êtes ciblé par une arnaque au clonage vocal de l'IA et pourquoi ce type d'arnaque est si dangereux.
L'article continue ci-dessous
Voici ce qu'il avait à dire sur la manière de vous protéger, vous et vos proches, de cette menace croissante.
Drapeaux rouges et mesures de sécurité

Grifo n'hésite pas à mentionner que les escrocs d'aujourd'hui n'ont besoin que de quelques secondes enregistrées de la voix de n'importe qui pour réaliser un clone vocal convaincant de l'IA.
« Ce qui rend le clonage vocal particulièrement prédateur, c’est à quel point la technologie est devenue accessible », a-t-il souligné. « Les fraudeurs peuvent désormais créer un clone convaincant de votre voix en utilisant seulement 3 secondes d'audio extrait d'une vidéo ou d'un message vocal sur un réseau social. »
Il existe un certain nombre de signes révélateurs pour lesquels quelqu'un devrait garder l'oreille ouverte chaque fois que son instinct lui dit qu'il est actuellement ciblé par l'un d'entre eux. Les plus importants incluent :
- Appels aléatoires provenant de numéros inconnus ou suspects
- Un sentiment d'urgence
- Un rythme vocal étrange et des pauses peu naturelles de la part de la personne qui parle
- Une voix plate et sans émotion qui semble « non humaine »
Grifo a proposé une liste de tactiques à utiliser pour vous protéger, vous et votre famille, des escroqueries liées au clonage vocal de l'IA :
- Établir un mot de passe verbal avec les proches: « C'est l'une des défenses les plus efficaces. Un escroc ne connaîtra pas le mot de passe de votre famille, aussi convaincante que soit la voix. »
- Remettez toujours en question la source: « Demandez-vous : mon fils m'appellerait-il vraiment pour 5 000 $ sans aucun avertissement préalable ? Cette situation correspond-elle à ce que je sais de la vie de cette personne ? »
- Utilisez la « règle de rappel »: « N'envoyez jamais d'argent et ne partagez jamais d'informations sensibles sur la base d'un seul appel téléphonique. Prenez le temps de vérifier, même si l'appelant vous fait pression pour que vous agissez immédiatement. »
- Posez des questions personnelles qu'eux seuls sauraient: « Qu'avons-nous mangé hier soir ? » ou « Comment s'appelait le chien de votre enfance ? L'IA peut cloner une voix, mais elle ne peut pas cloner des souvenirs. Un escroc ne sera pas en mesure de répondre à des questions personnelles qui nécessitent une connaissance intime de votre relation. «
- Réfléchissez avant d’envoyer de l’argent ou de partager des données personnelles: « Aucune urgence légitime ne vous oblige à transférer de l'argent ou à partager des mots de passe en quelques minutes. Si quelqu'un a vraiment des problèmes, il comprendra que vous devez d'abord vérifier. »
Utiliser ces tactiques tout en faisant preuve d’un peu de bon sens contribue grandement à éviter une énorme perte financière et une fuite d’informations sensibles.
Conclusion
Il est déjà assez difficile d'essayer de faire la différence entre les visuels du monde réel et ceux générés par l'IA. Il est encore plus difficile de discerner si la personne qui vous parle au téléphone est quelqu'un que vous connaissez réellement ou si l'IA est utilisée pour imiter cet individu familier.
Grâce à ces conseils utiles et à votre intuition de confiance, vous disposerez de toute l'aide possible pour éviter les escroqueries liées au clonage vocal de l'IA.
« Ce qui rend ces escroqueries si dangereuses, c'est la combinaison de manipulation émotionnelle et de sophistication technologique », a poursuivi Grifo. « Les fraudeurs exploitent notre instinct naturel pour aider nos proches en détresse, et ils le font avec des outils qui ne coûtent presque rien et ne nécessitent qu'un minimum de compétences techniques.
Et voici le dernier conseil de Grifo sur le sujet : « Mon conseil est simple : faites du scepticisme votre réponse par défaut aux appels inattendus demandant de l'argent ou des informations sensibles, même si la voix ressemble exactement à celle de quelqu'un que vous connaissez. Et rappelez-vous, les véritables urgences peuvent attendre les deux minutes nécessaires pour vérifier à qui vous parlez réellement. Cette brève pause pourrait vous faire économiser des milliers de dollars et un immense traumatisme émotionnel. «




