Quelle est la meilleure façon de lutter contre l’IA malveillante ? Avec plus d'IA. La société de sécurité informatique McAfee vient d'annoncer un détecteur de faux sons profonds alimenté par l'IA appelé Project Mockingbird. Son objectif est de défendre les utilisateurs contre les cybercriminels qui utilisent de l'audio fabriqué par l'IA dans des vidéos pour arnaquer et voler de l'argent ou contre la manipulation par un faux enregistrement d'une personne publique.

Le projet Mockingbird de McAfee, dévoilé au CES 2024, utilise une combinaison de modèles de détection contextuels, comportementaux et catégoriels basés sur l'IA pour identifier si l'audio d'une vidéo est susceptible d'être généré par l'IA. Il écoute une vidéo et signale les parties qu’il considère comme étant des contrefaçons.

Alors que les outils d’IA générative nous aident à créer des applications ou à organiser nos vies, les cybercriminels les utilisent pour créer des escroqueries très convaincantes. Beaucoup d’entre nous ont appris à ignorer les e-mails ou les pop-ups qui semblent trop beaux pour être vrais. Mais que se passe-t-il s’il s’agit d’un appel d’un proche dans le besoin ? L’année dernière, une mère a été sous le choc lorsque des escrocs l’ont appelée en utilisant la voix clonée de sa fille de 15 ans.

Au téléphone, elle pouvait entendre sa « fille » implorer de l'aide alors qu'un inconnu menaçait de la tuer à moins qu'il ne reçoive 1 million de dollars. Heureusement, sa vraie fille allait bien et aucun argent n’a été perdu.

«C'était complètement sa voix. C'était son inflexion. C'était comme ça qu'elle aurait pleuré », a-t-elle déclaré. « Je n’ai jamais douté une seule seconde que c’était elle. C'est la partie bizarre qui m'a vraiment touché », a déclaré la mère.

De tels appels pénibles sont exactement le genre de chose contre laquelle le Projet Mockingbird est censé se prémunir. Il fonctionne également contre ce que l'on appelle les « cheapfakes », qui peuvent impliquer la manipulation de vidéos authentiques, comme des journaux télévisés ou des interviews de célébrités, en y ajoutant de faux sons pour modifier les mots qui sortent de la bouche de quelqu'un ; cela donne l’impression qu’une personnalité fiable ou connue a dit quelque chose de différent de ce qui avait été dit initialement.

Alors que 2024 s’annonce comme une année importante pour les élections dans le monde entier, y compris la prochaine élection présidentielle américaine, le projet Mockingbird a du pain sur la planche.

McAfee affirme que sa technologie de détection d'IA fonctionne avec une précision de 90 %.

« Ainsi, tout comme les prévisions météorologiques indiquant 70 % de chances de pluie vous aident à planifier votre journée, notre technologie vous fournit des informations vous permettant de prendre des décisions éclairées quant à savoir si le contenu est ce qu'il semble être », a déclaré Steve Grobman, directeur technique de McAfee, dans un communiqué. .

La technologie aidera les utilisateurs à savoir instantanément si une vidéo d'une célébrité proposant un accord ou d'un candidat à la présidentielle est réelle ou générée par l'IA à des fins malveillantes.

McAfee organise les premières démos publiques du projet Mockingbird au CES de Las Vegas. La société a déclaré que le nom de son nouveau produit était inspiré des oiseaux moqueurs, un groupe d'oiseaux connus pour imiter (ou se « moquer ») les chants d'autres oiseaux.