Deepfake Audio créés par les nouvelles IA

0
102

Analyse de Shawn Surber, Senior Director, Technical Account Management chez Tanium à propos des deepfakes audio créés par les dernières générations d’Intelligences Artificielles.

“Les deepfakes audio peuvent être très convaincants et s’améliorent de jour en jour. Une étude récente de l’University College London au Royaume-Uni a dévoilé des chiffres surprenants sur l’efficacité de la technologie des deepfakes audio. Selon cette étude, même des auditeurs capables de détecter ces impostures ont été dupés dans 25 % des cas. À mesure que la technologie de l’IA progresse, ce chiffre est susceptible d’augmenter, ce qui accroît les risques potentiels associés aux imitations de type “deepfake”. Ce qui rend les contrefaçons audio particulièrement dangereuses, c’est leur capacité à jouer sur les émotions humaines. La voix à l’autre bout du fil peut être une contrefaçon bien conçue, destinée à exploiter les sentiments de compassion, de peur ou d’urgence de la victime.

Imaginez que vous receviez un appel téléphonique tard dans la nuit d’une personne prétendant être un membre de votre famille, implorant de l’aide en urgence. Si l’on ajoute à cela la distorsion naturelle des lignes téléphoniques, qui masque encore davantage les imperfections de l’imitation, l’impression d’authenticité peut être impressionnante. La situation hypothétique d’un “petit-fils” appelant tard dans la nuit pour demander de l’argent pour une caution et priant son père de garder le secret n’est pas une simple fiction. C’est arrivé à l’un de mes amis et de nombreux cas d’escroqueries utilisant précisément ces tactiques ont été signalés, ciblant les personnes âgées ou celles qui peuvent être plus sensibles aux appels émotionnels. Les appels surviennent souvent à des moments où les défenses de la victime sont abaissées, créant un sentiment d’urgence qui laisse peu de place à l’esprit critique. Ce cocktail de réalisme et de manipulation émotionnelle peut avoir des conséquences dévastatrices.”

“Nous pouvons nous attendre à une amélioration continue des deepfake audio dans un avenir très proche, car la technologie s’améliore et les gens continuent à publier des contenus accessibles au public sur les médias sociaux, y compris leurs propres voix dans des situations normales et stressantes. La détection d’un deepfake peut être difficile et exige de l’auditeur qu’il soit calme et qu’il fasse confiance à son instinct. Selon l’étude universitaire, les anglophones détectent le plus souvent les deepfakes en raison d’une respiration anormale, tandis que les personnes parlant le Mandarin détectent des anomalies dans la fluidité, le rythme et la cadence. Ainsi, même si les clés pour reconnaître un deepfake audio peuvent varier en fonction de la langue ou de la culture, si vous pensez être la cible d’un deepfake, la clé est de faire confiance à votre instinct. Si vous avez l’impression que quelque chose ne va pas, c’est probablement le cas. Posez des questions sans rapport avec le sujet, modifiez la nature et la cadence de votre discours et dites même quelque chose que vous ne diriez pas normalement à la personne qui vous appelle, juste pour jauger sa réaction. S’il ne s’agit pas d’un deepfake, vous pourrez en rire avec lui plus tard, mais si c’est le cas, vous venez peut-être d’éviter une escroquerie.”

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Notifiez-moi des commentaires à venir via e-mail. Vous pouvez aussi vous abonner sans commenter.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.