En s’appuyant sur la technologie dite du « Deepfake », des arnaqueurs utilisent des images vraies de personnes, pour venir les greffés ensuite sur des films pornos, afin de faire chanter leurs victimes.
Pour générer des DeepFakes, les escrocs de nouvelles générations ont besoin de faire des appels vidéos préalablement avec leurs victimes. Les images ainsi récupérées leur permettent de générer un clone qui mime les expressions du visage de leurs victimes pour les confondre après avec le visage d’acteurs porno, générant ainsi des vidéos porno Fake. Grâce à Instagram et Facebook, ils menacent ensuite de contacter l’entourage de la victime et menacent de leurs envoyés des séquences certes synthétiques, mais particulièrement embarrassantes.
Ces attaques n’ont été signalées pour l’instant qu’en Inde, mais plusieurs analystes s’accordent sur le fait qu’elles pourraient présager d’une nouvelle vague de phishing et de extorsion, plus « efficaces » et donc aux conséquences désastreuses pour la vie privée des victimes.
Rohan Bassin 33 ans, racontera à The indianexpress qu’une femme l’a contacté pour un appel vidéo et qu’il a suffi d’une quinzaine de secondes pour que ses traits soient greffés sur ceux d’un acteur porno, s’en suivra des demandes de rançons contre des menaces de diffusion de la scène synthétisée. « Les arnaqueurs avaient enregistré des photos de mon visage avec l’appel vidéo pour le superposée sur un corps d’un acteur issu d’une scène pornographique. Dans la vidéo créée, on aurait vraiment dit que c’était moi » Confia Rohan bassin au « Indian express ».
Cette nouvelle forme de Phishing/Sextorsion n’est que le résultat d’une démocratisation des outils permettant les DeepFakes. Il suffit de regarder les dégâts des Fake news pour comprendre que les DeepFakes peuvent hélas inaugurer une nouvelle ère en matière de désinformation.