Crédit :CC0 Domaine public
Les vidéos dites "deepfake" se multiplient en ligne, avec la plupart d'entre eux pornographiques mais aussi avec des motivations politiques, chercheurs en sécurité ont déclaré lundi.
Un rapport de la société de sécurité Deeptrace a identifié 96% des deepfakes comme "de la pornographie non consensuelle, " qui utilisent les images de célébrités féminines ou autres dans des vidéos manipulées à l'aide de l'intelligence artificielle.
Les chercheurs ont découvert que le nombre de vidéos deepfake avait presque doublé au cours des sept derniers mois pour atteindre 14, 678.
Le rapport indique que quatre sites Web dédiés à la pornographie deepfake ont reçu plus de 134 millions de vues, qui "démontre un marché pour les sites Web créant et hébergeant de la pornographie deepfake, une tendance qui continuera à s'amplifier si des mesures décisives ne sont pas prises, " a déclaré Georgio Patrini, directeur général de Deeptrace, dans un article de blog.
Patrini a déclaré que les deepfakes "ont également un impact significatif sur la sphère politique, " notant des cas au Gabon et en Malaisie visant des dirigeants politiques.
"Ces exemples sont peut-être les indications les plus puissantes de la façon dont les deepfakes déstabilisent déjà les processus politiques, " il a dit.
Patrini a déclaré que de nouveaux cas apparaissent "où l'audio de la voix synthétique et des images inexistantes, les personnes synthétiques ont été utilisées pour améliorer l'ingénierie sociale contre les entreprises et les gouvernements. »
Le rapport intervient alors que l'on craint de plus en plus que les deepfakes puissent être utilisés pour manipuler les électeurs avant les élections aux États-Unis et ailleurs.
Les grands réseaux sociaux ont intensifié leurs efforts pour détecter et contrecarrer la diffusion de vidéos manipulées, mais les analystes disent qu'il est de plus en plus difficile d'arrêter la propagation des deepfakes.
© 2019 AFP