• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • L'examen des changements d'une vidéo au fil du temps permet de signaler les deepfakes

    De gros changements d'une image à l'autre peuvent signaler des problèmes. Crédit :Jesse Milan/Flickr, CC PAR

    Auparavant, seules les sociétés de production hollywoodiennes avec des poches profondes et des équipes d'artistes et de techniciens qualifiés pouvaient faire des vidéos deepfake, des fabrications réalistes semblant montrer des gens faisant et disant des choses qu'ils n'ont jamais réellement faites ou dites. Plus maintenant :un logiciel disponible gratuitement en ligne permet à toute personne disposant d'un ordinateur et disposant d'un peu de temps libre de créer de fausses vidéos convaincantes.

    Que ce soit pour se venger personnellement, harceler des célébrités ou influencer l'opinion publique, les deepfakes rendent faux l'axiome séculaire selon lequel "voir c'est croire".

    Mon équipe de recherche et moi, à l'Institut des sciences de l'information de l'Université de Californie du Sud, développons des moyens de faire la différence entre des contrefaçons réalistes et des vidéos authentiques qui montrent des événements réels tels qu'ils se sont produits. Nos recherches récentes ont trouvé un nouveau moyen apparemment plus précis de détecter les vidéos deepfake.

    Trouver les défauts

    En général, divers algorithmes deepfake fonctionnent en utilisant des techniques d'apprentissage automatique pour analyser les images de la cible, identifier les éléments clés des expressions faciales comme le nez, coins de la bouche, emplacements des yeux et ainsi de suite. Ils utilisent ces informations pour synthétiser de nouvelles images du visage de cette personne et les assembler pour créer une vidéo de la cible qui semble réaliste mais qui est fausse.

    La plupart des méthodes actuelles de détection des deepfakes consistent à regarder chaque image d'une vidéo séparément, soit manuellement, soit à l'aide d'un algorithme de détection, pour repérer les minuscules défauts laissés par le processus de fabrication d'images. S'il y a suffisamment de preuves de falsification dans suffisamment de trames, la vidéo est considérée comme fausse.

    Cependant, les créateurs de deepfake ont commencé à utiliser de grandes quantités de compression d'images et de vidéos pour brouiller leurs résultats, cachant tous les artefacts qui pourraient révéler leur mensonge.

    En regardant des séquences, pas des cadres uniques

    Notre méthode cherche à contourner cette tromperie en adoptant une approche différente. Nous extrayons toutes les images d'une vidéo et identifions les zones qui montrent le visage de la cible. Ensuite nous, en effet, empiler toutes ces images de visage les unes sur les autres, s'assurer que le nez, les yeux et la bouche sont tous alignés entre chaque image. Cela élimine les effets des mouvements de la tête ou des changements d'angle de caméra dans la vidéo.

    Un algorithme identifie les éléments du visage dans une image à partir d'une vidéo. Crédit :Wael Abd-Almageed, CC BY-ND

    Puis, plutôt que de regarder chaque image de visage individuellement, nous recherchons des incohérences dans la façon dont différentes parties du visage se déplacent d'une image à l'autre au fil du temps. C'est un peu comme mettre en place un flip-book pour enfants et ensuite surveiller les sauts étranges dans la séquence. Nous avons trouvé que cette méthode est plus précise, en partie parce que nous pouvons identifier plus de preuves de mensonge qu'en regardant chaque image seule.

    Spécifiquement, nous avons détecté des deepfakes 96% du temps, même lorsque les images et les vidéos sont considérablement compressées. Jusqu'à présent, nous n'avons trouvé ce niveau de précision que sur la seule base de données à grande échelle disponible pour les chercheurs universitaires pour évaluer leurs techniques de détection de deepfake, qui s'appelle FaceForensics++. Cet ensemble de données contient des vidéos de trois des algorithmes de génération de deepfake les plus importants, Face2Face, FaceSwap et DeepFake, bien que les faussaires améliorent toujours leurs méthodes.

    La détection de deepfake est une course aux armements, dans lequel les faussaires et les chercheurs de vérité continueront à faire progresser leurs technologies respectives. Par conséquent, la tâche de limiter leurs effets sur la société dans son ensemble ne peut pas incomber uniquement aux chercheurs. Les savants et les expérimentateurs doivent continuer à travailler, bien sûr, Mais ce n'est pas tout. Je pense que les plateformes de réseaux sociaux devraient également travailler pour développer des logiciels et des politiques qui ralentissent la propagation de la désinformation de tous types, qu'il s'agisse de manipuler le visage d'une personne ou de montrer tout son corps en mouvement d'une manière qu'elle n'aurait jamais pu.

    Les zones rouges sont là où l'algorithme détecte les incohérences, suggérant que la vidéo est fausse.

    Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.




    © Science https://fr.scienceaq.com