• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • La technologie de manipulation vidéo menace les futures élections

    Crédit :CC0 Domaine public

    Une vidéo sur les réseaux sociaux montre un législateur américain de haut rang déclarant son soutien à une augmentation écrasante des impôts. Vous réagissez en conséquence car la vidéo lui ressemble et sonne comme lui, donc certainement c'est lui.

    Pas nécessairement.

    Le terme "fake news" prend une tournure beaucoup plus littérale car les nouvelles technologies facilitent la manipulation des visages et de l'audio dans les vidéos. Les vidéos, appelés deepfakes, peuvent ensuite être publiés sur n'importe quel site de médias sociaux sans indication qu'ils ne sont pas réels.

    Edouard Delp, directeur du Video and Imaging Processing Laboratory de l'Université Purdue, affirme que les deepfakes sont un danger croissant à l'approche de la prochaine élection présidentielle.

    "Il est possible que les gens utilisent de fausses vidéos pour faire de fausses nouvelles et les insérer dans une élection politique, " dit Delp, le professeur distingué Charles William Harrison de génie électrique et informatique. "Il y a déjà eu des preuves de cela dans d'autres élections à travers le monde.

    "Nous avons nos élections à venir en 2020 et je soupçonne que les gens les utiliseront. Les gens les croient et ce sera le problème."

    Les vidéos représentent un danger pour influencer le tribunal de l'opinion publique à travers les médias sociaux, comme près de 70 pour cent des adultes indiquent qu'ils utilisent Facebook, généralement tous les jours. YouTube affiche des chiffres encore plus élevés, avec plus de 90 pour cent des 18 à 24 ans qui l'utilisent.

    Delp et le doctorant David Güera ont travaillé pendant deux ans sur la falsification vidéo dans le cadre d'une recherche plus large sur la criminalistique des médias. Ils ont travaillé avec des techniques sophistiquées d'apprentissage automatique basées sur l'intelligence artificielle et l'apprentissage automatique pour créer un algorithme qui détecte les deepfakes.

    Crédit :Université Purdue

    À la fin de l'année dernière, L'algorithme de Delp et de son équipe a remporté un concours de la Defense Advanced Research Projects Agency (DARPA). La DARPA est une agence du département américain de la Défense.

    "En analysant la vidéo, l'algorithme peut voir si le visage est cohérent ou non avec le reste des informations de la vidéo, " a dit Delp. " Si c'est incohérent, nous détectons ces incohérences subtiles. Il peut être aussi petit que quelques pixels, il peut s'agir d'incohérences de coloration, il peut s'agir de différents types de distorsion."

    "Notre système est basé sur les données, il peut donc tout rechercher - il peut rechercher des anomalies comme le clignotement, il peut rechercher des anomalies d'éclairement, " Guera a dit, l'ajout du système continuera à s'améliorer dans la détection des deepfakes car ils lui donneront plus d'exemples à apprendre.

    La recherche a été présentée en novembre lors de la conférence internationale IEEE 2018 sur la vidéosurveillance avancée et la surveillance basée sur les signaux.

    Deepfakes peut également être utilisé pour falsifier des vidéos et des images pornographiques, en utilisant les visages de célébrités ou même d'enfants.

    Delp a déclaré que les premiers deepfakes étaient plus faciles à repérer. Les techniques ne pouvaient pas bien recréer le mouvement des yeux, résultant en des vidéos d'une personne qui n'a pas cligné des yeux. Mais les progrès ont rendu la technologie meilleure et plus accessible aux gens.

    Les agences de presse et les sites de médias sociaux s'inquiètent de l'avenir des deepfakes. Delp prévoit à la fois d'avoir des outils comme son algorithme à l'avenir pour déterminer quelle séquence vidéo est réelle et ce qui est un deepfake.

    "C'est une course aux armements, " a-t-il dit. " Leur technologie s'améliore de plus en plus, mais j'aime penser que nous pourrons suivre le rythme."


    © Science https://fr.scienceaq.com