Crédit :CC0 Domaine public
Qu'il s'agisse d'une vidéo montrant le visage de quelqu'un d'autre sur un corps différent ou de l'ancien président Barack Obama disant des choses qu'il n'a pas vraiment dites, les "deepfakes" sont maintenant une chose.
Une autre utilisation populaire de ces vidéos manipulées :du faux porno, mettant en vedette tout le monde, de l'actrice Scarlett Johansson à toute personne dont les photos sont disponibles en ligne.
Johansson, qui a involontairement joué dans une vidéo pornographique prétendument divulguée que le Washington Post dit avoir été visionné plus de 1,5 million de fois sur un site porno majeur, estime que la situation est désespérée.
"Rien ne peut empêcher quelqu'un de copier et coller mon image ou celle de quelqu'un d'autre sur un corps différent et de lui donner un aspect aussi étrangement réaliste que souhaité, " dit-elle au Poster dans un article publié il y a quelques jours. "Internet est un vaste vortex de ténèbres qui se mange lui-même."
C'est pourquoi les chercheurs travaillent dur pour essayer de trouver des moyens de détecter une telle falsification, notamment chez SRI International à Menlo Park.
La manipulation des vidéos était autrefois l'affaire des films, fait par Disney, Pixar et autres, dit Bob Bolles, directeur de programme au programme perception du centre d'IA au SRI. "Maintenant, les applications d'échange de visage s'améliorent de plus en plus."
Bolles a récemment montré comment lui et son équipe tentent de détecter quand la vidéo a été falsifiée.
L'équipe recherche les incohérences entre la vidéo et la piste audio, par exemple, regarder si les mouvements des lèvres d'une personne correspondent aux sons de la vidéo. Pensez à des vidéos qui ne sont pas aussi évidentes que les anciennes, films de kung-fu mal doublés.
L'équipe essaie également de détecter les sons qui peuvent ne pas correspondre à l'arrière-plan, dit Aaron Lawson, directeur adjoint du laboratoire de la parole au SRI. Par exemple, la vidéo peut montrer une scène de désert, mais les réverbérations peuvent indiquer que le son a été enregistré à l'intérieur.
« Nous avons besoin d'une série de tests » pour suivre les hackers qui ne manqueront pas de trouver de nouvelles façons de tromper les gens, dit Bolles.
L'équipe ISR n'est qu'une des nombreuses organisations, les universités et les entreprises qui tentent de détecter et même de tracer les deepfakes dans le cadre d'un programme DARPA appelé MediFor, qui est l'abréviation de la criminalistique des médias. Matt Turek, directeur de programme pour MediFor à la Defense Advanced Research Projects Agency à Washington, D.C., a déclaré que 14 maîtres d'œuvre travaillent sur le projet, qui a débuté à l'été 2016. Ces sous-traitants ont des sous-traitants travaillant sur MediFor, trop.
« Il y a eu un changement important au cours de la dernière année environ, car les manipulations automatisées sont devenues plus convaincantes, " a déclaré Turek. L'intelligence artificielle et l'apprentissage automatique ont contribué à rendre les outils pour créer des deepfakes plus puissants, et les chercheurs utilisent l'IA pour tenter de riposter.
"Le défi est de créer des algorithmes pour suivre et rester en avance sur la technologie qui existe, " dit Turek.
La DARPA espère que les fruits du programme MediFor seront largement distribués, repris par des entreprises technologiques telles que Facebook et YouTube, qui gèrent une grande partie des vidéos générées par les utilisateurs dans le monde.
Par exemple, une vidéo publiée sur YouTube par BuzzFeed en avril dernier, mettant en vedette le comédien et acteur Jordan Peele ventriloquier Obama – avec l'ancien président appelant apparemment le président Donald Trump un juron – a plus de 5,3 millions de vues.
Turek a coché d'autres utilisations possibles des deepfakes, tels que de déformer les produits vendus en ligne, ou pour tromper les compagnies d'assurance sur les accidents de voiture. Il a dit qu'il y avait eu des preuves que des chercheurs utilisaient des images manipulées pour que leurs découvertes scientifiques puissent être publiées. Et il prédit que finalement, les outils pourraient devenir si bons qu'une série de deepfakes sera en mesure de convaincre les gens d'événements importants qui ne se sont pas produits, comme les théoriciens du complot.
« Deepfakes pourrait modifier la façon dont nous faisons confiance à l'image et à la vidéo en tant que société, " dit Turek.
©2019 The Mercury News (San José, Californie)
Distribué par Tribune Content Agency, LLC.