• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Attendre, cette vidéo est-elle réelle ? La course contre les deepfakes et les dangers des enregistrements manipulés

    Crédit :CC0 Domaine public

    Auparavant, il fallait beaucoup de temps et d'expertise pour falsifier des vidéos de manière réaliste. Plus maintenant.

    Depuis des décennies, des rendus vidéo authentiques n'ont été vus que dans des films de science-fiction à gros budget comme "Star Wars". Cependant, grâce à l'essor de l'intelligence artificielle, les images de falsification sont devenues plus accessibles que jamais, qui, selon les chercheurs, constitue une menace pour la sécurité nationale.

    "Jusque récemment, nous avons largement pu faire confiance aux enregistrements audio (et) vidéo, " dit Hany Farid, professeur d'informatique au Dartmouth College. Il a déclaré que les progrès de l'apprentissage automatique ont démocratisé l'accès aux outils permettant de créer de fausses vidéos et audio sophistiquées et convaincantes.

    "Il ne faut pas beaucoup d'imagination pour voir comment cela peut être utilisé comme arme pour interférer avec les élections, semer des troubles civils ou commettre une fraude, " dit Farid.

    Alors que l'élection présidentielle de 2020 se profile et que l'agence de défense américaine s'inquiète des vidéos falsifiées induisant les électeurs en erreur, Les législateurs et les établissements d'enseignement se précipitent pour développer des logiciels capables de détecter et d'arrêter ce que l'on appelle les deepfakes avant même qu'ils n'apparaissent sur Internet.

    contrefaçons profondes

    Grande préoccupation autour de l'idée que les contrefaçons de vidéos ont commencé à faire les gros titres à la fin de 2017 lorsque des logiciels ont été utilisés pour superposer des célébrités dans du porno à l'aide de logiciels.

    L'un des exemples les plus connus a été créé par la société de production du réalisateur Jordan Peele en 2018. La vidéo montre l'ancien président Barack Obama avertissant les gens de ne pas croire tout ce qu'ils voient sur Internet.

    Cependant, ce n'est pas réellement Obama qui parle. C'est Peele qui ventriloque l'ancien président.

    Avertissement :La vidéo ci-dessous contient un langage grossier pour faire valoir son point de vue et peut ne pas convenir aux jeunes téléspectateurs.

    Depuis, le ministère de la Défense, via la Defense Advanced Research Projects Agency (DARPA), a commencé à développer des moyens de détecter quand une vidéo est un deepfake.

    Un porte-parole de l'agence a déclaré en mars que si de nombreuses manipulations vidéo sont effectuées pour le plaisir, d'autres sont beaucoup plus dangereux car ils peuvent être utilisés pour diffuser de la propagande et de la désinformation.

    L'organisation cherche à développer des indicateurs et des filtres en ligne qui empêchent le téléchargement de contenu manipulé sur Internet.

    Il suffit d'environ 500 images ou 10 secondes de vidéo pour créer un deepfake réaliste, selon Siwei Lyu, un chercheur qui travaille avec le ministère de la Défense pour développer un logiciel pour détecter et empêcher la propagation des deepfakes.

    Lyu a déclaré que quiconque publie des photos sur des sites de réseaux sociaux comme Instagram risquait d'être falsifié.

    Solutions logicielles

    Le premier logiciel que Lyu et son équipe de chercheurs de l'Université d'Albany ont introduit l'année dernière a pu repérer une vidéo deepfake en un clin d'œil, au sens propre, en analysant la fréquence à laquelle les visages simulés clignotent ou non.

    "Nous avons découvert que les sujets (dans les vidéos deepfake) ne clignent pas beaucoup des yeux, et parfois pas du tout, " a déclaré Lyu. "Nous avons ensuite demandé pourquoi cela se produit."

    Les chercheurs ont découvert que le logiciel utilisé pour créer des deepfakes dépend souvent de photos disponibles sur Internet. Il n'y a pas beaucoup de photos disponibles de personnes de haut niveau les yeux fermés, pour que les sujets animés dans les fausses vidéos ne clignotent pas, dit Lyu.

    Alors que les fabricants de deepfakes commençaient à avoir vent du nouveau logiciel, les chercheurs ont développé d'autres méthodes pour repérer les deepfakes, comme l'utilisation d'algorithmes qui détectent les mouvements non naturels entre les visages et les têtes, ainsi que des logiciels qui analysent les images pour détecter la perte de détails subtils.

    "La peau du visage généré par deepfake a tendance à être trop lisse, et certains détails des cheveux et des dents seront perdus, " dit Lyu. " Si vous regardez les dents de plus près, elles ressemblent plus à un bloc blanc entier qu'à des dents individuelles."

    Des chercheurs de l'Université de Washington expérimentent également la technologie deepfake. L'école a trouvé comment transformer des clips audio en une vidéo synchronisée sur les lèvres de la personne qui prononçait ces mots en 2017.

    Criminalisation

    À la fin de l'année dernière, Le sénateur Ben Sasse (R-Neb.) a présenté un projet de loi au Congrès qui punirait les personnes pour la création et la distribution malveillantes de deepfakes. Le projet de loi, qui a été introduit la veille de la fermeture du gouvernement, a volé sous le radar et est mort. Mais le bureau de Sasse envisage de le réintroduire.

    USA Today a contacté Sasse pour plus d'informations.

    Le sénateur a déclaré dans une récente interview avec l'animateur de radio Glenn Beck que la "tempête parfaite de contrefaçons profondes" arrivait bientôt.

    L'État de New York a présenté un projet de loi en 2018 qui punirait les personnes qui créent des vidéos numériques de sujets sans leur consentement.

    Malgré les inquiétudes suscitées par les dangers hypothétiques, l'abus de deepfakes n'a pas encore été vu en dehors des vidéos pour adultes. The Verge a publié un rapport en mars qui se demande si la technologie permettant d'échanger des visages est même une menace majeure, car elle est largement disponible depuis des années.

    Lyu said that he's doubtful that deepfakes can start a war, and it is unlikely that they will have a long-lasting effect on society as people become increasingly aware of the phenomenon.

    Lyu suggested that people may even become desensitized by them.

    Perception-altering technology was used in April to break down language barriers in a global malaria awareness campaign featuring David Beckham.

    The charity Malaria No Moreposted a video on YouTube highlighting how it used deepfake tech to effectively lip-sync the video of Beckham with the voices of several other people.

    To create the 55-second ad, the nonprofit used visual and voice-altering tech to make Beckham appear multilingual. His speech begins in English, then transitions to eight other languages through dubbing.

    Aujourd'hui, we live in a world in which millions of real people follow computer-generated influencers on social media and don't even know it at the same time governments have worked to develop animated news anchors that have human-like movements.

    One of the clearest examples of real humans adapting to unreal computer-generated people is Lil Miquela, a digitally created "it-girl" with 1.5 million followers on Instagram that she interacts with via direct messages.

    Despite what's in her photo captions, she's not "daydreaming" or partying at Coachella. She's fake, but her followers don't care. They like and comment on her pictures as if she's a real person.

    AI generated humans have also begun showing up on television.

    The Chinese government-run news agency Xinhua began testing out AI news anchors in 2018, a move it claims as the first in the world.

    A première vue, the virtual newsman appears to be an ordinary person with facial expressions and movements that correspond with his speaking voice.

    But seconds into the video, it's apparent that he's not real.

    "I will work tirelessly to keep you informed as texts will be typed into my system uninterrupted, " the news anchor said monotonically in an introductory video. "The development of the media industry calls for continuous innovation and deep integration with the international advanced technologies."

    The agency's first fake female news anchor went live in February and she appears to be even more realistic.

    (c)2019 États-Unis aujourd'hui
    Distribué par Tribune Content Agency, LLC.




    © Science https://fr.scienceaq.com