Cette image réalisée à partir d'une vidéo d'une fausse vidéo mettant en vedette l'ancien président Barack Obama montre des éléments de cartographie faciale utilisés dans les nouvelles technologies qui permettent à quiconque de faire des vidéos de vraies personnes semblant dire des choses qu'elles n'ont jamais dites. On craint de plus en plus que les adversaires américains n'utilisent les nouvelles technologies pour créer des vidéos authentiques afin d'influencer les campagnes politiques ou de compromettre la sécurité nationale. (Photo AP)
Hey, mon député a-t-il vraiment dit ça ? Est-ce vraiment le président Donald Trump sur cette vidéo, ou suis-je dupé ?
La nouvelle technologie sur Internet permet à n'importe qui de faire des vidéos de vraies personnes semblant dire des choses qu'elles n'ont jamais dites. Les républicains et les démocrates prédisent que cette manière high-tech de mettre des mots dans la bouche de quelqu'un deviendra la dernière arme dans les guerres de désinformation contre les États-Unis et d'autres démocraties occidentales.
Nous ne parlons pas de vidéos de synchronisation labiale. Cette technologie utilise la cartographie faciale et l'intelligence artificielle pour produire des vidéos qui semblent si authentiques qu'il est difficile de repérer les faux. Les législateurs et les responsables du renseignement craignent que les fausses vidéos, appelées deepfakes, puissent être utilisées pour menacer la sécurité nationale ou interférer dans les élections.
Jusque là, ce n'est pas arrivé, mais les experts disent qu'il ne s'agit pas de savoir si, mais quand.
"Je m'attends à ce qu'ici aux États-Unis, nous commencions à voir ce contenu lors des prochaines élections nationales et de mi-mandat dans deux ans, " dit Hany Farid, un expert en criminalistique numérique au Dartmouth College à Hanovre, New Hampshire. "La technologie, bien sûr, ne connaît pas de frontières, donc je m'attends à ce que l'impact se répercute dans le monde entier."
Quand une personne moyenne peut créer une fausse vidéo réaliste du président disant tout ce qu'elle veut, Farid a dit, "nous sommes entrés dans un nouveau monde où il va être difficile de savoir comment croire ce que nous voyons." L'inverse est préoccupant, trop. Les gens peuvent rejeter comme de fausses images authentiques, dire d'une véritable atrocité, marquer des points politiques.
Conscient des implications de la technologie, l'Agence américaine des projets de recherche avancée pour la défense est déjà engagée depuis deux ans dans un programme de quatre ans visant à développer des technologies capables de détecter de fausses images et vidéos. À l'heure actuelle, il faut une analyse approfondie pour identifier les fausses vidéos. Il n'est pas clair si les nouvelles façons d'authentifier les images ou de détecter les contrefaçons suivront le rythme de la technologie des contrefaçons profondes.
Les Deepfakes sont ainsi nommés parce qu'ils utilisent l'apprentissage en profondeur, une forme d'intelligence artificielle. Ils sont fabriqués en alimentant un ordinateur un algorithme, ou un ensemble d'instructions, beaucoup d'images et d'audio d'une certaine personne. Le programme informatique apprend à imiter les expressions faciales de la personne, maniérismes, voix et inflexions. Si vous avez suffisamment de vidéo et d'audio de quelqu'un, vous pouvez combiner une fausse vidéo de la personne avec un faux audio et lui faire dire tout ce que vous voulez.
Jusque là, les deepfakes ont surtout été utilisés pour salir des célébrités ou comme gags, mais il est facile de prévoir qu'un État-nation les utilisera pour des activités néfastes contre les États-Unis, a déclaré le sénateur Marco Rubio, R-Fla., l'un des nombreux membres du comité sénatorial du renseignement qui expriment leur inquiétude au sujet des deepfakes.
Une agence de renseignement étrangère pourrait utiliser la technologie pour produire une fausse vidéo d'un homme politique américain utilisant une épithète raciale ou acceptant un pot-de-vin, dit Rubio. Ils pourraient utiliser une fausse vidéo d'un soldat américain massacrant des civils à l'étranger, ou celui d'un fonctionnaire américain qui aurait admis un plan secret pour mener à bien un complot. Imaginez une fausse vidéo d'un dirigeant américain - ou d'un responsable de la Corée du Nord ou de l'Iran - avertissant les États-Unis d'une catastrophe imminente.
« C'est une arme qui pourrait être utilisée – à un moment approprié et placé de manière appropriée – de la même manière que les fausses nouvelles sont utilisées, sauf sous forme vidéo, ce qui pourrait créer un véritable chaos et une instabilité à la veille d'une élection ou d'une décision majeure de quelque nature que ce soit, " Rubio a déclaré à l'Associated Press.
La technologie Deepfake a encore quelques problèmes. Par exemple, les gens qui clignent des yeux dans de fausses vidéos peuvent sembler artificiels. Mais la technologie s'améliore.
« Dans un an ou deux, ça va être vraiment difficile pour une personne de faire la distinction entre une vraie vidéo et une fausse vidéo, " dit Andrew Grotte, chercheur en sécurité internationale au Center for International Security and Cooperation de l'Université de Stanford en Californie.
« Cette technologie, Je pense, sera irrésistible pour les États-nations à utiliser dans des campagnes de désinformation pour manipuler l'opinion publique, tromper les populations et miner la confiance dans nos institutions, ", a déclaré Grotto. Il a appelé les chefs de gouvernement et les politiciens à dire clairement qu'il n'a pas sa place dans un débat politique civilisé.
Des vidéos grossières sont utilisées à des fins politiques malveillantes depuis des années, donc il n'y a aucune raison de croire les plus high-tech, qui sont plus réalistes, ne deviendront pas des outils dans les futures campagnes de désinformation.
Rubio a noté qu'en 2009, l'ambassade des États-Unis à Moscou s'est plainte auprès du ministère russe des Affaires étrangères d'une fausse vidéo sexuelle qui, selon elle, a été faite pour nuire à la réputation d'un diplomate américain. La vidéo montrait le diplomate marié, qui était un agent de liaison avec des groupes religieux et de défense des droits de l'homme russes, passer des appels téléphoniques dans une rue sombre. La vidéo montrait ensuite le diplomate dans sa chambre d'hôtel, scènes qui ont apparemment été tournées avec une caméra cachée. Plus tard, la vidéo semblait montrer un homme et une femme ayant des relations sexuelles dans la même pièce avec les lumières éteintes, bien qu'il n'était pas du tout clair que l'homme était le diplomate.
John Beyrlé, qui était l'ambassadeur des États-Unis à Moscou à l'époque, blâmé le gouvernement russe pour la vidéo, ce qu'il a dit a été clairement fabriqué.
Michael McFaul, qui a été ambassadeur américain en Russie entre 2012 et 2014, a déclaré que la Russie s'était engagée dans des vidéos de désinformation contre divers acteurs politiques pendant des années et que lui aussi avait été une cible. Il a déclaré que la propagande de l'État russe avait inséré son visage dans des photographies et « collait mes discours pour me faire dire des choses que je n'avais jamais prononcées et m'accusait même de pédophilie ».
© 2018 La Presse Associée. Tous les droits sont réservés.