• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Les personnes qui diffusent des deepfakes pensent que leurs mensonges révèlent une vérité plus profonde

    Les deepfakes nous empêchent de nous communiquer des vérités et de parvenir à un consensus sur ce qui est réel. Capture d'écran

    La récente vidéo virale "deepfake" de Mark Zuckerberg déclarant, "celui qui contrôle les données contrôle le monde" n'était pas une imitation particulièrement convaincante du PDG de Facebook, mais il a réussi de manière spectaculaire à attirer l'attention sur la menace de la manipulation des médias numériques.

    Alors que les contrefaçons photographiques existent depuis l'aube de la photographie, l'utilisation plus récente des techniques d'intelligence artificielle de deep learning (le "deep" dans les deepfakes) conduit à la création de simulations informatiques de plus en plus crédibles.

    La vidéo de Zuckerberg a attiré l'attention en ligne à la fois parce qu'elle mettait en vedette le prodige de la technologie qui est en partie responsable d'avoir inondé le monde de fausses nouvelles, et parce qu'il a mis en évidence la technologie qui aggravera sûrement le problème.

    "Les faux positifs ne sont pas le seul problème

    Nous avons vu la douleur et la tragédie que les mensonges viraux peuvent causer, du harcèlement des parents qui ont perdu des enfants dans la fusillade de Sandy Hook, aux assassinats collectifs en Inde et ailleurs.

    Deepfakes, on s'inquiète, ne fera qu'aggraver le problème. Et s'ils sont utilisés pour impliquer faussement quelqu'un dans un meurtre ? Donner de faux ordres aux troupes sur le champ de bataille ? Ou pour inciter à un conflit armé ?

    Nous pourrions décrire de tels événements comme les « faux positifs » de la contrefaçon profonde :des événements qui semblaient se produire, mais ne l'a pas fait. D'autre part, il y a les « faux négatifs » :les événements qui se sont produits, mais qui risquent d'être rejetés comme un autre faux.

    Pensez à l'affirmation du président américain Donald Trump selon laquelle la voix sur la célèbre bande Access Hollywood, où il se vante de tâtonner les femmes, n'était pas le sien. Trump s'est fait une spécialité politique de demander aux gens de ne pas en croire leurs yeux ou leurs oreilles. Il a induit les gens en erreur sur la taille du public lors de son investiture, et a déclaré qu'il n'avait pas qualifié Meghan Markle de "méchante" dans une interview alors qu'il l'avait fait.

    Cette stratégie fonctionne en remettant en question toute preuve médiatisée. C'est-à-dire, tout ce que nous n'expérimentons pas directement nous-mêmes, et même une grande partie de ce que nous faisons dans la mesure où cela n'est pas partagé par les autres.

    Ce qui est en cause, c'est notre capacité à nous communiquer des vérités et à générer un consensus autour d'elles. Ces enjeux sont vraiment élevés, puisque la démocratie repose sur l'efficacité de dire la vérité au pouvoir. Si, comme Le gardien Mets-le, "Les deepfakes sont là où la vérité va mourir, " puis ils menacent de prendre la responsabilité publique avec eux.

    Une surveillance accrue n'est pas la solution

    Parce que le problème semble être d'ordre technologique, il est tentant de se lancer dans la technologie, plutôt que sociale ou politique, solutions. Typiquement, ces solutions proposées prennent la forme d'une vérification renforcée, ce qui implique une surveillance de plus en plus complète.

    Une idée est de faire en sorte que chaque appareil photo marque automatiquement les images avec une signature numérique unique. Cela permettrait de retracer les images jusqu'à l'appareil qui les a prises, et, dans le cas d'appareils en réseau, à son utilisateur ou propriétaire. Un commentateur a décrit cela comme « le rêve d'un État de surveillance ».

    Ou nous pourrions imaginer un monde dans lequel l'environnement bâti est imprégné de plusieurs caméras, capturer et construire constamment une réalité "partagée" qui peut être utilisée pour démystifier les fausses vidéos à mesure qu'elles émergent. Ce ne serait pas seulement le rêve d'un état de surveillance, mais son fantasme réalisé.

    Le fait que de telles solutions ne soient pas seulement dystopiques, mais aussi ne parviennent pas à résoudre efficacement le problème (puisque les signatures peuvent être falsifiées, et la version "officielle" de la réalité peut être rejetée comme un autre faux), ne nous rend pas moins susceptibles de les poursuivre.

    Le défaut supplémentaire de telles solutions est qu'elles supposent que les personnes et les plateformes circulant de fausses informations s'en remettront à la vérité lorsqu'elles y seront confrontées.

    Les gens croient ce qu'ils veulent croire

    Nous connaissons les plateformes de médias sociaux, jusqu'à ce qu'ils soient tenus de vérifier les informations qu'ils diffusent, avoir une incitation à promouvoir ce qui retient le plus l'attention, quelle que soit son authenticité. Nous sommes plus réticents à admettre qu'il en va de même pour les gens.

    Dans l'économie de l'attention en ligne, il n'y a pas que les plateformes qui profitent de la circulation d'une désinformation sensationnelle, ce sont aussi les gens qui les utilisent.

    Prenons le cas du journaliste islamique basé à Londres Hussein Kesvani. Kesvani raconte la fois où il a retrouvé un troll sur Twitter nommé "True Brit" qui l'avait parsemé de commentaires et de mèmes islamophobes. Après avoir établi une conversation en ligne régulière avec son antagoniste en ligne, Kesvani a pu obtenir un entretien en face à face avec lui.

    Il a demandé à True Brit pourquoi il était prêt à faire circuler des faits manifestement faux, réclamations, et des images mal étiquetées et trompeuses. True Brit a ignoré la question, en disant, "Vous ne savez pas ce qui est vrai ou pas ces jours-ci, de toute façon." Il ne se souciait pas de la vérité littérale, seulement sur la vérité émotionnelle "plus profonde" des images, ce qui, selon lui, confirmait ses préjugés.

    Les stratégies de vérification peuvent être utiles pour renforcer la société de surveillance, mais ils auront peu d'emprise sur les vrais britanniques du monde qui sont prêts à embrasser et à diffuser des deepfakes parce qu'ils croient que leurs mensonges contiennent des vérités plus profondes. Le problème ne réside pas seulement dans la technologie, mais dans la version dégradée de la vie civique sur laquelle prospèrent les plateformes de médias sociaux.

    Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l'article original.




    © Science https://fr.scienceaq.com