• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Ce réseau de neurones profond combat les deepfakes

    L'IA servira à développer un système de contrôle de réseau qui non seulement détecte et réagit aux problèmes, mais peut également les prévoir et les éviter. Crédit :CC0 Domaine public

    Voir, c'était croire jusqu'à ce que la technologie lève la tête et nous donne des outils de retouche photo puissants et peu coûteux. Maintenant, des vidéos réalistes qui mettent en correspondance les expressions faciales d'une personne sur celles d'une autre, connu sous le nom de deepfakes, représentent une arme politique redoutable.

    Mais que ce soit le lissage bénin d'une ride dans un portrait, ou une vidéo manipulée pour donner l'impression qu'un politicien dit quelque chose d'offensant, toute retouche photo laisse des traces à découvrir par les bons outils.

    Recherche menée par le Video Computing Group d'Amit Roy-Chowdhury à l'Université de Californie, Riverside a développé une architecture de réseau neuronal profond qui peut identifier les images manipulées au niveau du pixel avec une grande précision. Roy-Chowdhury est professeur de génie électrique et informatique et Bourns Family Faculty Fellow au Marlan and Rosemary Bourns College of Engineering.

    Un réseau de neurones profonds est ce que les chercheurs en intelligence artificielle appellent des systèmes informatiques qui ont été formés pour effectuer des tâches spécifiques, dans ce cas, reconnaître les images modifiées. Ces réseaux sont organisés en couches connectées; « architecture » ​​fait référence au nombre de couches et à la structure des connexions entre elles.

    Les objets dans les images ont des limites et chaque fois qu'un objet est inséré ou supprimé d'une image, sa limite aura des qualités différentes de celles des limites des objets dans l'image naturellement. Par exemple, quelqu'un avec de bonnes compétences Photoshop fera de son mieux pour rendre l'objet inséré aussi naturel que possible en lissant ces limites.

    Bien que cela puisse tromper l'œil nu, lorsqu'il est examiné pixel par pixel, les limites de l'objet inséré sont différentes. Par exemple, ils sont souvent plus lisses que les objets naturels. En détectant les limites des objets insérés et supprimés, un ordinateur devrait être capable d'identifier les images modifiées.

    Les chercheurs ont étiqueté les images non manipulées et les pixels pertinents dans les régions limites des images manipulées dans un grand ensemble de données de photos. L'objectif était d'enseigner au réseau de neurones des connaissances générales sur les régions manipulées et naturelles des photos. Ils ont testé le réseau de neurones avec un ensemble d'images qu'il n'avait jamais vues auparavant, et il détectait les altérés la plupart du temps. Il a même repéré la région manipulée.

    « Nous avons entraîné le système à faire la distinction entre les images manipulées et non manipulées, et maintenant, si vous lui donnez une nouvelle image, elle est capable de fournir une probabilité que cette image soit manipulée ou non, et de localiser la région de l'image où s'est produite la manipulation, " a déclaré Roy-Chowdhury.

    Les chercheurs travaillent pour l'instant sur des images fixes, mais ils soulignent que cela peut également les aider à détecter les vidéos deepfake.

    "Si vous pouvez comprendre les caractéristiques d'une image fixe, dans une vidéo, il s'agit simplement d'assembler des images fixes les unes après les autres, " a déclaré Roy-Chowdhury. " Le défi le plus fondamental est probablement de déterminer si une image dans une vidéo est manipulée ou non. "

    Même une seule image manipulée soulèverait un drapeau rouge. Mais Roy-Chowdhury pense que nous avons encore un long chemin à parcourir avant que les outils automatisés puissent détecter les vidéos deepfake dans la nature.

    "C'est un problème difficile, " a déclaré Roy-Chowdhury. " C'est une sorte de jeu du chat et de la souris. Tout ce domaine de la cybersécurité essaie en quelque sorte de trouver de meilleurs mécanismes de défense, mais alors l'attaquant trouve aussi de meilleurs mécanismes."

    Il a déclaré que la détection de deepfake entièrement automatisée pourrait ne pas être réalisable dans un proche avenir.

    "Si vous voulez regarder tout ce qui est sur Internet, un humain ne peut pas le faire d'une part, et un système automatisé ne peut probablement pas le faire de manière fiable. Donc ça doit être un mélange des deux, " a déclaré Roy-Chowdhury.

    Les architectures de réseaux de neurones profonds peuvent produire des listes de vidéos et d'images suspectes que les utilisateurs peuvent consulter. Les outils automatisés peuvent réduire la quantité de données que les gens, comme les modérateurs de contenu Facebook, doivent passer au crible pour déterminer si une image a été manipulée.

    Pour cet usage, les outils sont au coin de la rue.

    "C'est probablement quelque chose auquel ces technologies contribueront dans un laps de temps très court, probablement dans quelques années, " a déclaré Roy-Chowdhury.


    © Science https://fr.scienceaq.com