• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Comment la technologie peut détecter les fake news dans les vidéos

    Crédit :Pixabay/CC0 Domaine public

    Les médias sociaux représentent un canal majeur pour la diffusion de fausses nouvelles et de désinformation. Cette situation s'est aggravée avec les progrès récents des outils de montage photo et vidéo et d'intelligence artificielle, qui facilitent la falsification des fichiers audiovisuels, par exemple avec les soi-disant deepfakes, qui combinent et superposent des images, des clips audio et vidéo pour créer des montages. qui ressemblent à de vraies images.

    Des chercheurs des groupes K-riptographie et sécurité de l'information pour les réseaux ouverts (KISON) et Réseaux de communication et changement social (CNSC) de l'Institut interdisciplinaire Internet (IN3) de l'Universitat Oberta de Catalunya (UOC) ont lancé un nouveau projet pour développer une technologie innovante qui, utilisant l'intelligence artificielle et des techniques de dissimulation de données, devrait aider les utilisateurs à différencier automatiquement les contenus multimédias originaux et falsifiés, contribuant ainsi à minimiser la rediffusion de fausses nouvelles. DISSIMILAR est une initiative internationale dirigée par l'UOC et comprenant des chercheurs de l'Université de technologie de Varsovie (Pologne) et de l'Université d'Okayama (Japon).

    « Le projet a deux objectifs :premièrement, fournir aux créateurs de contenu des outils pour filigraner leurs créations, rendant ainsi toute modification facilement détectable; et deuxièmement, offrir aux utilisateurs de médias sociaux des outils basés sur des méthodes de traitement du signal et d'apprentissage automatique de dernière génération pour détecter les faux contenu numérique », a expliqué le professeur David Megías, chercheur principal de KISON et directeur de l'IN3. De plus, DISSIMILAR vise à intégrer "la dimension culturelle et le point de vue de l'utilisateur final tout au long du projet", de la conception des outils à l'étude de l'utilisabilité dans les différentes étapes.

    Le danger des préjugés

    Actuellement, il existe essentiellement deux types d'outils pour détecter les fausses nouvelles. Premièrement, il y a ceux qui sont automatiques et basés sur l'apprentissage automatique, dont il n'existe (actuellement) que quelques prototypes. Et, deuxièmement, il y a les plateformes de détection de fausses nouvelles impliquant une implication humaine, comme c'est le cas avec Facebook et Twitter, qui nécessitent la participation de personnes pour déterminer si un contenu spécifique est authentique ou faux. Selon David Megías, cette solution centralisée pourrait être affectée par "différents biais" et encourager la censure. "Nous pensons qu'une évaluation objective basée sur des outils technologiques pourrait être une meilleure option, à condition que les utilisateurs aient le dernier mot pour décider, sur la base d'une pré-évaluation, s'ils peuvent ou non faire confiance à certains contenus", a-t-il expliqué.

    Pour Megías, il n'y a pas de "solution unique" capable de détecter les fausses nouvelles :la détection doit plutôt être effectuée avec une combinaison de différents outils. "C'est pourquoi nous avons choisi d'explorer la dissimulation d'informations (filigranes), les techniques d'analyse de contenu numérique (basées en grande partie sur le traitement du signal) et, cela va sans dire, l'apprentissage automatique", a-t-il noté.

    Vérification automatique des fichiers multimédias

    Le tatouage numérique comprend une série de techniques dans le domaine de la dissimulation de données qui intègrent des informations imperceptibles dans le fichier original pour pouvoir vérifier " facilement et automatiquement " un fichier multimédia. "Il peut être utilisé pour indiquer la légitimité d'un contenu en confirmant par exemple qu'une vidéo ou une photo a été diffusée par une agence de presse officielle, et peut également être utilisé comme marque d'authentification, qui serait supprimée en cas de modification de le contenu, ou pour retracer l'origine des données. En d'autres termes, il peut dire si la source de l'information (par exemple, un compte Twitter) diffuse un faux contenu », a expliqué Megías.

    Techniques d'analyse médico-légale du contenu numérique

    Le projet combinera le développement de filigranes avec l'application de techniques d'analyse médico-légale du contenu numérique. L'objectif est de tirer parti de la technologie de traitement du signal pour détecter les distorsions intrinsèques produites par les appareils et les programmes utilisés lors de la création ou de la modification de tout fichier audiovisuel. Ces processus donnent lieu à une gamme d'altérations, telles que le bruit du capteur ou la distorsion optique, qui pourraient être détectées au moyen de modèles d'apprentissage automatique. "L'idée est que la combinaison de tous ces outils améliore les résultats par rapport à l'utilisation de solutions uniques", a déclaré Megías.

    Études avec des utilisateurs en Catalogne, en Pologne et au Japon

    L'une des principales caractéristiques de DISSIMILAR est son approche "holistique" et son rassemblement des "perceptions et composantes culturelles autour des fake news". Dans cette optique, différentes études centrées sur les utilisateurs seront réalisées, déclinées en différentes étapes. « Premièrement, nous voulons savoir comment les utilisateurs interagissent avec l'actualité, ce qui les intéresse, quels médias ils consomment, en fonction de leurs centres d'intérêt, sur quoi ils se basent pour identifier certains contenus comme fake news et ce qu'ils sont prêts à faire pour vérifier sa véracité. Si nous pouvons identifier ces choses, cela facilitera la tâche des outils technologiques que nous concevons pour aider à prévenir la propagation de fausses nouvelles », a expliqué Megías.

    Ces perceptions seront mesurées dans différents lieux et contextes culturels, dans des études de groupes d'utilisateurs en Catalogne, en Pologne et au Japon, afin d'intégrer leurs idiosyncrasies lors de la conception des solutions. "C'est important parce que, par exemple, chaque pays a des gouvernements et/ou des autorités publiques plus ou moins crédibles. Cela a un impact sur le suivi de l'actualité et le soutien aux fake news :si je ne crois pas au mot des autorités, pourquoi devrais-je prêter attention aux informations provenant de ces sources ? Cela s'est vu lors de la crise du COVID-19 :dans les pays où la confiance dans les autorités publiques était moindre, les suggestions et les règles étaient moins respectées sur la gestion de la pandémie et la vaccination », a déclaré Andrea Rosales, chercheuse à la CCSN.

    Un produit facile à utiliser et à comprendre

    Au cours de la deuxième étape, les utilisateurs participeront à la conception de l'outil pour "s'assurer que le produit sera bien reçu, facile à utiliser et compréhensible", a déclaré Andrea Rosales. "Nous aimerions qu'ils soient impliqués à nos côtés tout au long du processus jusqu'à la production du prototype final, car cela nous aidera à mieux répondre à leurs besoins et priorités et à faire ce que d'autres solutions n'ont pas pu faire", a ajouté David Megías.

    Cette acceptation par les utilisateurs pourrait à l'avenir être un facteur qui amène les plateformes de réseaux sociaux à intégrer les solutions développées dans ce projet. "Si nos expériences portent leurs fruits, ce serait formidable qu'elles intègrent ces technologies. Pour l'instant, nous serions satisfaits d'un prototype fonctionnel et d'une preuve de concept qui pourrait encourager les plateformes de médias sociaux à inclure ces technologies à l'avenir, " a conclu David Megías.

    Des recherches antérieures ont été publiées dans le Numéro spécial sur les ateliers ARES 2021 .

    © Science https://fr.scienceaq.com