L'intelligence artificielle peut être utilisée pour créer des contrefaçons profondes - audio, des images et des vidéos qui incitent les gens à dire et à faire des choses qu'ils n'ont jamais faites. Crédit :PxHere
Les fake news ont déjà attisé les flammes de la méfiance envers les médias, la politique et les institutions établies à travers le monde. Et tandis que les nouvelles technologies comme l'intelligence artificielle (IA) pourraient aggraver les choses, il peut également être utilisé pour lutter contre la désinformation.
Vous voulez vous faire passer pour Obama ? Autrefois, cela aurait pu nécessiter d'imiter physiquement sa voix, style tour de fête. Et même si vous étiez très bon dans ce domaine, cela ne présenterait presque certainement pas de danger pour notre démocratie. Mais la technologie a changé cela. Vous pouvez désormais faire dire n'importe quoi facilement et avec précision à n'importe qui grâce à l'IA. Utilisez simplement le service d'un programme en ligne pour enregistrer une phrase et écouter ce que vous avez dit avec la voix d'une personne célèbre.
Des programmes comme celui-ci sont souvent appelés deep fakes - des systèmes d'IA qui adaptent l'audio, des photos et des vidéos pour amener les gens à dire et à faire des choses qu'ils n'ont jamais faites.
Ces technologies pourraient lancer une nouvelle ère de fausses nouvelles et de désinformation en ligne. En 2017, Hany Farid, informaticien au Dartmouth College, NOUS, qui détecte de fausses vidéos a déclaré que la prolifération rapide de nouvelles techniques de manipulation a conduit à une « course aux armements ». que l'IA peut également être utilisée pour de bon.
"L'IA a de nombreux problèmes éthiques, " a déclaré Francesco Nucci, directeur de recherche applicative au Groupe Ingénierie, basé en Italie. "Mais parfois, cela peut aussi être la solution. Vous pouvez utiliser l'IA de manière contraire à l'éthique pour, par exemple, créer et diffuser de fausses nouvelles, mais tu peux aussi l'utiliser pour faire le bien, par exemple, pour lutter contre la désinformation."
Vérificateurs de faits
Il est le chercheur principal du projet Fandango, qui vise à faire exactement cela. L'équipe développe des outils logiciels pour aider les journalistes et les vérificateurs de faits à détecter et à combattre les fausses informations, dit Nucci. Ils espèrent servir les journalistes de trois manières.
La première composante est ce que Nucci appelle la détection indépendante du contenu en utilisant des outils qui ciblent la forme du contenu.
Nucci explique qu'aujourd'hui, les images et la vidéo peuvent être facilement manipulées, que ce soit par le biais de simples Photoshop ou de techniques plus complexes comme les deep fakes. Les systèmes de Fandango peuvent désosser ces changements, et utiliser des algorithmes pour aider les journalistes à repérer le contenu manipulé.
Comme ces outils examinent la forme, ils ne vérifient pas si le contenu lui-même fait de fausses déclarations, c'est ce que fait le deuxième axe de recherche de Fandango. Ici, ils relient des histoires qui ont été prouvées fausses par des vérificateurs de faits humains, et recherchez des pages en ligne ou des publications sur les réseaux sociaux avec des mots et des revendications similaires.
"Les outils peuvent repérer quelles fausses nouvelles partagent la même racine et permettre aux journalistes de les enquêter, " a déclaré Nucci.
Ces deux composants reposent fortement sur divers algorithmes d'IA, comme le traitement du langage naturel. Le troisième volet permet aux journalistes de réagir aux fausses nouvelles.
Une fausse histoire pourrait, par exemple, prétendent qu'un pourcentage très élevé de crimes dans un pays européen sont commis par des immigrés étrangers. En théorie, cela pourrait être une affirmation facile à réfuter en raison de la grande quantité de données ouvertes disponibles, pourtant, les journalistes perdent un temps précieux à trouver ces données.
Ainsi, l'outil de Fandango relie toutes sortes de sources de données ouvertes européennes entre elles, et le regroupe et le visualise. Les journalistes peuvent utiliser, par exemple, regroupé des données nationales pour répondre aux allégations de crimes ou appliquer les données des satellites européens Copernicus aux débats sur le changement climatique.
"De cette façon, les journalistes peuvent réagir rapidement aux fausses histoires et ne pas perdre de temps, " a déclaré Nucci.
Leurs outils sont actuellement testés par le diffuseur public belge VRT, ANSA, la principale agence de presse italienne, et CIVIO, une organisation espagnole à but non lucratif.
Détection de fausses nouvelles
Pourtant, repérer les fausses nouvelles n'est peut-être pas seulement une question de trouver des allégations fausses, mais aussi d'analyser des quantités massives de modèles de partage sur les réseaux sociaux, dit Michael Bronstein, professeur à l'Université de Lugano en Suisse et à l'Imperial College de Londres, la Grande-Bretagne.
Il dirige un projet appelé GoodNews, qui utilise l'IA pour adopter une approche atypique de la détection des fausses nouvelles.
"La plupart des approches existantes regardent le contenu, " a déclaré le professeur Bronstein. " Ils analysent les caractéristiques sémantiques qui sont caractéristiques des fausses nouvelles. Ce qui fonctionne dans une certaine mesure, mais se heurte à toutes sortes de problèmes.
"Il y a, par exemple, Barrière de la langue, les plateformes comme WhatsApp ne vous donnent pas accès au contenu car il est crypté et dans de nombreux cas, les fausses nouvelles peuvent être une image, ce qui est plus difficile à analyser en utilisant des techniques telles que le traitement du langage naturel."
Le professeur Bronstein et son équipe ont donc renversé ce modèle, en regardant plutôt comment les fausses nouvelles se propagent.
Essentiellement, des études antérieures montrent que les fausses nouvelles sont partagées en ligne de différentes manières par rapport aux vraies nouvelles, dit le professeur Bronstein. Les fausses nouvelles peuvent avoir beaucoup plus de partages que de likes sur Facebook, tandis que les publications régulières ont tendance à avoir plus de likes que de partages. En repérant des motifs comme ceux-ci, GoodNews attache un score de crédibilité à une actualité.
L'équipe a construit son premier prototype, qui utilise un apprentissage automatique basé sur des graphes, une technique d'IA dans laquelle le professeur Bronstein est un expert. Le prototype est formé sur des données de Twitter où les chercheurs retracent des histoires vérifiées par des journalistes et se sont révélées fausses. Les journalistes entraînent ainsi l'algorithme d'IA en lui montrant quelles histoires sont fausses, et qui ne le sont pas.
L'équipe de GoodNews espère monétiser ce service via une start-up appelée Fabula AI, basé à Londres. Alors qu'ils espèrent déployer le produit à la fin de l'année, ils envisagent d'avoir des clients tels que de grandes entreprises médiatiques comme Facebook et Twitter, mais aussi des utilisateurs individuels.
"Notre vision plus large est que nous voulons devenir une maison de notation de crédibilité pour les nouvelles, de la même manière que certaines entreprises évaluent le pointage de crédit à la consommation d'une personne, " a déclaré le professeur Bronstein.
Résoudre
Bien sûr, cela laisse une plus grande question :la technologie peut-elle vraiment résoudre les fausses nouvelles ? Les deux chercheurs sont sceptiques, mais la technologie convaincue peut aider. Nucci souligne que la notion de fake news est contestée, et que les histoires ne sont souvent pas entièrement vraies, mais pas tout à fait faux non plus.
"Les fake news ne sont pas une question mathématique d'algorithmes et de données, " a-t-il dit. "Mais une question très philosophique sur la façon dont nous traitons la vérité. Néanmoins, notre technologie peut aider à améliorer la transparence concernant les fausses allégations et la désinformation."
Le professeur Bronstein dit qu'il serait naïf de s'attendre à ce que la technologie résolve le problème des fausses nouvelles.
« Il ne s'agit pas seulement de détecter les fake news. C'est aussi un problème de confiance et de manque d'esprit critique. Les gens perdent confiance dans les médias et les institutions traditionnels, et ce n'est pas quelque chose qui peut être atténué uniquement par la technologie, " il a dit.
« Cela demande des efforts de toutes les parties prenantes, et j'espère que notre projet pourra jouer un rôle dans cet effort plus large."