• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Comment l'intelligence artificielle peut détecter - et créer - de fausses nouvelles

    Est-ce que c'est vrai ? Crédit :Crystal Eye Studio/Shutterstock.com

    Lorsque Mark Zuckerberg a déclaré au Congrès que Facebook utiliserait l'intelligence artificielle pour détecter les fausses nouvelles publiées sur le site de médias sociaux, il n'était pas particulièrement précis sur ce que cela signifiait. Compte tenu de mon propre travail utilisant l'analyse d'images et de vidéos, Je suggère que l'entreprise soit prudente. Malgré quelques défauts potentiels de base, L'IA peut être un outil utile pour repérer la propagande en ligne, mais elle peut aussi être étonnamment efficace pour créer du matériel trompeur.

    Les chercheurs savent déjà que les fausses nouvelles en ligne se propagent beaucoup plus rapidement et plus largement que les vraies nouvelles. Mes recherches ont également révélé que les publications en ligne contenant de fausses informations médicales obtiennent plus de vues, commentaires et goûts que ceux avec un contenu médical précis. Dans un monde en ligne où les téléspectateurs ont une attention limitée et sont saturés de choix de contenu, il semble souvent que les fausses informations soient plus attrayantes ou engageantes pour les téléspectateurs.

    Le problème s'aggrave :d'ici 2022, les habitants des économies développées pourraient être confrontés à plus de fausses nouvelles que de vraies informations. Cela pourrait provoquer un phénomène que les chercheurs ont surnommé « le vertige de la réalité » - dans lequel les ordinateurs peuvent générer un contenu si convaincant que les gens ordinaires peuvent avoir du mal à comprendre ce qui est vrai.

    Détecter le mensonge

    Algorithmes d'apprentissage automatique, un type d'IA, ont réussi pendant des décennies à lutter contre le courrier indésirable, en analysant le texte des messages et en déterminant la probabilité qu'un message particulier soit une communication réelle d'une personne réelle - ou une sollicitation massivement distribuée pour des produits pharmaceutiques ou une revendication d'une fortune perdue depuis longtemps.

    S'appuyant sur ce type d'analyse de texte dans la lutte contre le spam, Les systèmes d'IA peuvent évaluer la qualité du texte d'un article, ou un titre, se compare au contenu réel d'un article que quelqu'un partage en ligne. Une autre méthode pourrait examiner des articles similaires pour voir si d'autres médias présentent des faits différents. Des systèmes similaires peuvent identifier des comptes spécifiques et des sites Web sources qui diffusent de fausses nouvelles.

    Un cycle sans fin

    Cependant, ces méthodes supposent que les personnes qui diffusent de fausses nouvelles ne changent pas leurs approches. Ils changent souvent de tactique, manipuler le contenu de faux messages dans le but de les rendre plus authentiques.

    L'utilisation de l'IA pour évaluer l'information peut également exposer – et amplifier – certains biais dans la société. Cela peut être lié au genre, l'origine raciale ou les stéréotypes du quartier. Cela peut même avoir des conséquences politiques, pouvant restreindre l'expression de points de vue particuliers. Par exemple, YouTube a supprimé la publicité de certains types de chaînes vidéo, coûter de l'argent à leurs créateurs.

    Cela ressemble bien à Barack Obama disant des choses qu'il ne dirait probablement jamais.

    Le contexte est également essentiel. Le sens des mots peut changer avec le temps. Et le même mot peut signifier différentes choses sur les sites libéraux et conservateurs. Par exemple, un post avec les termes "WikiLeaks" et "DNC" sur un site plus libéral pourrait être plus susceptible d'être une actualité, tandis que sur un site conservateur, il pourrait faire référence à un ensemble particulier de théories du complot.

    Utiliser l'IA pour créer de fausses nouvelles

    Le plus grand défi, cependant, d'utiliser l'IA pour détecter les fausses nouvelles est qu'elle met la technologie dans une course aux armements avec elle-même. Les systèmes d'apprentissage automatique s'avèrent déjà incroyablement capables de créer ce que l'on appelle des "deepfakes" - des photos et des vidéos qui remplacent de manière réaliste le visage d'une personne par un autre, pour faire croire que, par exemple, une célébrité a été photographiée dans une pose révélatrice ou un personnage public dit des choses qu'il n'aurait jamais dit. Même les applications pour smartphones sont capables de ce type de substitution - ce qui rend cette technologie accessible à presque tout le monde, même sans compétences en montage vidéo de niveau hollywoodien.

    Les chercheurs se préparent déjà à utiliser l'IA pour identifier ces contrefaçons créées par l'IA. Par exemple, les techniques de grossissement vidéo peuvent détecter des changements dans le pouls humain qui établiraient si une personne dans une vidéo est réelle ou générée par ordinateur. Mais les falsificateurs et les faux détecteurs s'amélioreront. Certaines contrefaçons peuvent devenir si sophistiquées qu'elles deviennent très difficiles à réfuter ou à rejeter - contrairement aux générations précédentes de contrefaçons, qui utilisait un langage simple et faisait des allégations facilement réfutées.

    L'intelligence humaine est la vraie clé

    La meilleure façon de lutter contre la propagation de fausses nouvelles peut être de dépendre des gens. Les conséquences sociétales des fake news – une plus grande polarisation politique, partisanerie accrue, et la confiance érodée dans les médias grand public et le gouvernement – ​​sont importants. Si plus de gens savaient que les enjeux étaient si élevés, ils pourraient être plus méfiants à l'égard de l'information, surtout s'il est plus émotionnel, parce que c'est un moyen efficace d'attirer l'attention des gens.

    Quand quelqu'un voit un message enragé, cette personne ferait mieux d'enquêter sur l'information, plutôt que de le partager immédiatement. L'acte de partager donne également de la crédibilité à une publication :lorsque d'autres personnes la voient, ils enregistrent qu'il a été partagé par quelqu'un qu'ils connaissent et en qui ils ont vraisemblablement confiance au moins un peu, et sont moins susceptibles de remarquer si la source d'origine est discutable.

    Les sites de médias sociaux comme YouTube et Facebook pourraient volontairement décider d'étiqueter leur contenu, montrant clairement si un élément censé être une nouvelle est vérifié par une source digne de confiance. Zuckerberg a déclaré au Congrès qu'il souhaitait mobiliser la "communauté" des utilisateurs de Facebook pour diriger les algorithmes de son entreprise. Facebook pourrait faire appel à la foule pour les efforts de vérification. Wikipédia propose également un modèle, de bénévoles dévoués qui suivent et vérifient les informations.

    Facebook pourrait utiliser ses partenariats avec des organisations de presse et des bénévoles pour former l'IA, peaufinant continuellement le système pour répondre aux changements de sujets et de tactiques des propagandistes. Cela n'attrapera pas toutes les nouvelles publiées en ligne, mais il serait plus facile pour un grand nombre de personnes de distinguer les faits des faux. Cela pourrait réduire les chances que des histoires fictives et trompeuses deviennent populaires en ligne.

    Rassurant, les personnes qui ont une certaine exposition à des nouvelles exactes sont mieux à même de faire la distinction entre les informations réelles et fausses. La clé est de s'assurer qu'au moins une partie de ce que les gens voient en ligne est, En réalité, vrai.

    Cet article a été initialement publié sur The Conversation. Lire l'article original.




    © Science https://fr.scienceaq.com