• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Vous ne pouvez pas dire si une critique de restaurant en ligne est fausse, mais cette IA peut

    Cette critique de restaurant a-t-elle été écrite par une machine ou une personne ? Pas si facile, est-ce? Crédit :Université Aalto

    Les chercheurs constatent que les avis et commentaires générés par l'IA constituent une menace importante pour les consommateurs, mais l'apprentissage automatique peut aider à détecter les contrefaçons.

    Des sites comme TripAdvisor, Yelp et Amazon affichent les avis des utilisateurs sur les produits et services. Les consommateurs sont attentifs :neuf personnes sur dix lisent ces évaluations par les pairs et font confiance à ce qu'elles voient. En réalité, jusqu'à 40 % des utilisateurs décident de faire un achat sur la base de quelques avis seulement, et les bonnes critiques font que les gens dépensent 30% de plus sur leurs achats.

    Pourtant, tous les avis ne sont pas légitimes. Les faux avis écrits par de vraies personnes sont déjà courants sur les sites d'avis, mais la quantité de contrefaçons générées par les machines est susceptible d'augmenter considérablement.

    Selon le doctorant Mika Juuti à l'Université d'Aalto, les faux avis basés sur des algorithmes sont de nos jours faciles, précis et rapide à générer. La plupart du temps, les gens sont incapables de faire la différence entre les faux avis authentiques et ceux générés par des machines.

    "Les entreprises qui se comportent mal peuvent soit essayer d'augmenter leurs ventes en créant artificiellement une image de marque positive, soit en générant de fausses critiques négatives sur un concurrent. La motivation est, bien sûr, argent :les avis en ligne sont une grosse affaire pour les destinations de voyage, hôtels, prestataires de services et produits de consommation, " dit Mika Juuti.

    En 2017, des chercheurs de l'Université de Chicago ont décrit une méthode pour entraîner un modèle d'apprentissage automatique, un réseau de neurones profonds, en utilisant un ensemble de données de trois millions d'évaluations réelles de restaurants sur Yelp. Après la formation, le modèle a généré de fausses critiques de restaurants caractère par caractère.

    Il y a eu un léger hic dans la méthode, toutefois; il a eu du mal à rester dans le sujet. Pour un avis sur un restaurant japonais à Las Vegas, le modèle pourrait faire référence à un restaurant italien à Baltimore. Ces types d'erreurs sont, bien sûr, facilement repérable par les lecteurs.

    Pour aider le générateur d'avis à rester sur la bonne voie, Juuti et son équipe ont utilisé une technique appelée traduction automatique neuronale pour donner au modèle un sens du contexte. À l'aide d'une séquence de texte de « note d'évaluation, nom du restaurant, ville, Etat, et étiquettes de nourriture, " ils ont commencé à obtenir des résultats crédibles.

    "Dans l'étude d'utilisateurs que nous avons menée, nous avons montré aux participants de vraies critiques écrites par des humains et de fausses critiques générées par des machines et leur avons demandé d'identifier les contrefaçons. Jusqu'à 60% des fausses critiques ont été considérées à tort comme réelles, " dit Juuti.

    Juuti et ses collègues ont alors conçu un classificateur qui serait capable de repérer les contrefaçons. Le classificateur s'est avéré performant, en particulier dans les cas où les évaluateurs humains ont eu le plus de difficultés à dire si un examen est réel ou non.

    L'étude a été menée en collaboration avec le groupe de recherche Secure Systems de l'Université Aalto et des chercheurs de l'Université Waseda au Japon. Il a été présenté lors du Symposium européen 2018 sur la recherche en sécurité informatique en septembre.


    © Science https://fr.scienceaq.com