Crédit :CC0 Domaine public
Dans une place de marché en ligne comme Airbnb, les profils d'hôte peuvent faire la différence entre une chambre réservée et une chambre vacante. Trop piquant, trop long, trop de points d'exclamation ? La langue est essentielle dans la recherche de confiance et d'authenticité d'un utilisateur, facteurs cruciaux dans tout échange en ligne.
Avec tant d'enjeux, les hôtes Airbnb devraient-ils s'appuyer sur un algorithme pour rédiger leurs profils à leur place ?
Ça dépend, selon de nouvelles recherches de Cornell et de l'Université de Stanford. Si tout le monde utilise des profils générés algorithmiquement, les utilisateurs leur font confiance. Cependant, si seulement certains hébergeurs choisissent de déléguer les responsabilités de rédaction à l'intelligence artificielle, ils sont susceptibles d'être méfiants. Les chercheurs ont facturé cela comme "l'effet réplicant" - un clin d'œil au film "Blade Runner".
« Les participants recherchaient des indices qui semblaient mécaniques par rapport à un langage plus humain et émotionnel, " dit Maurice Jakesch, doctorant en sciences de l'information à Cornell Tech et auteur principal de « AI-Mediated Communication:How the Perception that Profile Text was Written by AI Affects Trustworthiness, " qui sera présenté à la conférence ACM sur les facteurs humains dans les systèmes informatiques, du 4 au 9 mai à Glasgow, Écosse.
"Ils avaient leurs propres théories sur ce à quoi ressemblerait un profil généré par l'IA, " a déclaré Jakesch. " S'il y avait de graves fautes d'orthographe dans un profil, ils diraient que c'est plus humain, alors que si le profil de quelqu'un avait l'air décousu ou insensé, ils ont supposé que c'était l'IA."
L'IA est sur le point de révolutionner les technologies du langage naturel et la façon dont les humains interagissent les uns avec les autres. Les gens font déjà l'expérience d'une communication médiée par l'IA :Gmail analyse le contenu de nos e-mails entrants et génère des suggestions, "réponses intelligentes en un clic, " et une nouvelle génération d'aides à l'écriture corrige non seulement nos fautes d'orthographe, mais affine notre style d'écriture.
"Nous commençons à voir les premiers exemples d'intelligence artificielle fonctionner comme un médiateur entre les humains, mais c'est une question de :'Est-ce que les gens veulent ça ?' ", a déclaré Jakesch. "Nous pourrions nous retrouver dans une situation où la communication via l'IA est si répandue qu'elle devient une partie de la façon dont les gens évaluent ce qu'ils voient en ligne."
Dans l'étude, les chercheurs ont cherché à savoir si les utilisateurs font confiance aux représentations algorithmiquement optimisées ou générées, notamment sur les places de marché en ligne. L'équipe a mené trois expériences, enrôlant des centaines de participants sur Amazon Mechanical Turk pour évaluer le réel, profils Airbnb générés par l'homme. Dans certains cas, les participants ont été amenés à croire que certains ou tous les profils avaient été générés par un système d'IA automatisé. Les participants ont ensuite été invités à attribuer à chaque profil un score de fiabilité.
Lorsqu'on leur a dit qu'ils affichaient soit tous les profils générés par l'homme, soit tous les profils générés par l'IA, les participants ne semblaient pas faire plus confiance à l'un qu'à l'autre. Ils ont évalué les profils générés par l'homme et l'IA à peu près de la même manière.
Mais cela a changé lorsque les participants ont été informés qu'ils consultaient un ensemble mixte de profils. Laissé à décider si les profils qu'ils lisaient ont été écrits par un humain ou un algorithme, les utilisateurs se méfiaient de ceux qu'ils croyaient être générés par des machines.
"Plus les participants pensaient qu'un profil était généré par l'IA, moins ils avaient tendance à faire confiance à l'hôte, même si les profils qu'ils ont évalués ont été écrits par les hôtes réels, " ont écrit les auteurs.
Qu'y a-t-il de si mauvais dans l'utilisation de la communication médiatisée par l'IA ? Comme l'a dit un participant à l'étude, Les profils générés par l'IA "peuvent être pratiques mais aussi un peu paresseux. Ce qui me fait me demander pourquoi ils seront paresseux d'autre."
Alors que l'IA devient de plus en plus courante et puissante, directives fondamentales, l'éthique et la pratique deviennent vitales, les chercheurs ont dit. Leurs résultats suggèrent qu'il existe des moyens de concevoir des outils de communication d'IA qui améliorent la confiance des utilisateurs humains. Pour commencer, Jakesch a dit, les entreprises pourraient ajouter un emblème sur tous les textes produits par l'IA, comme certains médias l'utilisent déjà sur le contenu créé par algorithme. Les lignes directrices et les normes de conception et de politique pour l'utilisation de la communication médiatisée par l'IA valent la peine d'être explorées maintenant, il ajouta.
« La valeur de ces technologies dépendra de la façon dont elles sont conçues, comment ils sont communiqués aux gens et si nous sommes en mesure d'établir un écosystème sain autour d'eux, " a-t-il déclaré. " Cela s'accompagne d'une série de nouvelles questions éthiques :est-il acceptable que mon assistant algorithmique génère une version plus éloquente de moi ? Est-il acceptable qu'un algorithme dise bonsoir à mes enfants en mon nom ? Ce sont des questions qui doivent être discutées."
L'article a été co-écrit avec Mor Naaman, professeur agrégé de sciences de l'information au Jacobs Technion-Cornell Institute de Cornell Tech; Xiao Ma, un doctorant en sciences de l'information à Cornell Tech; et Megan French et Jeffrey T. Hancock de Stanford.