Logo Wikipédia.
Depuis son lancement en 2001, Wikipédia est devenu un vaste référentiel de connaissances humaines, avec 40 millions d'articles écrits en collaboration et près de 500 millions d'utilisateurs mensuels. Maintenir ce projet nécessite plus de 137, 000 rédacteurs bénévoles—et, de plus en plus, une armée d'automates, Outils logiciels alimentés par l'IA, connu sous le nom de bots, qui parcourent continuellement le site Web pour éliminer les indésirables, ajouter et baliser des pages, réparer les liens brisés, et amadouer les contributeurs humains à faire mieux.
Chercheurs du Stevens Institute of Technology, à Hoboken, NEW JERSEY., ont maintenant terminé la première analyse de tous les 1, 601 des bots de Wikipédia, en utilisant des algorithmes informatiques pour les classer par fonction et faire la lumière sur la façon dont l'intelligence des machines et les utilisateurs humains travaillent ensemble pour améliorer et étendre la plus grande encyclopédie numérique au monde. L'oeuvre, Publié dans Actes de l'ACM sur l'interaction homme-machine , pourrait éclairer le développement et l'utilisation de robots dans des applications commerciales allant du service client en ligne à la conception automatisée de puces électroniques.
« L'IA change la façon dont nous produisons des connaissances, et Wikipédia est l'endroit idéal pour étudier cela, " a déclaré Jeffrey Nickerson, professeur à la School of Business de Stevens et l'un des auteurs de l'étude. "À l'avenir, nous travaillerons tous aux côtés des technologies d'IA, et ce type de recherche nous aidera à façonner et à façonner les robots en des outils plus efficaces."
En tirant parti de la transparence et de la tenue de dossiers détaillée de Wikipédia, Nickerson a utilisé des algorithmes de classification automatisés pour cartographier chaque fonction de bot dans le cadre d'un réseau interconnecté. En étudiant les lieux de regroupement des fonctions, l'équipe a identifié les rôles des bots comme « réparateurs, " qui réparent les contenus cassés ou effacent le vandalisme ; " les connecteurs, " qui relient les pages et les ressources entre elles ; " les protecteurs, " qui contrôlent les mauvais comportements ; et " les conseillers, " qui suggèrent de nouvelles activités et fournissent des conseils utiles.
Au total, les bots jouent neuf rôles principaux sur Wikipédia, représentant environ 10 pour cent de toute l'activité sur le site, et jusqu'à 88 % de l'activité sur certaines sous-sections telles que la plateforme Wikidata du site. La majeure partie de cette activité provient de plus de 1, 200 robots fixateurs, qui ont collectivement effectué plus de 80 millions de modifications sur le site. Les robots-conseillers et les robots-protecteurs, par contre, sont moins prolifiques, mais jouent un rôle vital dans l'élaboration des interactions des éditeurs humains avec Wikipédia.
Les nouveaux membres des communautés en ligne sont plus susceptibles de rester s'ils sont accueillis par d'autres membres, mais Nickerson et son équipe ont découvert que les nouveaux utilisateurs de Wikipédia qui interagissaient avec des robots conseillers et protecteurs étaient beaucoup plus susceptibles de devenir des contributeurs à long terme que ceux accueillis par les humains. Cela restait vrai même lorsque les bots contactaient les utilisateurs pour signaler des erreurs ou supprimer leurs contributions, tant que les robots étaient cordiaux et clairs sur leurs raisons.
"Les gens ne craignent pas d'être critiqués par les bots, tant qu'ils sont polis à ce sujet, " dit Nickerson, dont l'équipe comprend Feng Mai, l'étudiant diplômé Lei (Nico) Zheng et les étudiants de premier cycle Christopher Albano et Neev Vora. « Les mécanismes de transparence et de rétroaction de Wikipédia aident les gens à accepter les bots comme des membres légitimes de la communauté. »
Heures supplémentaires, certains bots sont tombés en désuétude tandis que d'autres se sont développés et ont endossé de nouveaux rôles. Étudier l'évolution des bots, et les façons dont les politiques définies par l'homme façonnent l'écosystème des bots, reste un domaine prometteur pour de futures recherches. "Allons-nous vers un monde avec une poignée de super-bots polyvalents, ou un avec plein de bots plus spécialisés ? On ne sait pas encore, " a déclaré Nickerson.
Une chose est claire, cependant :les bots de Wikipédia, et les systèmes de gouvernance et de retour d'expérience qui ont vu le jour autour d'eux, offrent des cours pour les constructeurs de robots commerciaux. "Les choses que nous voyons sur Wikipédia pourraient être un signe avant-coureur de choses à venir dans de nombreuses industries et professions différentes, " a déclaré Nickerson. " En étudiant Wikipédia, nous pouvons préparer l'avenir, et apprenez à créer des outils d'IA qui améliorent à la fois notre productivité et la qualité de notre travail."