Talal Rahwan, professeur agrégé d'informatique à NYU Abu Dhabi. Crédit :NYU Abu Dhabi
Les récentes percées technologiques en intelligence artificielle ont permis aux machines, ou des robots, passer pour des humains. Une équipe de chercheurs dirigée par Talal Rahwan, professeur agrégé d'informatique à NYU Abu Dhabi, a mené une expérience pour étudier comment les gens interagissent avec des bots qu'ils croient être humains, et comment ces interactions sont affectées une fois que les robots révèlent leur identité. Les chercheurs ont découvert que les robots sont plus efficaces que les humains lors de certaines interactions homme-machine, mais seulement s'ils sont autorisés à cacher leur nature non humaine.
Dans leur article intitulé "Behavioral Evidence for a Transparency-Efficiency Tradeoff in Human-Machine Cooperation" publié dans Nature Machine Intelligence , les chercheurs ont présenté leur expérience dans laquelle les participants ont été invités à jouer à un jeu de coopération avec un associé humain ou un associé bot. Ce jeu, appelé le dilemme du prisonnier itéré, a été conçu pour capturer des situations dans lesquelles chacune des parties en interaction peut soit agir de manière égoïste pour tenter d'exploiter l'autre, ou agir en coopération pour tenter d'atteindre un résultat mutuellement bénéfique.
Surtout, les chercheurs ont donné à certains participants des informations incorrectes sur l'identité de leur associé. Certains participants qui ont interagi avec un humain ont été informés qu'ils interagissaient avec un bot, et vice versa. A travers cette expérience, les chercheurs ont pu déterminer si les gens ont des préjugés contre des partenaires sociaux qu'ils croient être des robots, et évaluer dans quelle mesure un tel préjudice, s'il existe, affecte l'efficacité des robots qui sont transparents sur leur nature non humaine.
Les résultats ont montré que les robots se faisant passer pour des humains étaient plus efficaces pour persuader le partenaire de coopérer dans le jeu. Cependant, dès que leur vraie nature a été révélée, les taux de coopération ont chuté et la supériorité des bots a été annulée.
« Bien qu'il existe un large consensus sur le fait que les machines doivent être transparentes sur la façon dont elles prennent des décisions, il est moins clair s'ils doivent être transparents sur qui ils sont, " dit Rahwan.
"Envisager, par exemple, Google Duplex, un assistant vocal automatisé capable de générer un discours de type humain pour passer des appels téléphoniques et prendre des rendez-vous au nom de son utilisateur. Le discours de Google Duplex est si réaliste que la personne de l'autre côté du téléphone peut même ne pas se rendre compte qu'elle parle à un bot. Est-ce éthique de développer un tel système ? Devrions-nous interdire aux robots de se faire passer pour des humains, et les forcer à être transparents sur qui ils sont ? Si la réponse est oui', Ensuite, nos conclusions soulignent la nécessité d'établir des normes pour le coût d'efficacité que nous sommes prêts à payer en échange d'une telle transparence. »