Crédit :CC0 Domaine Public
La vie quotidienne pendant une pandémie signifie une distanciation sociale et trouver de nouvelles façons de se connecter à distance avec des amis, famille et collègues de travail. Et comme nous communiquons en ligne et par SMS, l'intelligence artificielle pourrait jouer un rôle pour garder nos conversations sur la bonne voie, selon une nouvelle recherche de l'Université Cornell.
Les humains ayant des conversations difficiles ont dit qu'ils faisaient confiance aux systèmes artificiellement intelligents - les suggestions de réponses "intelligentes" dans les textes - plus qu'aux personnes à qui ils parlaient, selon une nouvelle étude, « L'IA en tant que zone de déformation morale :les effets de la communication médiatisée par l'IA sur l'attribution et la confiance, " publié en ligne dans la revue Les ordinateurs dans le comportement humain .
« Nous constatons que lorsque les choses tournent mal, les gens assument la responsabilité qui aurait autrement été attribuée à leur partenaire humain et en confient une partie au système d'intelligence artificielle, " a déclaré Jess Hohenstein, un doctorant dans le domaine des sciences de l'information et le premier auteur de l'article. "Cela introduit la possibilité de prendre l'IA et de l'utiliser comme médiateur dans nos conversations."
Par exemple, l'algorithme pourrait remarquer que les choses se dégradent en analysant le langage utilisé, puis proposer des stratégies de résolution des conflits, dit Hohenstein.
L'étude était une tentative d'explorer les innombrables façons - à la fois subtiles et significatives - dont les systèmes d'IA tels que les réponses intelligentes modifient la façon dont les humains interagissent. Choisir une réponse suggérée qui n'est pas tout à fait ce que vous aviez l'intention de dire, mais vous évite de taper, pourrait modifier fondamentalement le cours de vos conversations et de vos relations, les chercheurs ont dit.
« La communication est si fondamentale dans la façon dont nous nous percevons les uns les autres, comment nous formons et entretenons des relations, ou comment nous pouvons accomplir quoi que ce soit en travaillant ensemble, " a déclaré le co-auteur Malte Jung, professeur assistant en sciences de l'information et directeur du laboratoire Robots in Groups, qui explore comment les robots modifient la dynamique de groupe.
"Cette étude s'inscrit dans le programme plus large consistant à comprendre comment ces nouveaux systèmes d'IA perturbent notre capacité à interagir, " a déclaré Jung. "Nous pensons souvent à la façon dont la conception des systèmes affecte la façon dont nous interagissons avec eux, mais moins d'études se concentrent sur la question de savoir comment les technologies que nous développons affectent la façon dont les gens interagissent les uns avec les autres."
En plus de faire la lumière sur la façon dont les gens perçoivent et interagissent avec les ordinateurs, l'étude offre des possibilités d'améliorer la communication humaine, avec des conseils subtils et des rappels de l'IA.
Hohenstein et Jung ont déclaré qu'ils cherchaient à déterminer si l'IA pouvait fonctionner comme une "zone de déformation morale" - l'équivalent technologique de la zone de déformation d'une voiture, conçu pour se déformer afin d'absorber l'impact du crash.
"Il y a un mécanisme physique à l'avant de la voiture qui est conçu pour absorber la force de l'impact et prendre la responsabilité de minimiser les effets de l'accident, " Hohenstein a déclaré. " Ici, nous voyons le système d'IA absorber une partie de la responsabilité morale. "