Les assistants personnels d'aujourd'hui peuvent comprendre ce que vous dites, mais s'ils pouvaient déduire ce que vous pensiez en fonction de vos actions ? Une équipe de chercheurs universitaires et industriels dirigée par l'Université Carnegie Mellon travaille à la création d'agents artificiellement intelligents dotés de cette compétence sociale.
L'objectif du quadriennal, Projet de 6,6 millions de dollars, dirigé par Katia Sycara du Robotics Institute de la CMU et parrainé par la Defense Advanced Research Projects Agency (DARPA), est d'utiliser l'intelligence sociale machine pour aider les équipes homme-machine à travailler ensemble en toute sécurité, de manière efficace et productive. Le projet comprend des experts en facteurs humains et des neuroscientifiques de l'Université de Pittsburgh et de Northrop Grumman.
"L'idée est que la machine essaie de déduire ce que les gens pensent en fonction de leur comportement, " dit Sycara, un professeur de recherche qui a passé des décennies à développer des agents logiciels. « La personne est-elle confuse ? Fait-elle attention à ce qui est nécessaire ? Sont-elles surchargées ? » Dans certains cas, l'agent logiciel peut même être en mesure de déterminer qu'un coéquipier fait des erreurs à cause de la désinformation ou du manque de formation, elle a ajouté.
Les humains ont la capacité de déduire les états mentaux des autres, appelée théorie de l'esprit - quelque chose que les gens font dans le cadre de la conscience de la situation tout en évaluant leur environnement et en envisageant des actions possibles. Les systèmes d'IA ne sont pas encore capables de cette compétence, mais Sycara et ses collègues espèrent y parvenir grâce au méta-apprentissage, une branche de l'apprentissage automatique dans laquelle l'agent logiciel apprend essentiellement à apprendre.
Crédit :Université Carnegie Mellon
En plus de Sycara, l'équipe comprend trois co-chercheurs principaux :Changliu Liu, professeur adjoint à l'Institut de robotique ; Michael Lewis, professeur à la Pitt's School of Computing and Information; et Ryan McKendrick, un scientifique cognitif à Northrop Grumman.
L'équipe de recherche testera ses agents socialement intelligents dans un scénario de recherche et de sauvetage dans le monde virtuel du jeu vidéo Minecraft, dans un banc d'essai développé avec des chercheurs de l'Arizona State University. La première année, les chercheurs se concentreront sur la formation de leur agent logiciel pour déduire l'état d'esprit d'un membre individuel de l'équipe. Dans les années suivantes, l'agent va interagir avec plusieurs acteurs humains et tenter de comprendre ce que chacun d'eux pense, même si leur environnement virtuel change.
Les agents logiciels sont des programmes autonomes qui peuvent percevoir leur environnement et prendre des décisions. En plus des assistants personnels numériques, les exemples vont des programmes qui exploitent des voitures autonomes à ceux qui font apparaître des publicités dans les e-mails pour des produits pour lesquels l'utilisateur a exprimé son intérêt. Les agents peuvent également être utilisés pour aider les personnes avec des tâches complexes, tels que la planification et la logistique.
La DARPA parraine le projet par le biais de son programme d'intelligence sociale artificielle pour les équipes performantes (ASIST).