Crédit :CC0 Domaine Public
Le jeu de cartes Hanabi a été relevé comme un défi par l'IA de Facebook, et c'est tout un défi étant donné qu'ils entrent dans un domaine où jouer n'est pas seulement une question d'adversaire en battant un autre, mais un jeu de cartes « coopératif » où une équipe concurrente s'entraide.
Jonathan Vanian, Fortune , a guidé les lecteurs à travers le jeu en guise d'introduction :
"... :des équipes de deux à cinq joueurs reçoivent des cartes aléatoires de différentes couleurs et numéros qui représentent des points. Le but pour les équipes est de poser les cartes sur une table, regroupés par couleur, dans le bon ordre numérique. Le problème, cependant, est que les joueurs ne peuvent pas voir leurs propres cartes alors que leurs coéquipiers le peuvent. Un joueur peut donner des indices à un autre, comme faire une remarque sur une certaine couleur, cela inciterait l'autre à faire quelque chose comme jouer ou jeter une carte. Le dilemme est que le joueur doit déduire ce que signifie l'indice de son coéquipier."
Les dirigeants d'entreprise ont montré un penchant pour Hanabi comme une expérience d'apprentissage de renforcement d'équipe ; il a maintenant attiré l'attention des chercheurs en IA qui envisagent de créer des systèmes d'IA exceptionnels.
"Attendre des scores presque parfaits sur un obscur jeu de cartes français est génial et tout sauf Facebook a de plus grands projets pour son IA coopérative, " mentionné Engagé .
Chercheur Facebook, Tom Lerer, a été cité dans Engagé :"Ce que nous examinons, ce sont des agents artificiels qui peuvent mieux raisonner sur les interactions coopératives avec les humains et les chatbots qui peuvent expliquer pourquoi la personne avec qui ils discutent a dit ce qu'ils ont fait... Des chatbots qui peuvent mieux raisonner sur pourquoi les gens dire ce qu'ils font sans avoir à énumérer chaque détail de ce qu'ils demandent est une application très simple de ce type de technique de recherche.
Quelles stratégies d'IA les chercheurs ont-ils mises en œuvre ?
Vanian a identifié une technique de recherche précédemment utilisée par DeepMind; il permet à plusieurs robots Hanabi d'évaluer plusieurs options de jeu tout en partageant des informations entre eux. Combiné à un apprentissage par renforcement, les robots Facebook ont appris à jouer à Hanabi entre eux.
Les auteurs à l'origine de cette enquête ont écrit un article discutant de leur travail et l'article est sur arXiv (publié dans le Intelligence artificielle journal). "The Hanabi Challenge:A New Frontier for AI Research" est le titre de l'article, et les auteurs ont déclaré qu'ils considéraient Hanabi comme un "domaine de défi avec de nouveaux problèmes qui découlent de sa combinaison de gameplay purement coopératif et d'informations imparfaites dans un cadre de deux à cinq joueurs".
Les auteurs ont remarqué qu'il est mieux décrit comme un type de solitaire en équipe et que les informations imparfaites du jeu proviennent du fait que chaque joueur est incapable de voir ses propres cartes (celles qu'il détient et sur lesquelles il peut agir), dont chacun a une couleur et un rang.
Pour des résultats de recherche reproductibles, les auteurs ont publié un environnement Hanabi RL open source appelé Hanabi Learning Environment écrit en Python et C++.
Ailleurs mais pertinents pour leurs objectifs dans la recherche reproductible, Jérôme Pesenti, vice-président AI chez Facebook, était dans un récent Q&A avec Will Knight dans Filaire .
Knight a demandé à Pesenti de recréer des recherches révolutionnaires.
"C'est quelque chose qui passionne l'IA de Facebook, " dit Pesenti. " Quand les gens font des choses qui ne sont pas reproductibles, cela crée beaucoup de défis. Si vous ne pouvez pas le reproduire, c'est beaucoup d'investissements perdus... La beauté de l'IA est qu'il s'agit en fin de compte de systèmes gérés par des ordinateurs. C'est donc un candidat de choix, en tant que sous-domaine de la science, être reproductible. Nous pensons que l'avenir de l'IA sera quelque chose où elle sera reproductible presque par défaut. Nous essayons d'ouvrir la plupart du code que nous produisons en IA, afin que d'autres personnes puissent construire dessus."
Les auteurs, dans leur papier, avoir une section avec la croix "Hanabi:The Benchmark."
Cet effort de recherche consiste à utiliser Hanabi comme un problème de référence difficile pour l'IA. Des propriétés uniques le distinguent des autres références. "C'est un problème d'apprentissage multi-agents, contrairement à, par exemple, l'environnement d'apprentissage Arcade. C'est aussi un jeu d'information imparfait, où les joueurs ont une connaissance asymétrique de l'état de l'environnement, ce qui rend le jeu plus proche du poker que des échecs, jacquet, ou aller."
Andrew Tarantola dans Engagé relevé sur ce point. La vie dans le monde réel n'est pas un jeu à somme nulle comme le poker ou Starcraft, il a dit, "et nous avons besoin de l'IA pour travailler avec nous, pas contre nous."
Deux Engagé les commentaires des lecteurs n'ont pas montré d'admiration pour ce qui a été accompli jusqu'à présent. "Je suis sûr que le fait de savoir comment les humains jouent habituellement à un seul jeu de cartes et la connaissance générale des intentions humaines sont deux choses très différentes, " a déclaré l'un. Un autre a déclaré que " l'identification des modèles d'action est loin de la théorie de l'esprit ... Vous pourriez discuter s'ils tentent d'attribuer la théorie de l'esprit, leur précision a besoin de travail."
© 2019 Réseau Science X