Une sélection de résultats utilisant la méthode des chercheurs pour générer des comportements d'interaction de scène. Crédit :SIGGRAPH Asie
Un élément clé pour donner vie aux personnages animés en 3D est la possibilité de représenter leurs mouvements physiques naturellement dans n'importe quelle scène ou environnement.
Animer des personnages pour interagir naturellement avec les objets et l'environnement nécessite de synthétiser différents types de mouvements de manière complexe, et de tels mouvements peuvent différer grandement non seulement dans leurs postures, mais aussi dans leur durée, modèles de contact, et les transitions possibles. À ce jour, la plupart des méthodes basées sur l'apprentissage automatique pour le contrôle convivial du mouvement des personnages se sont limitées à des actions plus simples ou à des mouvements uniques, comme commander à un personnage animé de se déplacer d'un point à un autre.
Des informaticiens de l'Université d'Edimbourg et d'Adobe Research, l'équipe de chercheurs et d'ingénieurs de l'entreprise transformant les idées initiales en technologies innovantes, ont développé un roman, technique basée sur les données qui utilise des réseaux de neurones profonds pour guider avec précision les personnages animés en déduisant une variété de mouvements - assis sur des chaises, ramasser des objets, fonctionnement, faire un pas de côté, grimper à travers les obstacles et les portes - et y parvient de manière conviviale avec des commandes de contrôle simples.
Les chercheurs présenteront leur travail, Machine à états neuronal pour les interactions personnage-scène, chez ACM SIGGRAPH Asie, tenue du 17 au 20 novembre à Brisbane, Australie. SIGGRAPH Asie, maintenant dans sa 12e année, attire les personnes techniques et créatives les plus respectées du monde entier en infographie, animation, interactivité, jeu, et les technologies émergentes.
Animer les interactions personnage-scène avec les objets et l'environnement, il y a deux aspects principaux - la planification et l'adaptation - à considérer, disent les chercheurs. D'abord, pour accomplir une tâche donnée, comme s'asseoir sur des chaises ou ramasser des objets, le personnage doit planifier et faire la transition à travers un ensemble de mouvements différents. Par exemple, cela peut inclure commencer à marcher, ralentir, se retourner tout en plaçant les pieds avec précision et en interagissant avec l'objet, avant de finalement passer à une autre action. Seconde, le personnage doit naturellement adapter le mouvement aux variations de forme et de taille des objets, et éviter les obstacles sur son chemin.
"Atteindre cela avec une qualité prête pour la production n'est pas simple et prend beaucoup de temps. Notre Neural State Machine apprend à la place le mouvement et les transitions d'état requises directement à partir de la géométrie de la scène et d'une action d'objectif donnée, " dit Sebastian Starke, auteur principal de la recherche et titulaire d'un doctorat. étudiant à l'Université d'Édimbourg dans le laboratoire de Taku Komura. "Ainsi que, notre méthode est capable de produire plusieurs types différents de mouvements et d'actions de haute qualité à partir d'un seul réseau."
En utilisant les données de capture de mouvement, le cadre des chercheurs apprend à faire passer le personnage le plus naturellement d'un mouvement à l'autre - par exemple être capable d'enjamber un obstacle bloquant une porte, puis franchissant la porte, ou ramasser une boîte, puis porter cette boîte pour la poser sur une table ou un bureau à proximité.
La technique déduit la prochaine pose du personnage dans la scène en fonction de sa pose précédente et de la géométrie de la scène. Un autre élément clé du cadre des chercheurs est qu'il permet aux utilisateurs de contrôler et de naviguer de manière interactive dans le personnage à partir de commandes de contrôle simples. En outre, il n'est pas nécessaire de conserver toutes les données originales capturées, qui à la place est fortement compressé par le réseau tout en conservant le contenu important des animations.
"La technique imite essentiellement comment un humain se déplace intuitivement à travers une scène ou un environnement et comment il interagit avec les objets, de façon réaliste et précise, " dit Komura, co-auteur et chaire d'infographie à l'Université d'Édimbourg.
En bas de la route, les chercheurs ont l'intention de travailler sur d'autres problèmes liés à l'animation de personnages basée sur les données, y compris les mouvements où plusieurs actions peuvent se produire simultanément, ou animer des interactions de personnages proches entre deux humains ou même des foules.