Professeur Thomas Muller. Crédit :Ulrike Sommer
Le professeur Thomas Müller et le professeur Hans Briegel mènent depuis plusieurs années des recherches sur un modèle d'apprentissage automatique qui diffère considérablement des modèles d'apprentissage alternatifs de l'intelligence artificielle (IA). Le philosophe de Constance et le physicien théoricien de l'Université d'Innsbruck ont intégré des méthodes de théorie de l'action philosophique et d'optique quantique. Leur modèle d'apprentissage « Simulation Projective » a déjà été appliqué avec succès en recherche fondamentale.
Avec la physicienne d'Innsbruck Dr. Katja Ried, les chercheurs ont maintenant adapté ce modèle d'IA pour une application réaliste aux systèmes biologiques. Le numéro actuel de la revue scientifique PLoS Un explique comment le modèle d'apprentissage peut être utilisé pour modéliser et reproduire le comportement d'essaimage spécifique des criquets.
Demande de modèles « plus proches de la biologie »
Pour mener à bien leurs recherches collaboratives interdisciplinaires, les scientifiques ont utilisé des données sur le comportement des criquets du Center for the Advanced Study of Collective Behavior de Constance, qui mène des recherches sur les comportements collectifs. Les biologistes en particulier demandent que les modèles expliquant le comportement collectif soient conçus pour être « plus proches de la biologie ».
La plupart des modèles actuels ont été conçus par des physiciens qui supposent que les individus en interaction sont influencés par une force physique. Par conséquent, ils ne perçoivent pas nécessairement les individus au sein des essaims comme des agents, mais plutôt, comme des points tels que des unités d'aimantation en interaction sur une grille. "Les modèles fonctionnent bien en physique et y ont une bonne base empirique. Cependant, ils ne modélisent pas l'interaction entre individus vivants, " dit Thomas Muller.
Les règles de l'IA permettent aux agents d'apprendre
La simulation projective est un modèle d'apprentissage développé à l'origine par Hans Briegel et basé sur des agents qui ne réagissent pas aux événements de manière préprogrammée. Au lieu, ils sont capables d'apprendre. Ces « agents d'apprentissage » sont codés comme des individus ayant des dispositions comportementales différentes qui interagissent avec leur environnement en percevant et en réagissant aux entrées sensorielles. Dans ce but, ils suivent les règles de l'IA qui leur permettent d'utiliser leurs expériences individuelles précédentes pour ajuster leurs actions.
D'un côté, ce processus d'apprentissage implique des processus aléatoires basés sur la physique quantique au cours desquels tous les plans d'action potentiels sont considérés. D'autre part, le principe de la théorie de l'action de l'apprentissage par renforcement entre en jeu, qui est basé sur la récompense de certains résultats. "Nous donnons une récompense si l'agent se déplace avec les autres de manière bien ordonnée. Dans le temps, un agent réalise :en percevant certaines choses, il vaut mieux réagir d'une manière qui mènera à une récompense. Nous ne préréglons pas le bon plan d'action dans une situation particulière, mais nous veillons à ce qu'il soit atteint grâce à l'interaction entre les agents, " explique Thomas Müller.
Le modèle d'apprentissage peut reproduire un comportement collectif
Thomas Muller, Katja Ried et Hans Briegel ont appliqué ce modèle d'apprentissage au comportement d'essaimage spécifique et bien documenté d'un criquet. Dans un espace confiné, le comportement de mouvement de l'insecte correspond à la taille de l'essaim. S'il n'y a que quelques individus, les criquets se déplacent de façon désordonnée. En plus grand nombre, ils se déplacent ensemble comme une unité. En très grand nombre, ils se déplacent comme une unité et dans la même direction. Étant donné que les chercheurs étaient initialement intéressés à simplement tester leur modèle d'apprentissage, ils ont utilisé une description qualitative du comportement des criquets au lieu de données brutes. De cette façon, ils étaient, En réalité, capable de reproduire qualitativement le comportement des criquets.
Regarder vers l'avant, Thomas Müller pense que les futures recherches dans ce domaine bénéficieront de grands ensembles de données sur les animaux, comme les bancs de poissons avec leurs schémas comportementaux dynamiques. "Modéliser des poissons serait probablement une prochaine étape bonne mais aussi très compliquée pour rendre notre modèle d'apprentissage encore plus réaliste, " conclut Müller.