• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Un algorithme inspiré du cerveau aide les systèmes d'IA à effectuer plusieurs tâches et à se souvenir

    Les neuroscientifiques d'UCicago ont découvert que l'adaptation d'un mécanisme cérébral peut améliorer la capacité des réseaux de neurones artificiels à apprendre plusieurs tâches. Crédit :istockphoto.com

    Derrière la plupart des technologies d'intelligence artificielle d'aujourd'hui, des voitures autonomes à la reconnaissance faciale et aux assistants virtuels, se trouvent des réseaux de neurones artificiels. Bien que basé vaguement sur la façon dont les neurones communiquent dans le cerveau, ces systèmes "d'apprentissage en profondeur" restent incapables de nombreuses fonctions de base qui seraient essentielles pour les primates et autres organismes.

    Cependant, une nouvelle étude menée par des neuroscientifiques de l'Université de Chicago a révélé que l'adaptation d'un mécanisme cérébral bien connu peut considérablement améliorer la capacité des réseaux de neurones artificiels à apprendre plusieurs tâches et à éviter le défi persistant de l'IA de « l'oubli catastrophique ». L'étude, Publié dans Actes de l'Académie nationale des sciences , fournit un exemple unique de la façon dont la recherche en neurosciences peut éclairer de nouvelles stratégies informatiques, et, inversement, comment la technologie de l'IA peut aider les scientifiques à mieux comprendre le cerveau humain.

    Lorsqu'il est combiné avec des méthodes précédemment rapportées pour stabiliser les connexions synaptiques dans les réseaux de neurones artificiels, le nouvel algorithme a permis à des réseaux de neurones artificiels uniques d'apprendre et d'effectuer des centaines de tâches avec une perte de précision minimale, permettant potentiellement des technologies d'IA plus puissantes et plus efficaces.

    "Intuitivement, vous pourriez penser que plus vous voulez qu'un réseau connaisse de tâches, plus le réseau doit être grand, " a déclaré David Freedman, professeur de neurobiologie à UChicago. "Mais le cerveau suggère qu'il existe probablement un moyen efficace de rassembler beaucoup de connaissances dans un réseau assez petit. Lorsque vous regardez les parties du cerveau impliquées dans les fonctions cognitives supérieures, vous avez tendance à trouver que les mêmes zones, même les mêmes cellules, participer à de nombreuses fonctions différentes. L'idée était de s'inspirer de ce que fait le cerveau afin de résoudre les problèmes des réseaux de neurones."

    Dans les réseaux de neurones artificiels, « l'oubli catastrophique » fait référence à la difficulté d'apprendre au système à exécuter de nouvelles compétences sans perdre les fonctions apprises précédemment. Par exemple, si un réseau initialement formé pour faire la distinction entre les photos de chiens et de chats est ensuite réformé pour faire la distinction entre les chiens et les chevaux, il perdra sa capacité antérieure.

    « Si vous montrez à un réseau de neurones entraîné une nouvelle tâche, il oubliera complètement sa tâche précédente, " a déclaré Gregory Grant, AB'18, qui est maintenant chercheur au laboratoire Freedman. "Ça dit, 'Je n'ai pas besoin de cette information, ' et l'écrase. C'est un oubli catastrophique. Cela arrive très vite; en quelques itérations, votre tâche précédente pourrait être complètement anéantie."

    Par contre, le cerveau est capable "d'apprentissage continu, " acquérir de nouvelles connaissances sans éliminer les vieux souvenirs, même lorsque les mêmes neurones sont utilisés pour plusieurs tâches. Une stratégie que le cerveau utilise pour ce défi d'apprentissage est l'activation sélective de cellules ou de composants cellulaires pour différentes tâches - essentiellement en allumant plus petit, des sous-réseaux qui se chevauchent pour chaque compétence individuelle, ou dans des contextes différents.

    Les chercheurs d'UCicago ont adapté ce mécanisme neuroscientifique aux réseaux de neurones artificiels grâce à un algorithme qu'ils ont appelé « gating dépendant du contexte ». Pour chaque nouvelle tâche apprise, seuls 20 % aléatoires d'un réseau de neurones sont activés. Une fois le réseau formé sur des centaines de tâches différentes, un seul nœud peut être impliqué dans des dizaines d'opérations, mais avec un ensemble unique de pairs pour chaque compétence individuelle.

    Lorsqu'il est combiné avec des méthodes précédemment développées par les chercheurs de Google et de Stanford, le déclenchement dépendant du contexte a permis aux réseaux d'apprendre jusqu'à 500 tâches avec seulement une petite diminution de la précision.

    "C'était un peu surprenant que quelque chose d'aussi simple fonctionne si bien, " a déclaré Nicolas Massé, chercheur postdoctoral au laboratoire Freedman. "Mais avec cette méthode, un réseau de taille assez moyenne peut être divisé de plusieurs manières pour pouvoir apprendre de nombreuses tâches différentes si elles sont effectuées correctement."

    En tant que tel, l'approche a probablement un grand potentiel dans l'industrie croissante de l'IA, où les entreprises développant des véhicules autonomes, la robotique et d'autres technologies intelligentes doivent intégrer des capacités d'apprentissage complexes dans des ordinateurs grand public. L'équipe UChicago travaille actuellement avec le Polsky Center for Entrepreneurship and Innovation pour explorer les options de commercialisation de l'algorithme.

    La recherche informatique profite également à l'objectif initial du laboratoire de mieux comprendre le cerveau des primates en enregistrant son activité au fur et à mesure que les animaux apprennent et se comportent. Modéliser et tester des stratégies qui permettent l'apprentissage, attention, le traitement sensoriel et d'autres fonctions dans un ordinateur peuvent motiver et suggérer de nouvelles expériences biologiques qui sondent les mécanismes de l'intelligence à la fois naturelle et artificielle, les chercheurs ont dit.

    « L'ajout de cette composante de recherche au laboratoire a vraiment ouvert beaucoup de portes en nous permettant de réfléchir à de nouveaux types de problèmes, de nouveaux types de sujets et de problèmes en neurosciences que nous ne pouvons normalement pas vraiment traiter en utilisant les techniques expérimentales actuellement disponibles en laboratoire, " Freedman a déclaré. "Nous espérons que c'est le point de départ pour davantage de travail en laboratoire pour à la fois identifier ces principes et aider à créer des réseaux artificiels qui continuent d'apprendre et de s'appuyer sur les connaissances antérieures. "


    © Science https://fr.scienceaq.com