• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Framework améliore l'apprentissage continu pour l'intelligence artificielle

    Crédit :SilverBlu3

    Les chercheurs ont développé un nouveau cadre pour les réseaux de neurones profonds qui permet aux systèmes d'intelligence artificielle (IA) de mieux apprendre de nouvelles tâches tout en "oubliant" moins ce qu'ils ont appris concernant les tâches précédentes. Les chercheurs ont également démontré que l'utilisation du cadre pour apprendre une nouvelle tâche peut améliorer l'IA dans l'exécution des tâches précédentes, un phénomène appelé transfert vers l'arrière.

    « Les gens sont capables d'apprendre continuellement ; nous apprenons de nouvelles tâches tout le temps, sans oublier ce que nous savons déjà, " dit Tianfu Wu, un professeur assistant de génie électrique et informatique à NC State et co-auteur d'un article sur le travail. "À ce jour, Les systèmes d'IA utilisant des réseaux de neurones profonds n'ont pas été très bons dans ce domaine."

    "Les systèmes d'IA de réseau de neurones profonds sont conçus pour apprendre des tâches étroites, " dit Xilai Li, un co-auteur principal de l'article et un doctorat. candidat à l'état NC. "Par conséquent, l'une des nombreuses choses peut se produire lors de l'apprentissage de nouvelles tâches. Les systèmes peuvent oublier les anciennes tâches lorsqu'ils en apprennent de nouvelles, ce qu'on appelle l'oubli catastrophique. Les systèmes peuvent oublier certaines des choses qu'ils savaient sur les anciennes tâches, tout en n'apprenant pas à en faire de nouveaux. Ou les systèmes peuvent corriger d'anciennes tâches tout en ajoutant de nouvelles tâches, ce qui limite l'amélioration et conduit rapidement à un système d'IA trop volumineux pour fonctionner efficacement. Apprentissage continu, aussi appelé apprentissage tout au long de la vie ou apprendre à apprendre, essaie de résoudre le problème."

    "Nous avons proposé un nouveau cadre pour l'apprentissage continu, qui découple l'apprentissage de la structure du réseau et l'apprentissage des paramètres du modèle, " dit Yingbo Zhou, co-auteur principal de l'article et chercheur scientifique à Salesforce Research. "Nous l'appelons le framework Learn to Grow. Dans les tests expérimentaux, nous avons constaté qu'il surpasse les approches précédentes de l'apprentissage continu."

    Pour comprendre le cadre Learn to Grow, Pensez aux réseaux de neurones profonds comme à un tuyau rempli de plusieurs couches. Les données brutes vont dans le haut du tuyau, et les sorties de tâches sortent en bas. Chaque "couche" dans le tuyau est un calcul qui manipule les données afin d'aider le réseau à accomplir sa tâche, comme l'identification d'objets dans une image numérique. Il existe plusieurs façons d'organiser les couches dans le tuyau, qui correspondent à différentes "architectures" du réseau.

    Lorsque vous demandez à un réseau de neurones profonds d'apprendre une nouvelle tâche, le cadre Learn to Grow commence par effectuer ce qu'on appelle une optimisation explicite de l'architecture neuronale via la recherche. Cela signifie que lorsque le réseau arrive à chaque couche de son système, il peut décider de faire l'une des quatre choses suivantes :sauter la couche; utiliser le calque de la même manière que les tâches précédentes l'ont utilisé ; attachez un adaptateur léger à la couche, qui le modifie légèrement; ou créez un tout nouveau calque.

    Cette optimisation de l'architecture met en place efficacement la meilleure topologie, ou série de couches, nécessaires pour accomplir la nouvelle tâche. Une fois cette opération terminée, le réseau utilise la nouvelle topologie pour se former à la manière d'accomplir la tâche, comme tout autre système d'intelligence artificielle d'apprentissage en profondeur.

    "Nous avons mené des expériences en utilisant plusieurs ensembles de données, et ce que nous avons trouvé, c'est que plus une nouvelle tâche est similaire aux tâches précédentes, plus il y a de chevauchement en termes de couches existantes qui sont conservées pour effectuer la nouvelle tâche, " dit Li. " Ce qui est plus intéressant, c'est que, avec la topologie optimisée – ou « apprise » – un réseau formé pour effectuer de nouvelles tâches oublie très peu de ce dont il avait besoin pour effectuer les tâches plus anciennes, même si les tâches plus anciennes n'étaient pas similaires."

    Les chercheurs ont également mené des expériences comparant la capacité du cadre Learn to Grow à apprendre de nouvelles tâches à plusieurs autres méthodes d'apprentissage continu, et a constaté que le cadre Learn to Grow avait une meilleure précision lors de l'exécution de nouvelles tâches.

    Pour tester combien chaque réseau peut avoir oublié lors de l'apprentissage de la nouvelle tâche, les chercheurs ont ensuite testé la précision de chaque système lors de l'exécution des tâches plus anciennes - et le cadre Learn to Grow a de nouveau surpassé les autres réseaux.

    "Dans certains cas, le framework Learn to Grow s'est amélioré dans l'exécution des anciennes tâches, " dit Caiming Xiong, le directeur de recherche de Salesforce Research et co-auteur de l'ouvrage. "C'est ce qu'on appelle le transfert vers l'arrière, et se produit lorsque vous constatez que l'apprentissage d'une nouvelle tâche vous rend meilleur dans une ancienne tâche. Nous voyons cela chez les gens tout le temps; pas tellement avec l'IA."

    Le papier, « Apprendre à grandir :un cadre d'apprentissage de structure continue pour surmonter l'oubli catastrophique, " sera présenté à la 36e Conférence internationale sur l'apprentissage automatique, qui se tiendra du 9 au 15 juin à Long Beach, Californie.


    © Science https://fr.scienceaq.com