• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • L'apprentissage en profondeur boucle la boucle

    Crédit :CC0 Domaine public

    Pendant des années, les personnes développant l'intelligence artificielle se sont inspirées de ce que l'on savait du cerveau humain, et il a connu beaucoup de succès en conséquence. Maintenant, L'IA commence à rendre la pareille.

    Bien qu'il ne soit pas explicitement conçu pour le faire, certains systèmes d'intelligence artificielle semblent imiter le fonctionnement interne de notre cerveau plus étroitement qu'on ne le pensait auparavant, suggérant que l'IA et nos esprits ont convergé vers la même approche pour résoudre les problèmes. Si c'est le cas, le simple fait de regarder l'IA au travail pourrait aider les chercheurs à percer certains des mystères les plus profonds du cerveau.

    "Il y a un vrai lien là-bas, " a déclaré Daniel Yamins, professeur adjoint de psychologie. Maintenant, Yamin, qui est également professeur au Stanford Neurosciences Institute et membre de Stanford Bio-X, et son laboratoire s'appuient sur cette connexion pour produire de meilleures théories du cerveau - comment il perçoit le monde, comment il passe efficacement d'une tâche à l'autre et peut-être, un jour, comment il pense.

    Un problème de vision pour l'IA

    L'intelligence artificielle emprunte au cerveau depuis ses débuts, lorsque les informaticiens et les psychologues ont développé des algorithmes appelés réseaux de neurones qui imitaient vaguement le cerveau. Ces algorithmes ont été fréquemment critiqués pour leur invraisemblance biologique – les « neurones » des réseaux de neurones étaient, après tout, simplifications grossières des vrais neurones qui composent le cerveau. Mais les informaticiens ne se souciaient pas de la plausibilité biologique. Ils voulaient juste des systèmes qui fonctionnent, ils ont donc étendu les modèles de réseaux de neurones de la manière qui rendait l'algorithme le plus apte à effectuer certaines tâches, aboutissant à ce que l'on appelle aujourd'hui l'apprentissage en profondeur.

    Puis vint une surprise. En 2012, Des chercheurs en IA ont montré qu'un réseau de neurones d'apprentissage en profondeur pouvait apprendre à identifier des objets dans des images ainsi qu'un être humain, ce qui a amené les neuroscientifiques à se demander :comment l'apprentissage en profondeur a-t-il fait cela ?

    De la même manière que le cerveau, comme il s'avère. En 2014, Yamins et ses collègues ont montré qu'un système d'apprentissage en profondeur qui avait appris à identifier des objets dans des images - presque aussi bien que les humains le pouvaient - le faisait d'une manière qui imitait étroitement la façon dont le cerveau traite la vision. En réalité, les calculs effectués par le système d'apprentissage en profondeur correspondaient à l'activité dans les circuits de traitement de la vision du cerveau considérablement mieux que tout autre modèle de ces circuits.

    Autour du même moment, d'autres équipes ont fait des observations similaires sur des parties des circuits de traitement de la vision et du mouvement du cerveau, suggérant qu'étant donné le même genre de problème, l'apprentissage en profondeur et le cerveau avaient développé des moyens similaires pour trouver une solution. Plus récemment, Yamins et ses collègues ont démontré des observations similaires dans le système auditif du cerveau.

    D'une part, ce n'est pas une grande surprise. Bien que les détails techniques diffèrent, L'organisation conceptuelle de l'apprentissage profond est directement empruntée à ce que les neuroscientifiques savaient déjà sur l'organisation des neurones dans le cerveau.

    Mais le succès de l'approche de Yamins et de ses collègues et d'autres du même genre dépend tout autant d'une autre, choix plus subtil. Plutôt que d'essayer de faire en sorte que le système d'apprentissage en profondeur corresponde directement à ce que le cerveau fait au niveau des neurones individuels, comme de nombreux chercheurs l'avaient fait, Yamins et ses collègues ont simplement posé le même problème à leur système d'apprentissage en profondeur :identifier des objets dans des images. Ce n'est qu'après avoir résolu ce problème que les chercheurs ont comparé la façon dont l'apprentissage en profondeur et le cerveau sont arrivés à leurs solutions - et ce n'est qu'alors qu'il est devenu clair que leurs méthodes étaient essentiellement les mêmes.

    "La correspondance entre les modèles et le système visuel n'est pas entièrement une coïncidence, car l'un a directement inspiré l'autre, " dit Daniel Ours, chercheur postdoctoral dans le groupe de Yamins, "mais c'est toujours remarquable que c'est une aussi bonne correspondance qu'elle l'est."

    Une des raisons probables à cela, Ours a dit, est la sélection naturelle et l'évolution. "Essentiellement, la reconnaissance d'objets était une tâche très importante sur le plan de l'évolution" pour les animaux à résoudre - et à bien résoudre, s'ils voulaient faire la différence entre quelque chose qu'ils pouvaient manger et quelque chose qui pouvait les manger. Peut-être qu'essayer de le faire aussi bien que les humains et les autres animaux – sauf avec un ordinateur – a conduit les chercheurs à trouver essentiellement la même solution.

    Cherche ce que le cerveau cherche

    Quelle que soit la raison sous-jacente, Les informations glanées dans l'étude de 2014 ont conduit à ce que Yamins appelle des modèles cérébraux orientés vers un objectif :plutôt que d'essayer de modéliser directement l'activité neuronale dans le cerveau, à la place, entraînez l'intelligence artificielle pour résoudre les problèmes que le cerveau doit résoudre, puis utilisez le système d'IA résultant comme modèle du cerveau. Depuis 2014, Yamins et ses collaborateurs ont affiné le modèle original orienté objectif des circuits de vision du cerveau et étendu le travail dans de nouvelles directions, y compris la compréhension des circuits neuronaux qui traitent les entrées des moustaches des rongeurs.

    Dans le projet peut-être le plus ambitieux, Yamins et son boursier postdoctoral Nick Haber étudient comment les nourrissons découvrent le monde qui les entoure par le jeu. Leurs nourrissons – en fait des simulations informatiques relativement simples – ne sont motivés que par la curiosité. Ils explorent leurs mondes en se déplaçant et en interagissant avec des objets, apprendre au fur et à mesure ce qui se passe lorsqu'ils frappent des balles ou tournent simplement la tête. À la fois, le modèle apprend à prédire quelles parties du monde il ne comprend pas, essaie ensuite de les comprendre.

    Alors que la simulation informatique commence la vie - pour ainsi dire - ne sachant pratiquement rien du monde, il finit par comprendre comment catégoriser différents objets et même comment en écraser deux ou trois ensemble. Bien que les comparaisons directes avec l'activité neuronale des bébés puissent être prématurées, le modèle pourrait aider les chercheurs à mieux comprendre comment les nourrissons utilisent le jeu pour en savoir plus sur leur environnement, dit Haber.

    A l'autre bout du spectre, des modèles inspirés de l'intelligence artificielle pourraient aider à résoudre une énigme sur la disposition physique du cerveau, dit Eshed Margalit, un étudiant diplômé en neurosciences. Au fur et à mesure que les circuits de vision dans le cerveau des nourrissons se développent, ils forment des patchs spécifiques – des amas physiques de neurones – qui répondent à différents types d'objets. Par exemple, les humains et les autres primates forment tous un patch facial qui est actif presque exclusivement lorsqu'ils regardent des visages.

    Exactement pourquoi le cerveau forme ces patchs, Margalit a dit, n'est pas clair. Le cerveau n'a pas besoin d'un patch facial pour reconnaître les visages, par exemple. Mais en s'appuyant sur des modèles d'IA comme celui de Yamins qui résolvent déjà des tâches de reconnaissance d'objets, « nous pouvons maintenant essayer de modéliser cette structure spatiale et poser des questions sur les raisons pour lesquelles le cerveau est disposé de cette manière et les avantages qu'il pourrait apporter à un organisme, " a déclaré Margalit.

    Fermer la boucle

    Il y a aussi d'autres problèmes à régler, notamment comment les systèmes d'intelligence artificielle apprennent. À l'heure actuelle, L'IA a besoin de beaucoup plus de formation - et de formation beaucoup plus explicite - que les humains pour être aussi performante sur des tâches telles que la reconnaissance d'objets, bien que la façon dont les humains réussissent avec si peu de données reste incertaine.

    Un deuxième problème est de savoir comment aller au-delà des modèles de vision et d'autres systèmes sensoriels. "Une fois que vous avez une impression sensorielle du monde, vous voulez prendre des décisions en fonction de cela, " Yamins a déclaré. "Nous essayons de faire des modèles de prise de décision, apprendre à prendre des décisions et comment vous interfacez entre les systèmes sensoriels, la prise de décision et la mémoire." Yamins commence à aborder ces idées avec Kevin Feigelis, un étudiant diplômé en physique, qui construit des modèles d'IA capables d'apprendre à résoudre de nombreux types de problèmes et à basculer entre les tâches selon les besoins, quelque chose que très peu de systèmes d'IA sont capables de faire.

    À long terme, Yamins et les autres membres de son groupe ont déclaré que toutes ces avancées pourraient alimenter des systèmes d'intelligence artificielle plus performants, tout comme les recherches antérieures en neurosciences ont contribué à favoriser le développement de l'apprentissage en profondeur. "Je pense que les gens de l'intelligence artificielle se rendent compte qu'il y a de très bons prochains objectifs pour l'intelligence artificielle d'inspiration cognitive, " Haber a dit, y compris des systèmes comme le sien qui apprennent en explorant activement leurs mondes. "Les gens jouent avec ces idées."


    © Science https://fr.scienceaq.com