Le professeur Alice Parker fait un pas de plus vers la rétro-ingénierie du cerveau humain. Crédit :Hugh Kretschmer
L'expression "renforcement positif, " est quelque chose que vous entendez plus souvent dans un article sur l'éducation des enfants que sur l'intelligence artificielle. Mais selon Alice Parker, Professeur du doyen de génie électrique au département de génie électrique et informatique Ming Hsieh, un peu de renforcement positif est exactement ce dont nos machines d'IA ont besoin. Parker construit des circuits électroniques depuis plus d'une décennie pour désosser le cerveau humain afin de mieux comprendre son fonctionnement et finalement de construire des systèmes artificiels qui l'imitent. Son article le plus récent, co-écrit avec Ph.D. l'étudiant Kun Yue et ses collègues de l'UC Riverside, vient de paraître dans la revue Avancées scientifiques et fait un pas important vers cet objectif ultime.
L'IA sur laquelle nous nous appuyons et sur laquelle nous lisons aujourd'hui est modelée sur les ordinateurs traditionnels; il voit le monde à travers le prisme des zéros et des uns binaires. C'est bien pour faire des calculs complexes mais, selon Parker et Yue, nous approchons rapidement des limites de la taille et de la complexité des problèmes que nous pouvons résoudre avec les plateformes sur lesquelles notre IA existe. "Depuis la révolution initiale de l'apprentissage en profondeur, les objectifs et les progrès de l'IA basée sur l'apprentissage en profondeur telle que nous la connaissons ont été très lents, " dit Yue. Pour atteindre son plein potentiel, L'IA ne peut pas simplement mieux penser, elle doit réagir et apprendre par elle-même aux événements en temps réel. Et pour que cela se produise, un changement massif dans la façon dont nous construisons l'IA en premier lieu doit être conçu.
Pour résoudre ce problème, Parker et ses collègues se tournent vers le système d'apprentissage le plus accompli que la nature ait jamais créé :le cerveau humain. C'est là que le renforcement positif entre en jeu. Cerveaux, contrairement aux ordinateurs, sont des apprenants analogiques et la mémoire biologique a une persistance. Les signaux analogiques peuvent avoir plusieurs états (un peu comme les humains). Alors qu'une IA binaire construite avec des types similaires de nanotechnologies pour obtenir une mémoire durable pourrait être capable de comprendre quelque chose d'aussi bon ou mauvais, un cerveau analogique peut comprendre plus profondément qu'une situation peut être "très bonne, " "juste correct, ""mauvais" ou "très mauvais". Ce domaine s'appelle l'informatique neuromorphique et il pourrait bien représenter l'avenir de l'intelligence artificielle.
Lorsque les humains sont exposés à quelque chose de nouveau et potentiellement utile, nos neurones reçoivent un pic de dopamine et les connexions entourant ces neurones se renforcent. "Pensez à un bébé assis dans une chaise haute, " Dit Parker. " Elle agite peut-être les bras sauvagement parce que ses neurones non développés se déclenchent au hasard. renversant sa tasse et faisant un gâchis. Tout à coup, les neurones qui ont fait ce mouvement obtiennent une réponse et se renforcent. Fait assez régulièrement, le cerveau du bébé commence à associer ce pic à quelque chose qui mérite d'être intériorisé. Et juste comme ça, notre petit bébé a appris qu'un mouvement de bras provoque un résultat amusant et que l'apprentissage persiste dans le temps. C'est exactement ce que l'informatique neuromorphique essaie de faire :apprendre à l'IA à apprendre des expériences du monde réel exactement comme nous le faisons.
Pour faire ça, Parker et Yue ont conçu leurs propres circuits neuromorphiques et les ont combinés avec des nanodispositifs appelés Magnetic Domain Wall Analog Memristors (MAM). Ils exécutent ensuite des simulations pour montrer que leurs circuits neuronaux apprennent comme un cerveau. Ce dispositif MAM est si complexe qu'un article entier pourrait être écrit sur lui seul. Mais pour l'instant, la chose la plus importante à savoir est qu'il s'agit d'un appareil extrêmement petit qui permet de se souvenir indéfiniment du « pic » de renforcement positif que reçoivent les neurones artificiels. Vous pouvez penser aux circuits neuromorphiques de Parker combinés avec le MAM exactement comme le cerveau de ce petit bébé. Dans ce sens, Parker et Yue sont un peu comme les parents du petit bébé IA… lui enseignent de nouvelles choses et le renforcent positivement quand il fait quelque chose de bien.
Pour le moment, ce que nous avons est un peu comme un vrai cerveau de bébé. Peu développé et définitivement pas prêt à prendre des décisions tout seul. Mais, aussi très semblable à un vrai bébé, avec assez de travail, investissement, et l'amour des chercheurs, cette technologie va changer la façon dont l'IA fonctionne dans le monde réel.
Bien sûr, Le travail de Parker n'est jamais vraiment terminé. "Notre prochaine étape, travailler avec la DARPA, est d'apprendre à notre système à apprendre quelque chose de nouveau sans oublier les leçons précédentes, " dit Parker. Leur travail peut représenter un petit pas vers l'objectif ultime de l'IA neuromorphique, mais comme tout bon chercheur ou parent, Parker apprécie l'importance des petits pas.