• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Le monocycle incertain qui a appris tout seul et comment il aide l'IA à prendre de bonnes décisions

    Crédit :Le Quartier

    Les chercheurs de Cambridge sont les pionniers d'une forme d'apprentissage automatique qui commence avec peu de connaissances préalables et apprend continuellement du monde qui l'entoure.

    Au centre de l'écran se trouve un petit monocycle. L'animation démarre, le monocycle vacille vers l'avant et tombe. C'est l'essai n°1. C'est maintenant l'essai #11 et il y a un changement - un retard presque imperceptible à l'automne, peut-être une tentative de se redresser avant l'inévitable crash. "C'est apprendre de l'expérience, " acquiesce le professeur Carl Edward Rasmussen.

    Au bout d'une minute, le monocycle se balance doucement d'avant en arrière pendant qu'il tourne sur place. Il a compris le fonctionnement de ce système extrêmement instable et a atteint son objectif. "Le monocycle commence par ne rien savoir de ce qui se passe - on lui a seulement dit que son objectif est de rester au centre d'une manière verticale. Lorsqu'il commence à tomber en avant et en arrière, ça commence à apprendre, " explique Rasmussen, qui dirige le laboratoire d'apprentissage informatique et biologique du département d'ingénierie. « Nous avions un vrai robot monocycle mais il était en fait assez dangereux – il était fort – et nous utilisons donc maintenant les données du vrai robot pour exécuter des simulations, et nous avons une version mini."

    Rasmussen utilise le monocycle autodidacte pour montrer comment une machine peut démarrer avec très peu de données et apprendre de manière dynamique, améliorer ses connaissances à chaque fois qu'il reçoit de nouvelles informations de son environnement. Les conséquences de l'ajustement de son élan et de son équilibre motorisés aident le monocycle à apprendre quels mouvements étaient importants pour l'aider à rester droit au centre.

    "C'est exactement comme un humain apprendrait, " explique le professeur Zoubin Ghahramani, qui dirige le groupe d'apprentissage automatique du département d'ingénierie. "Nous ne commençons pas à tout savoir. Nous apprenons des choses progressivement, à partir de quelques exemples seulement, et nous savons quand nous ne sommes pas encore confiants dans notre compréhension."

    L'équipe de Ghahramani est pionnière dans une branche de l'IA appelée apprentissage automatique continu. Il explique que bon nombre des formes actuelles d'apprentissage automatique sont basées sur des réseaux de neurones et des modèles d'apprentissage en profondeur qui utilisent des algorithmes complexes pour trouver des modèles dans de vastes ensembles de données. Les applications courantes incluent la traduction de phrases dans différentes langues, reconnaître les personnes et les objets dans les images, et détecter les dépenses inhabituelles sur les cartes de crédit.

    "Ces systèmes doivent être formés sur des millions d'exemples étiquetés, ce qui prend du temps et beaucoup de mémoire informatique, " explique-t-il. " Et ils ont des défauts. Lorsque vous les testez en dehors des données sur lesquelles ils ont été formés, ils ont tendance à mal fonctionner. Voitures sans conducteur, par exemple, peuvent être entraînés sur un énorme ensemble de données d'images, mais ils pourraient ne pas être en mesure de généraliser à des conditions brumeuses.

    "Pire que ça, les systèmes d'apprentissage profond actuels peuvent parfois nous donner des réponses fausses en toute confiance, et fournissent un aperçu limité des raisons pour lesquelles ils ont pris des décisions particulières. C'est ce qui me dérange. C'est bien d'avoir tort, mais ce n'est pas bien d'avoir tort avec confiance."

    La clé est de savoir comment gérer l'incertitude - l'incertitude des données confuses et manquantes, et l'incertitude de prédire ce qui pourrait arriver ensuite. "L'incertitude n'est pas une bonne chose - c'est quelque chose que vous combattez, mais tu ne peux pas le combattre en l'ignorant, " dit Rasmussen. "Nous sommes intéressés à représenter l'incertitude."

    Il s'avère qu'il existe une théorie mathématique qui vous dit quoi faire. Il a été décrit pour la première fois par le statisticien anglais du XVIIIe siècle Thomas Bayes. Le groupe de Ghahramani a été l'un des premiers à adopter l'IA de la théorie des probabilités bayésienne, qui décrit comment la probabilité qu'un événement se produise (comme rester debout au centre) est mise à jour à mesure que davantage de preuves (telles que la dernière décision que le monocycle a prise avant de tomber) deviennent disponibles.

    Le Dr Richard Turner explique comment la règle de Bayes gère l'apprentissage continu :« le système prend ses connaissances préalables, le pondère par la précision avec laquelle il pense que la connaissance est, puis le combine avec de nouvelles preuves qui sont également pondérées par leur exactitude.

    "C'est beaucoup plus efficace en termes de données que la façon dont fonctionne un réseau de neurones standard, " ajoute-t-il. " De nouvelles informations peuvent amener un réseau de neurones à oublier tout ce qu'il a appris auparavant - appelé oubli catastrophique - ce qui signifie qu'il doit revoir tous ses exemples étiquetés, comme réapprendre les règles et le glossaire d'une langue à chaque fois que vous apprenez un nouveau mot.

    « Notre système n'a pas besoin de revoir toutes les données qu'il a vues auparavant – tout comme les humains ne se souviennent pas de toutes les expériences passées ; à la place, nous apprenons un résumé et nous le mettons à jour au fur et à mesure que les choses avancent. » Ghahramani ajoute : « La grande chose à propos de l'apprentissage machine bayésien est que le système prend des décisions basées sur des preuves - on pense parfois qu'il s'agit d'"automatiser la méthode scientifique" - et parce qu'il est basé sur des probabilités, il peut nous dire quand il sort de sa zone de confort."

    Ghahramani est également scientifique en chef chez Uber. Il voit un avenir où les machines apprennent continuellement non seulement individuellement mais en tant que membres d'un groupe. "Qu'il s'agisse d'entreprises comme Uber qui optimisent l'offre et la demande, ou des véhicules autonomes s'avertissant de ce qui se passe sur la route, ou des robots travaillant ensemble pour soulever une charge lourde - coopération, et parfois la concurrence, en IA aidera à résoudre des problèmes dans un large éventail d'industries. »

    L'une des frontières vraiment passionnantes est de pouvoir modéliser les résultats probables à l'avenir, comme le décrit Turner. "Le rôle de l'incertitude devient très clair lorsque nous commençons à parler de prévision de problèmes futurs tels que le changement climatique."

    Turner travaille avec les climatologues Dr Emily Shuckburgh et Dr Scott Hosking du British Antarctic Survey pour se demander si les techniques d'apprentissage automatique peuvent améliorer la compréhension des risques liés au changement climatique à l'avenir.

    « Nous devons quantifier les risques et les impacts futurs des phénomènes météorologiques extrêmes à l'échelle locale pour éclairer les réponses politiques au changement climatique, " explique Shuckburgh. " Les simulations informatiques traditionnelles du climat nous donnent une bonne compréhension des conditions climatiques moyennes. Ce que nous visons à faire avec ce travail est de combiner ces connaissances avec des données d'observation provenant de satellites et d'autres sources pour mieux comprendre, par exemple, le risque d'événements météorologiques peu probables mais à fort impact."

    "C'est en fait un défi fascinant d'apprentissage automatique, " dit Turner, qui aide à identifier quel domaine de la modélisation climatique se prête le mieux à l'utilisation de la probabilité bayésienne. « Les données sont extrêmement complexes, et parfois manquant et non étiqueté. Les incertitudes sont nombreuses." Un élément important d'incertitude est le fait que les prévisions sont basées sur notre future réduction des émissions, dont l'étendue est encore inconnue.

    « Une partie intéressante de cela pour les décideurs, outre la valeur prévisionnelle, est que vous pouvez imaginer avoir une machine qui apprend continuellement des conséquences des stratégies d'atténuation telles que la réduction des émissions - ou leur absence - et ajuste ses prévisions en conséquence, " ajoute Turner.

    Ce qu'il décrit, c'est une machine qui – comme le monocycle – se nourrit d'incertitude, apprend continuellement du monde réel, et évalue puis réévalue tous les résultats possibles. En matière de climat, cependant, c'est aussi une machine de tous les futurs possibles.


    © Science https://fr.scienceaq.com