• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  science >> Science >  >> Autres
    L'intelligence artificielle devient si intelligente,
    Nous en avons besoin pour montrer son travail La pensée informatique devient si complexe que nous commençons à perdre de vue son raisonnement. Comment pouvons-nous nous assurer que nous savons pourquoi l'intelligence artificielle prend la décision qu'elle prend ? Chad Baker/Getty Images

    Si vous voulez trier un grand nombre d'images numériques, ou classer des quantités ahurissantes d'informations écrites par sujet, vous comptez mieux sur des systèmes d'intelligence artificielle (IA) appelés réseaux de neurones, qui recherchent des modèles dans les données et s'entraînent à faire des prédictions sur la base de leurs observations.

    Mais lorsqu'il s'agit de domaines à enjeux élevés tels que l'information médicale, lorsque le coût d'une erreur ou d'une mauvaise prédiction est potentiellement mortel, nous, les humains, sommes parfois réticents à faire confiance aux réponses fournies par les programmes. C'est parce que les réseaux de neurones utilisent l'apprentissage automatique, dans lequel ils s'entraînent à comprendre les choses, et nos chétifs cerveaux de viande ne peuvent pas voir le processus.

    Alors que les méthodes d'apprentissage automatique "sont flexibles et donnent généralement des prédictions précises, ils révèlent peu en termes compréhensibles pour l'homme sur les raisons pour lesquelles une prédiction particulière est faite, " dit Tommi Jaakkola, professeur de génie électrique et d'informatique au Massachusetts Institute of Technology, par email.

    Considérez-le comme l'équivalent en apprentissage automatique de l'écriture de vos problèmes de mathématiques sur un tableau pour montrer votre travail.

    Si vous êtes un patient atteint d'un cancer et que vous essayez de choisir des options de traitement en fonction des prédictions de la progression de votre maladie, ou un investisseur qui cherche à savoir quoi faire de son épargne-retraite, faire aveuglément confiance à une machine peut être un peu effrayant - d'autant plus que nous avons appris aux machines à prendre des décisions, mais nous n'avons pas un bon moyen d'observer exactement comment ils les fabriquent.

    Mais n'ayez pas peur. Dans un nouvel article scientifique, Jaakkola et d'autres chercheurs du Massachusetts Institute of Technology ont développé une méthode pour vérifier les réponses apportées par les réseaux neuronaux. Considérez-le comme l'équivalent en apprentissage automatique de l'écriture de vos problèmes de mathématiques sur un tableau pour montrer votre travail.

    Comme les détails d'un communiqué de presse du MIT, Les réseaux de neurones d'IA imitent en fait la structure du cerveau humain. Ils sont composés de nombreux nœuds de traitement qui, comme nos neurones, unir leurs forces et combiner leur puissance de calcul pour résoudre les problèmes. Dans le processus, ils s'engagent dans ce que les chercheurs appellent « l'apprentissage en profondeur, " passer les données d'entraînement de nœud à nœud, puis en le corrélant avec le type de classification que le réseau neuronal essaie d'apprendre à faire. Les résultats sont continuellement modifiés pour s'améliorer, presque de la même manière que les humains apprennent par essais et erreurs au fil du temps.

    Le gros problème est que même les informaticiens qui programment les réseaux ne peuvent pas vraiment regarder ce qui se passe avec les nœuds, ce qui a rendu difficile le tri de la façon dont les ordinateurs prennent réellement leurs décisions.

    "Nous n'essayons pas d'expliquer le fonctionnement interne d'un modèle complexe, " explique Jaakkola. " Au lieu de cela, nous forçons le modèle à fonctionner d'une manière qui permet à un humain de vérifier facilement si la prédiction a été faite sur la bonne base."

    "Notre méthode apprend à générer une justification pour chaque prédiction. Une justification est un texte concis, facile à vérifier pour un humain, cela seul suffit à faire la même prédiction. Pour y parvenir, nous avons divisé l'architecture globale du modèle en deux composants séparables :le générateur et l'encodeur. Le générateur sélectionne une justification - telle qu'un morceau de texte - et la transmet à l'encodeur pour faire une prédiction. La combinaison est apprise à fonctionner ensemble comme un prédicteur. »

    "Ainsi, même si notre générateur et notre encodeur sont eux-mêmes des méthodes complexes d'apprentissage en profondeur, le modèle combiné est contraint de faire sa prédiction d'une manière qui est directement vérifiable puisque la prédiction est basée sur la logique choisie, " écrit Jaakkola.

    Dans leur papier, les scientifiques se sont amusés à utiliser leur système pour classer les avis d'un site Web amateur de bière, sur la base des attributs des brassins tels que l'arôme, palais et apparence. "L'ensemble de données d'examen de la bière comportait déjà des phrases annotées relatives à des aspects spécifiques des produits afin que nous puissions comparer directement les justifications générées automatiquement aux sélections humaines, " dit Jaakkola. Dans l'expérience, ils ont découvert que le réseau neuronal était en accord avec les annotations humaines entre 80 et 96 % du temps, selon la spécificité de la caractéristique.

    Maintenant c'est intéressant

    L'un des moyens classiques de démontrer les capacités d'un réseau de neurones d'IA est de l'utiliser pour résoudre le problème dit du voyageur de commerce, et trouver le chemin le plus court entre plusieurs villes.

    © Science https://fr.scienceaq.com