• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Intel:l'événement Hot Chips détaille les processeurs de puissance AI

    Crédit :CC0 Domaine public

    Les observateurs de la technologie cette semaine ont eu connaissance d'un impressionnant travail d'accélérateur d'IA chez Intel, à savoir des révélations lors de l'événement Hot Chips 2019, où Intel a présenté les détails de ses processeurs de réseau neuronal Nervana, (1) NNP-T pour l'apprentissage et (2) NNP-I pour l'inférence.

    Reprenons d'abord le travail d'inférence (Spring Hill), et NNP-1, ayant été développé dans son usine de Haïfa, Israël. NNP-1 signifie Neural Network Processor for Inference.

    Sa construction va lui permettre « de faire face à des charges de travail élevées avec un minimum d'énergie, " a déclaré Steven Scheer, Reuters.

    Décrire sa fonction, Ravie Lakshmananin, TNW, a déclaré qu'il "cible spécifiquement l'aspect d'inférence de l'IA pour en déduire de nouvelles informations. En utilisant un moteur de calcul d'inférence d'IA spécialement conçu, NNP-I offre de meilleures performances avec une puissance réduite."

    D'où vient le nom Nervana ? Nervana Systems est la société qu'elle a acquise en 2016. A l'époque, l'analyste Karl Freund a déclaré Temps EE qu'il était logique pour Intel de le faire. L'acquisition de Nervana était une façon d'entrer sur le marché du deep learning.

    Cette semaine, la question du pourquoi a été transformée en pourquoi pas par un porte-parole d'Intel.

    "Afin d'atteindre une situation future d'"IA partout", nous devons gérer d'énormes quantités de données générées et nous assurer que les organisations sont équipées de ce dont elles ont besoin pour utiliser efficacement les données et les traiter là où elles sont collectées, " a déclaré Naveen Rao, fondateur de Nervana et maintenant directeur général du groupe de produits d'intelligence artificielle d'Intel, dans un rapport de Reuters. "Ces ordinateurs ont besoin d'accélération pour les applications d'IA complexes."

    Veilleurs technologiques, y compris SiliciumANGLE disaient que le NNP-1 était bon pour les grands centres de données exécutant des charges de travail d'IA. Fossbytes a déclaré qu'un ensemble complet de fonctionnalités RAS visait à garantir qu'il peut être facilement déployé dans les centres de données existants.

    Joël Hruska dans Technologie extrême :"Intel prétend que le NNP-I peut fournir des performances ResNet50 de 3, 600 inférences par seconde lors de l'exécution à un TDP de 10 W. Cela équivaut à 4,8 TOPS/watt, qui répond aux objectifs d'efficacité globale d'Intel (la société affirme que NNP-I est plus efficace à des puissances inférieures)."

    L'autre sujet d'intérêt de la conférence Hot Chips 2019 était le NNP-T, qui signifie Intel Nervana Neural Network Processor for Training. Intel a décrit le NNP-T (nom de code Spring Crest) comme spécialement conçu (1) pour former des modèles complexes d'apprentissage en profondeur à grande échelle, et (2) simplifier la formation distribuée avec un support évolutif prêt à l'emploi.

    Paul Alcorne, Le matériel de Tom , a écrit sur la façon dont "le NNP-T est conçu pour évoluer sans colle d'un châssis à l'autre, et même rack à rack, sans commutateur. » Il a déclaré que le réseau avait été spécialement conçu pour une bande passante élevée et une faible latence ; à son tour, l'architecture est de gérer "des modèles massifs qui s'échelonnent à 5 ou 8 milliards de paramètres, ou au-delà."

    Naveen Rao a commenté : « Intel Nervana NNP-T repousse les limites de la formation en apprentissage en profondeur. Il est conçu pour donner la priorité à deux considérations clés du monde réel : comment former un réseau le plus rapidement possible et comment le faire dans le cadre d'un budget d'alimentation donné. » L'architecture a été construite à partir de zéro, sans charges de travail héritées à prendre en charge.

    Dans l'image plus grande, Le temps d'Israël a déclaré « des entreprises telles qu'Intel, Nvidia, Qualcomm et Google et les startups du monde entier sont tous à la recherche de nouvelles technologies dans ce domaine, ce qui implique entre autres de créer le matériel pour permettre le traitement d'énormes quantités d'informations."

    Le matériel de traitement a deux objectifs, a écrit Shoshanna Solomon :(1) former les ordinateurs à effectuer de nouvelles tâches et (2) leur apprendre à déduire et ainsi atteindre des idées.

    En tout, Intel fait sa part pour permettre aux data scientists de faire les deux lorsqu'ils travaillent sur des données non structurées et complexes.

    © 2019 Réseau Science X




    © Science https://fr.scienceaq.com