• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  science >> Science >  >> La nature
    Comment le deep learning porte la détection automatique du cloud vers de nouveaux sommets

    Les nuages ​​sont de toutes formes et tailles, et maintenant, un modèle d'apprentissage en profondeur peut aider à détecter les détails les plus fins dans les données cloud. Crédit :Adriel Kloppenburg sur Unsplash

    Les enfants allongés sur le dos dans un champ herbeux pourraient scruter les nuages ​​à la recherche d'images - peut-être un lapin duveteux ici et un dragon enflammé là-bas. Souvent, les scientifiques atmosphériques font le contraire :ils recherchent des images de données pour les nuages ​​dans le cadre de leurs recherches pour comprendre les systèmes terrestres.

    L'étiquetage manuel des images de données pixel par pixel prend du temps, les chercheurs s'appuient donc sur des techniques de traitement automatique, tels que les algorithmes de détection de nuages. Mais la sortie des algorithmes n'est pas aussi exacte que les scientifiques le souhaitent.

    Récemment, des chercheurs du Pacific Northwest National Laboratory du ministère de l'Énergie se sont associés pour découvrir si l'apprentissage en profondeur, un sous-ensemble distinct de l'apprentissage automatique, peut mieux identifier les nuages ​​dans les données lidar que les algorithmes actuels basés sur la physique. La réponse :un "oui" clair. Le nouveau modèle est beaucoup plus proche des réponses auxquelles les scientifiques parviennent, mais en une fraction du temps.

    Le lidar est un instrument de télédétection qui émet un laser pulsé et collecte le signal de retour diffusé par les gouttelettes de nuages ​​ou les aérosols. Ce signal de retour fournit des informations sur la hauteur et la structure verticale des éléments atmosphériques, comme des nuages ​​ou des couches de fumée. Ces données provenant des lidars au sol sont une partie importante des prévisions mondiales.

    La géoscientifique Donna Flynn a remarqué que, dans certains cas, ce que les algorithmes ont détecté comme des nuages ​​dans les images lidar ne correspondait pas bien à ce que son œil expert a vu. Les algorithmes ont tendance à surestimer les limites des nuages.

    "L'algorithme actuel identifie les nuages ​​à l'aide de larges coups de pinceau, " dit Flynn, un co-chercheur principal sur le projet. "Nous devons déterminer avec plus de précision le sommet et la base réels du nuage et distinguer plusieurs couches nuageuses."

    Mise à niveau lancée

    Jusque récemment, réseaux de neurones artificiels à puissance de calcul limitée, une sorte de modèle d'apprentissage profond, à un petit nombre de couches de calcul. Maintenant, avec une puissance de calcul accrue disponible via des clusters de supercalcul, les chercheurs peuvent utiliser plus de calculs, chacun s'appuyant sur le dernier, dans une série de couches. Plus un réseau de neurones artificiels a de couches, plus le réseau d'apprentissage en profondeur est puissant.

    Déterminer quels sont ces calculs fait partie de la formation du modèle. Commencer, les chercheurs ont besoin d'images de données lidar correctement étiquetées, ou des données de "vérité terrain", pour la formation et le test du modèle. Donc, Flynn a passé de longues heures à étiqueter les images à la main pixel par pixel :nuage ou pas de nuage. Son œil peut distinguer les limites des nuages ​​et les nuages ​​par rapport à une couche d'aérosol. Elle a pris 40 heures - l'équivalent d'une semaine de travail complète - pour étiqueter environ 100 jours de données lidar collectées à l'observatoire atmosphérique des Grandes Plaines du Sud, partie de l'installation utilisateur de mesure du rayonnement atmosphérique du DOE, en Oklahoma.

    Étant donné le temps et la main-d'œuvre du processus d'étiquetage manuel, Le scientifique informaticien et co-chercheur principal du PNNL, Erol Cromwell, a utilisé des méthodes d'apprentissage qui nécessitaient un minimum de données de vérité terrain.

    Le modèle apprend par auto-rétroaction. Il compare ses propres performances aux résultats étiquetés à la main et ajuste ses calculs en conséquence, explique Cromwell. Il parcourt ces étapes, s'améliorant à chaque fois.

    Cromwell présentera les résultats de l'équipe à la conférence d'hiver de l'Institute of Electrical and Electronics Engineers sur les applications de la vision par ordinateur en janvier.

    Objectif atteint

    Avec la formation, le modèle d'apprentissage en profondeur surpasse les algorithmes actuels. La précision du modèle est presque le double et beaucoup plus proche de ce qu'un expert humain trouverait, mais en une fraction du temps.

    Les prochaines étapes consistent à évaluer les performances du modèle sur les données lidar collectées à différents endroits et à différentes saisons. Les premiers tests sur les données de l'observatoire ARM à Oliktok Point en Alaska sont prometteurs.

    "Un avantage du modèle d'apprentissage en profondeur est l'apprentissage par transfert, " dit Cromwell. " Nous pouvons entraîner davantage le modèle avec les données d'Oliktok pour rendre ses performances plus robustes. "

    « La réduction des sources d'incertitude dans les prévisions des modèles mondiaux est particulièrement importante pour la communauté scientifique de l'atmosphère, " dit Flynn. "Avec sa précision améliorée, l'apprentissage en profondeur augmente notre confiance."

    Elle ajoute :« De plus, cela nous donne plus de temps pour être dehors à regarder de vrais nuages !"


    © Science https://fr.scienceaq.com