• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  •  science >> Science >  >> La nature
    Nouvel ensemble de données d'images aériennes pour aider à fournir aux agriculteurs des informations exploitables

    Veille végétale via la solution AGMRI pour les producteurs, agronomes, détaillants agricoles, et autres acteurs de l'écosystème agricole Crédit :Intelinair

    Un jeu de données d'images aériennes à grande échelle produites par Intelinair, une entreprise dérivée de l'Université de l'Illinois à Urbana-Champaign, vise à donner aux agriculteurs une visibilité sur les conditions de leurs champs. Le jeu de données, appelé Agriculture-Vision, permettra l'analyse des modèles agricoles d'images aériennes, fournir aux agriculteurs des informations exploitables sur les performances de leurs cultures pour améliorer la prise de décision et maximiser les rendements.

    Jusqu'à maintenant, il y a eu une pénurie d'ensembles de données d'images agricoles de haute qualité, en partie à cause de la grande taille d'image requise pour capturer de nombreux acres de terrain, ainsi que la difficulté de reconnaître des modèles qui ne se produisent pas de manière cohérente sur de vastes zones. Des chercheurs de l'UIUC et de l'Université de l'Oregon ont travaillé avec Intelinair pour développer de nouvelles techniques de vision par ordinateur qui résolvent des problèmes complexes de reconnaissance de formes grâce à des méthodes d'apprentissage en profondeur.

    « L'agriculture de nouvelle génération doit être axée sur les données, " a déclaré Naira Hovakimyan de CSL, le professeur W. Grafton et Lillian B. Wilkins de sciences mécaniques et d'ingénierie à l'Illinois et co-fondateur et scientifique en chef d'Intelinair. "En automatisant le processus de collecte fréquente de données à haute résolution et en utilisant les données dans la modélisation prédictive via des algorithmes d'apprentissage en profondeur, nous avançons vers le stade où les conditions sur n'importe quelle ferme peuvent être prévues de la même manière que les prévisions météorologiques, par exemple. C'est juste à un clic."

    Pas depuis le milieu du 20e siècle, lorsque les scientifiques ont appris à augmenter les rendements en manipulant les génomes des cultures et que l'utilisation à grande échelle de pesticides a été introduite, a une nouvelle technologie montrée tellement prometteuse. L'IA est déjà utilisée pour automatiser les processus agricoles et collecter des données sur les conditions sur le terrain. Cependant, la reconnaissance des formes visuelles liées à l'agriculture a progressé lentement, en partie à cause d'un manque d'ensembles de données à grande échelle et de haute qualité.

    Hovakimyan dit que l'analyse des modèles agricoles pose un défi unique car elle nécessite la reconnaissance de modèles qui ne se produisent pas de manière cohérente et sont difficiles à distinguer, tels que les mauvaises herbes ou les cours d'eau, sur de vastes zones. Par exemple, discerner la différence entre un chien et un chat n'est pas aussi compliqué que de distinguer le blé du ray-grass - une mauvaise herbe dont la couleur et la forme sont similaires à celles du blé, et cela a l'air en grande partie le même vu du ciel.

    Professeur Thomas Huang, la Chaire émérite Maybelle Leland Swanlund en génie électrique et informatique, et Humphrey Shi, un ancien de l'Illinois en génie électrique et informatique qui est maintenant à l'Université de l'Oregon, en étroite collaboration avec Hovakimyan, a dirigé une équipe d'étudiants-chercheurs de l'ECE pour organiser l'ensemble de données et proposer de nouvelles solutions en segmentation sémantique, qui est le processus de regroupement de parties d'une image ensemble (pixel par pixel) dans la même classe d'objets. Pour Agriculture-Vision, les agronomes déterminaient les classes et annotaient les images.

    L'article sur l'ensemble de données Agriculture-Vision a été accepté par la conférence IEEE/CVF sur la vision par ordinateur et la reconnaissance de formes (CVPR), la conférence la mieux classée parmi tous les lieux de publication en informatique et en ingénierie selon Google Scholar Metrics. L'équipe organise également un premier atelier Agriculture-Vision au CVPR à Seattle en juin 2020. Il a attiré une myriade d'attention des communautés de l'agriculture et de la vision par ordinateur.

    L'ensemble de données Agriculture-Vision actuel comprend près de cent mille images de milliers de champs de maïs et de soja dans plusieurs États du Midwest. Il comprend des annotations pour des conditions telles que les carences en éléments nutritifs, séchage, grappes de mauvaises herbes, et plus. Finalement, les chercheurs prévoient d'étendre l'ensemble de données pour inclure différentes modalités, comme le sol, cartes topographiques, et images thermiques. Ils disent que les images capturées saison après saison, année après année, pourrait permettre la création de modèles d'apprentissage en profondeur qui aident les agriculteurs à planifier non seulement pour la prochaine saison, mais aussi pour la santé durable à long terme de leur sol.

    Les capacités d'Agriculture-Vision complètent les offres d'Intelinair, qui fournit de l'intelligence culturale via sa solution AGMRI aux producteurs, agronomes, détaillants agricoles, et d'autres acteurs de l'écosystème agricole. Les entreprises partenaires comprennent Deere &Co., un fabricant Fortune 100 ag qui utilise les produits d'Intelinair dans son produit de centre d'opérations, et la Climate Corporation, qui a intégré les produits Intelinair dans son service FieldView.

    « Nous sommes ravis de diriger le front de la recherche pour l'analyse des modèles agricoles en créant cet ensemble de données, mais il y a tellement plus que nous explorons, en incorporant des étiquettes et des annotations précises, histoire de la ferme, conditions du sol, et la dynamique des cultures et les intégrer dans des modèles d'apprentissage en profondeur pour l'intelligence agricole de nouvelle génération, " a déclaré Hovakimyan. "Nous ne sommes qu'au début de ce que nous pouvons faire."


    © Science https://fr.scienceaq.com