Image nette ; en haut à droite : 1 % d'informations conservées ; en bas à gauche :restauration par floutage et éclaircissement; en bas à droite :restauration par deep learning. Crédit :Le laboratoire de recherche de l'armée
Les scientifiques du laboratoire de recherche d'entreprise de l'armée américaine développent un nouvel algorithme qui pourrait améliorer l'identification des images et des sons pour la collecte de renseignements sur le champ de bataille.
Le Dr Michael S. Lee, scientifique du Laboratoire de recherche de l'armée du Commandement du développement des capacités de combat de l'armée américaine, et ses collègues développent un algorithme d'apprentissage en profondeur appelé un encodeur automatique de raccourci qui peut restaurer des clips audio et des images uniques corrompus par divers types de bruit aléatoire.
Ce qui distingue leur travail des études précédentes, c'est qu'ils ont une meilleure applicabilité aux signaux 1-D (par exemple, parole humaine), et testent contre des sources de bruit plus fortes que celles habituellement considérées, c'est à dire., rapports bruit/signal au-delà de 1,0.
"Le deep learning est bien connu pour être capable de détecter avec précision des objets dans des images, mais il est également capable de synthétiser des données d'aspect réaliste, comme observé dans le FaceApp récemment populaire, " Lee a dit. " Dans notre travail, nous utilisons l'apprentissage en profondeur pour reconstruire une image sur la base d'informations d'entrée limitées, par exemple, avec seulement un pour cent des canaux de pixels conservés."
Lee a déclaré que le modèle de son équipe est formé avec de nombreuses données sur ce à quoi ressemblent d'autres images réelles, et une variante de leur modèle d'image peut être utilisée pour reconstruire la parole humaine à partir de signaux audio bruyants même lorsque le bruit est beaucoup plus fort que le signal.
Selon Lee, les applications cibles de l'armée sont nombreuses, y compris l'écoute clandestine, démoduler les communications en présence de brouilleurs puissants et perception d'objets en image/vidéo obscurcis intentionnellement, par l'obscurité (faible luminosité) ou par des événements météorologiques tels que le brouillard et la pluie.
"À court terme, cette technologie pourrait fournir une fonction « Zoom/Amélioration » pour les analystes du renseignement, " Lee a dit. " À long terme, ce type de technologie peut être intégré de manière transparente au matériel d'une caméra pour une meilleure qualité d'image dans divers scénarios tels que la faible luminosité et le brouillard."
En plus des applications de l'armée, Lee a noté que le secteur commercial pourrait également bénéficier de cette technologie.
"Dans les environnements à faible bande passante, comme les zones éloignées des tours de téléphonie cellulaire, des algorithmes comme le nôtre pourraient fournir des appels téléphoniques plus clairs, " Lee a déclaré. "Les voitures autonomes peuvent bénéficier de cette technologie dans des scénarios météorologiques extrêmes comme la pluie et le brouillard pour déduire quels objets sont devant. Les caméras vidéo commerciales pourront fonctionner dans des conditions de faible luminosité avec des fréquences d'images plus élevées et/ou des temps d'exposition plus faibles."
Ce travail répond aux défis au sein du Commandement Réseau, Contrôler, Equipe Transversale Communication et Intelligence.
"Une partie de la mission du CCDC ARL est d'explorer le domaine du possible, " dit Lee. " Tiens, nous montrons qu'au-delà de la détection et de la classification, l'apprentissage automatique peut être utilisé pour l'élucidation de signaux et d'images faibles et/ou bruités."
En route vers le futur, Lee et ses collègues aimeraient explorer comment cette méthode fonctionnera sur des types de données au-delà de la parole humaine et des images optiques, telles que les données des capteurs d'environnement physique et la communication sans fil.