• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Un nouvel algorithme peut aider les gens à stocker plus d'images, partager des vidéos plus rapidement

    Grâce à l'intelligence artificielle, une équipe dirigée par Penn State IST a conçu un système capable de compresser et de restaurer des fichiers, comme des images. Il y a souvent une perte de qualité lors de la restauration des images. Cependant, lorsque l'algorithme de l'équipe a restauré des exemples d'images, la qualité d'image était meilleure que les références, y compris le propre système de compression de Google. Crédit :Wikimedia Commons

    Le monde produit environ 2,5 quintillions d'octets de données chaque jour. Stocker et transférer tout ce nombre énorme et en constante augmentation d'images, vidéos, Tweets, et d'autres formes de données devient un défi important, celui qui menace de saper la croissance d'Internet et de contrecarrer l'introduction de nouvelles technologies, comme l'Internet des objets.

    Maintenant, une équipe de chercheurs rapporte qu'un algorithme qui utilise une technique d'apprentissage automatique basée sur le cerveau humain pourrait atténuer ce blocage des données en réduisant la taille des fichiers multimédias, telles que des vidéos et des images, et les restaurer sans perdre beaucoup de qualité ou d'informations. L'apprentissage automatique est un type d'intelligence artificielle, ou IA.

    Dans une étude, les chercheurs ont développé un algorithme qui comporte un réseau neuronal récurrent pour compresser et restaurer les données, selon C. Lee Giles, David Reese professeur de sciences et technologies de l'information, État de Penn, et un associé de l'Institut pour la cyberscience. Dans ce cas, l'algorithme, qu'ils ont appelé l'algorithme de raffinement itératif, qui se concentre sur l'étape de décodage ou de restauration, a pu produire des images restaurées de meilleure qualité que les références sélectionnées pour l'étude, incluant un système de compression conçu par Google, que les chercheurs considéraient comme la meilleure à l'époque.

    Les gens compressent les données pour stocker plus de photos sur leur smartphone, par exemple, ou partager des vidéos sur Internet ou sur des plateformes de médias sociaux telles que YouTube et Twitter.

    Il a déclaré que le succès du système dans la compression de fichiers est dû à l'utilisation d'un décodeur de réseau neuronal récurrent, plutôt qu'un réseau feedforward ou un décodeur (linéaire) conventionnel. Un réseau de neurones récurrent utilise une mémoire avec état, ce qui lui permet de stocker des données au fur et à mesure qu'il effectue des calculs. Cependant, un réseau de neurones ordinaire (ou réseau de neurones à action directe) ne peut pas stocker de données et ne peut traiter les informations que de manière séquentielle. Avec la capacité de mémoire supplémentaire, les réseaux de neurones récurrents peuvent être plus performants dans les tâches, comme la reconnaissance d'images.

    "Un système récurrent a un retour, tandis qu'un perceptron multicouche, ou réseau convolutif, ou tout autre type similaire de réseau neuronal, sont généralement anticipés, en d'autres termes, les données ne font que passer, il n'est pas stocké en mémoire, " dit Gilles.

    David Miller, professeur d'électrotechnique et d'informatique, qui a travaillé avec Giles, a déclaré que "le principal avantage de la récurrence dans ce contexte de décodage d'image est qu'elle exploite des corrélations sur de longues régions spatiales de l'image qu'un décodeur d'image conventionnel".

    Un autre avantage de l'algorithme, par rapport aux systèmes concurrents, était la simplicité de la conception de l'algorithme, ont dit les chercheurs, qui ont récemment rendu compte de leurs découvertes à la Data Compression Conference (DCC).

    "Nous n'avons vraiment que le réseau de neurones récurrent à la fin du processus, par rapport à celui de Google, qui inclut les réseaux de neurones récurrents, mais ils sont placés à beaucoup de couches différentes, ce qui ajoute à la complexité, " dit Gilles.

    L'un des problèmes de la compression est que lorsqu'une image ou une vidéo compressée est restaurée, le fichier risque de perdre des informations, ce qui peut rendre l'image ou la vidéo floue, ou déformée. Les chercheurs ont testé l'algorithme sur plusieurs images et il a pu stocker et reconstruire les images avec une qualité supérieure à celle de l'algorithme de Google et d'autres systèmes de référence.

    Les réseaux de neurones organisent leurs « neurones » électroniques un peu comme le cerveau est composé de réseaux de neurones; cependant, Alexandre G. Ororbia, professeur assistant au Rochester Institute of Technology, dont la recherche se concentre sur le développement de systèmes neuronaux biologiquement motivés, et les algorithmes d'apprentissage mènent cette recherche, ces cerveaux électroniques sont beaucoup plus simples.

    "La chose importante à retenir est que ces réseaux de neurones sont vaguement basés sur le cerveau, " a déclaré Ororbia. " Les neurones qui composent un réseau de neurones électroniques sont beaucoup, beaucoup plus simple. Les vrais neurones biologiques sont extrêmement complexes. Certaines personnes disent que le réseau de neurones électroniques est presque une caricature du réseau de neurones du cerveau."

    Giles a déclaré que l'idée d'utiliser des réseaux de neurones récurrents pour la compression est venue de la révision d'anciennes recherches sur les réseaux de neurones sur le problème de la compression, .

    "Nous avons remarqué qu'il n'y avait pas grand-chose sur l'utilisation du réseau de neurones pour la compression - et nous nous sommes demandé pourquoi, " a déclaré Giles. " Il est toujours bon de revisiter le vieux travail pour voir quelque chose qui pourrait être applicable aujourd'hui. "

    Les chercheurs ont testé la capacité de leur algorithme à compresser et à restaurer une image par rapport au système de Google à l'aide de trois mesures indépendantes qui évaluent la qualité de l'image :Peak Signal Noise Ratio, Indice d'image de similarité structurelle et indice d'image de similarité structurelle à plusieurs échelles—qui évaluent la qualité de l'image.

    "Les résultats de tous les benchmarks et ensembles de tests indépendants et pour toutes les métriques, montrent que l'algorithme de raffinement itératif proposé produit des images avec une distorsion plus faible et une qualité perceptive plus élevée, " a déclaré Ankur Mali, un doctorant à Penn State, who worked extensively on the technical implementation of the system.

    À l'avenir, the researchers may also explore whether the system is easier to train than competing algorithms.

    While all the compression neural networks require training—feeding data into the system to teach it how to perform—Giles thinks the team's design may be easier to train.

    "I would guess it's much, much faster, in terms of training, trop, " said Giles.


    © Science https://fr.scienceaq.com