• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Écrans 3D adaptés à l'œil humain

    Crédit :Université Carnegie Mellon

    Vous êtes-vous déjà senti étourdi ou nauséeux après avoir regardé un film en 3D ou utilisé un casque de réalité virtuelle ? Si c'est le cas, c'est probablement parce que vous étiez inconsciemment capable de détecter les différences subtiles entre la scène 3D virtuelle qui vous était présentée et le monde réel.

    Le Saint Graal des écrans 3D est de produire une scène qui, à nos yeux, est indiscernable de la réalité. Pour y parvenir, l'affichage devrait tromper tous les indices perceptuels que le système visuel humain déploie pour ressentir le monde. Nos yeux perçoivent une large gamme de couleurs, une large gamme d'intensités, et de nombreux indices pour percevoir la profondeur. Parmi ceux-ci, le plus difficile à tromper est sans doute la capacité de perception de la profondeur. Comme il s'avère, cela a d'immenses implications pour les téléviseurs 3D, films, dispositifs de réalité virtuelle et augmentée.

    Nos yeux perçoivent la profondeur à l'aide de deux indices dominants. Le premier indice s'appelle vergence, où les yeux tournent pour amener le même objet au centre du champ sur les deux yeux ; lorsque l'objet est à proximité (disons près de votre nez), les yeux tournent beaucoup pour se fixer dessus et quand il est loin, ils tournent moins. C'est un signal fort pour percevoir la profondeur. Le deuxième indice s'appelle l'accommodation, où l'œil modifie la distance focale de la lentille oculaire pour mettre un objet au point. Tout comme un appareil photo, un objet n'apparaît net que lorsque l'œil est focalisé dessus. Vergence et accommodement se poussent mutuellement, c'est à dire., lorsque les yeux se fixent sur un objet en utilisant la vergence, les repères d'accommodation assurent que l'objet est mis au point. Sans ce couplage étroit entre vergence et accommodation, nous ne serions pas capables de voir le monde dans toute sa netteté et ne serions pas capables de percevoir la profondeur aussi.

    Figure 1 :Comparaison d'un écran VR typique à l'écran VR proposé par les chercheurs de la CMU. Crédit :Université Carnegie Mellon

    Des chercheurs de l'Université Carnegie Mellon (CMU) ont mis au point une nouvelle technologie pour permettre des repères naturels d'hébergement dans les écrans 3D. La technologie fonctionne en générant de nombreux écrans virtuels situés à différentes profondeurs. Les profondeurs sont suffisamment dispersées pour que nous ne puissions pas le différencier du monde réel, au moins en termes de perception de la profondeur. Cette idée de mettre des couches d'écrans à différentes profondeurs n'est pas nouvelle; cependant, la technologie proposée par les chercheurs de la CMU peut générer un ordre de grandeur plus d'affichages que les méthodes existantes, offrant ainsi une immersion sans précédent. La figure 1 compare un affichage VR typique à l'affichage proposé. Comme on peut le voir, l'affichage proposé change l'objectif utilisé dans les écrans VR typiques en un objectif qui peut modifier sa distance focale. En changeant la distance focale à haute fréquence, suivi, et coordonner ce changement avec un affichage rapide, l'affichage proposé surmonte les limitations rencontrées par la plupart des affichages existants.

    Figure 2 :La scène virtuelle et les photos capturées par une caméra changeant sa mise au point. Notez que la caméra est indépendante de l'affichage. Crédit :Université Carnegie Mellon

    Un avantage de l'utilisation de la technologie d'affichage proposée peut être vu sur la figure 2. La scène montrée sur la figure contient des objets sur une large plage de profondeur. Par exemple, la lune est à l'infini, les nuages ​​sont à des kilomètres, les arbres sont à quelques mètres, et la maison est à quelques centimètres de nous. Nous avons capturé la scène vue par une caméra focalisée à différentes profondeurs, imitant le changement de focalisation de notre œil, et avons créé une vidéo à partir de ces images. Notez que la caméra est entièrement indépendante de l'écran, ce qui signifie que l'écran ne sait pas où se trouve la caméra ou où notre œil regarde. Comme on peut le voir sur la vidéo, l'écran génère des repères naturels de mise au point et de défocalisation, c'est à dire., un objet devient net lorsqu'il est mis au point et flou lorsque la mise au point de la caméra s'éloigne. Cela signifie que l'affichage génère le signal d'accommodation.

    Les dispositifs de réalité virtuelle et augmentée devraient bénéficier considérablement de ce travail. Les appareils d'aujourd'hui produisent l'immersion en ne satisfaisant que l'indice de vergence et, pour la plupart, en ignorant les indices d'hébergement. Cela a des conséquences sur l'expérience utilisateur, entraînant un inconfort et une fatigue après une longue utilisation. Les travaux de CMU montrent que le fait de ne pas correspondre aux repères d'accommodation réduit également la résolution de l'écran en raison du flou de défocalisation. Dans ce sens, la technologie développée au CMU est très opportune et pourrait ouvrir la voie à une expérience AR/VR beaucoup plus immersive.

    Cet article décrit les travaux publiés et présentés lors de la conférence SIGGRAPH Asia en décembre 2018.

    La National Science Foundation a soutenu la recherche dans le cadre d'un programme de développement de carrière précoce de la faculté (CAREER).


    © Science https://fr.scienceaq.com