A medida que percibimos el mundo que nos rodea, partes de él van y vienen fuera de foco. Si bien esta señal visual es algo natural para los humanos, la tecnología puede ser difícil de seguir, especialmente con las pantallas 3D. Investigadores de la Universidad Carnegie Mellon han desarrollado un nuevo método para generar desenfoque focal natural en gafas de realidad virtual, llamado pantalla multifocal Split-Lohmann.
El ojo tiene una lente y, al cambiar la distancia focal, puede enfocar objetos a cierta profundidad, separándolos en detalles nítidos, mientras que los puntos a otras profundidades pierden el foco. Esta característica del ojo, llamada acomodación, es una pauta clave que deben seguir las pantallas 3D.
“La mayoría de las pantallas montadas en la cabeza no tienen la capacidad de generar señales de enfoque”, dice Aswin Sankaranarayanan, profesor de ingeniería eléctrica e informática. “Los auriculares convencionales consisten en una pantalla 2D y una lente que hace que la pantalla parezca estar a una distancia constante del ojo. Sin embargo, las imágenes visualizadas permanecen planas. Hemos creado una lente que puede posicionar simultáneamente los píxeles de la pantalla a diferentes distancias del ojo”.
La técnica se remonta a ideas desarrolladas por primera vez en la década de 1970, cuando se inventó por primera vez una técnica de enfoque llamada lentes de Lohmann. Consisten en dos elementos ópticos llamados placas de fase hexagonales que le permiten ajustar el enfoque moviendo los dos elementos entre sí. Sin embargo, este enfoque requería movimiento mecánico, así como velocidades de operación más lentas que no son deseables en las pantallas AR/VR.
La nueva pantalla divide la lente de Lohmann, colocando dos mosaicos cúbicos en diferentes partes del sistema óptico. Un modulador de fase colocado entre ellos permite la traducción óptica, no mecánica. Este sistema tiene una ventaja adicional. El diseño básico permite que diferentes partes de la escena se traduzcan de manera diferente y, por lo tanto, se coloquen a diferentes distancias del ojo.
“La ventaja de este sistema es que podemos crear una escena virtual en 3D que satisfaga la acomodación del ojo sin recurrir a montones de enfoque rápido. Todo funciona en tiempo real, lo que es muy beneficioso para las pantallas cercanas al ojo”, explica Yingsi Qin, estudiante de doctorado en ingeniería eléctrica e informática y autora principal del artículo.
Esta mejora en la tecnología de enfoque beneficiará a muchas disciplinas, desde la fotografía hasta los juegos, pero es posible que la tecnología médica sea la que más se beneficie.
“Hay campos más allá del entretenimiento que se beneficiarán de tales pantallas 3D”, dice Matthew O’Toole, profesor asistente en el Instituto de Robótica y coautor del artículo. “La pantalla se puede usar en cirugía robótica donde las capacidades multifocales de la pantalla brindan al cirujano una guía de profundidad realista”.
El equipo presentará los resultados de su investigación en la Conferencia SIGGRAPH 2023 este agosto.
Más información:
ver el equipo página del proyecto para más información.