Meta Reality, la realidad mixta de Quest Pro y la siguiente generación de visores

20 DIC 2022  9:59

Redacción

2

El Blog de Oculus dedicó ayer un largo artículo a explicar los objetivos de Meta en realidad mixta, detallando las tecnologías necesarias para combinar de forma consistente el mundo virtual y el físico.Meta Reality será el nombre que utilizarán ahora la compañía para referirse a un sistema que se basará en passthrough a color estereoscópico, IA, anclajes espaciales, sensores de alta resolución, etc.

 

 

Ser capaz de ver el mundo físico que te rodea y mezclarlo con contenido virtual abre nuevas posibilidades para la VR hoy en día, como experiencias en el mismo lugar en las que puedes jugar con amigos en la misma habitación física o experiencias de productividad que combinan enormes monitores virtuales con herramientas físicas. Esto es un paso hacia nuestra visión a más largo plazo de la realidad aumentada", explica el director de producto de Meta, Sarthak Ray.

 

Tecnologías clave de Meta Reality
  • Paso de color estereoscópico: visores con passthrough a color y con sensación de profundidad. Uso de una arquitectura de hardware personalizada, algoritmos avanzados de visión por ordenador y aprendizaje automático para que el usuario de un visor vea de forma natural el mundo que le rodea. Hay un gran salto entre Quest 2 y Quest Pro, pero es solo un primer paso.

    Meta Quest Pro combina dos vistas de cámara para reconstruir una profundidad realista, lo que garantiza que las experiencias de realidad mixta construidas con Passthrough a color resulten cómodas para las personas. Además, las pistas de textura estéreo permiten que el cerebro del usuario haga el resto e infiera la profundidad, incluso cuando la reconstrucción de la profundidad no es perfecta o está fuera del alcance del sistema", explica Ricardo Silveira Cabral, director de ingeniería de visión por computador de Meta
  • Comprensión de escenas: dentro de las herramientas de Presence Platform se encuentra Scene Understanding, modelos de escenas que representan entornos únicos reales, para que los desarrolladores puedan crear rápidamente experiencias Meta Reality complejas y con interacciones consistentes con el mundo físico. En el futuro, el objetivo es ofrecer una versión automatizada de la captura de escenas que no requiera que los usuarios lo hagan manualmente.

  • Anclajes espaciales: permiten a una aplicación crear un marco de referencia, o una referencia en el espacio, logrando que un objeto virtual persista en el espacio a lo largo del tiempo. Desde la semana pasada está disponible para desarrolladores Shared Spatial Anchors para Quest Pro, y llegará a Quest 2 en 2023. Esto permitirá, por ejemplo, que un grupo de amigos puede fijar el tablero de Demeo a la superficie de la mesa de su salón y continuar la partida al día siguiente.

 

 

Para ofrecer experiencias de realidad mixta significativas, explican en el artículo, es necesario disponer de todas esas tecnologías, junto con información en tiempo real sobre oclusión y colisión, detección de objetos e iluminación, etc. Y todo ello debe combinarse teniendo en cuenta limitaciones como el coste de rendimiento, la capacidad de cálculo y la temperatura. Avinav Pashine, especialista en Passthrough AR dentro de Reality Labs, reconoce que en el visor Meta Quest Pro han tenido que hacer concesiones.

 

Aunque nuestra solución actual no es perfecta, preserva la computación al tiempo que maximiza la comodidad del usuario, y gracias a ella, podremos ofrecer una mayor profundidad y amplitud de herramientas para desarrolladores", reconoce Avinav Pashine

 

Las capacidades de Quest Pro en cuanto a realidad mixta seguirán evolucionando a través de las actualizaciones de software, y en los próximos visores de la compañía también gracias a avances de hardware. Uno de esos dispositivos será Quest 3, cuyo lanzamiento en 2023 ha vuelto a ser confirmado estos días, pese a que Meta no parece pasar por su mejor momento (despidos, pérdida de valor bursátil, renuncia de J. Carmack).