Google avanza mejoras en la compresión de vídeo 6dof

22 JUN 2020  11:38

Redacción

7

Un equipo de investigadores de Google ha creado una nueva tecnología que promete llevar las experiencias XR a un nuevo nivel. Se trata de un método de grabación y compresión de imágenes y vídeo que aligera su peso para poder ser posteriormente retransmitidas por una conexión de Internet sin pérdida de calidad, permitiendo así luego un mejor rendimiento del movimiento 6DOF (posicionamiento absoluto).

 

"Estamos haciendo que esta tecnología sea práctica, acercándonos a la retransmisión de una experiencia verdaderamente inmersiva en un mayor número de dispositivos de consumo", comenta Michael Broxton, investigador de Google. "Las fotos y los vídeos juegan un papel muy importante en nuestra experiencia diaria en los dispositivos móviles y esperamos que algún día las imágenes y los vídeos inmersivos desempeñen un papel igualmente importante en las futuras plataformas de AR y VR", añadió.

 

 

El nuevo sistema comprime los llamados "light field videos" conservando su calidad visual original sin dejar de usar las bibliotecas de texturas convencionales ni los códecs de vídeo más habituales. Las escenas con amplio campo de visión pueden ser grabadas y reproducidas con la capacidad de movernos con 6 grados de libertad dentro del vídeo después de que ha sido capturado, revelando nuevas perspectivas. La idea no es solo desarrollar un sistema capaz de reconstruir el vídeo para una experiencia verdaderamente inmersiva a través de visores AR y VR de consumo, sino que se pueda acceder a este tipo de imágenes incluso desde un navegador web.

 

La descripción oficial es la siguiente:
"Presentamos un sistema para capturar, reconstruir, comprimir y renderizar light field vídeo de alta calidad. Grabamos light fields usando un conjunto personalizado de 46 cámaras sincronizadas en el tiempo, distribuidas en la superficie de una cúpula semiesférica de 92 cm de diámetro. A partir de estos datos producimos vídeos volumétricos 6dof con una amplia línea base de visión de 80 cm, 10 píxeles por grado de resolución angular y un amplio campo de visión (>220 grados), a una velocidad de fotogramas de vídeo de 30 fps. A pesar de que las cámaras están colocadas a 18 cm de distancia en promedio, nuestro sistema puede reconstruir objetos tan cerca como 20 cm del equipo de la cámara. Logramos esto aprovechando el algoritmo de interpolación de vista DeepView recientemente introducido, reemplazando su representación de escena de imagen multi-plano (MPI) subyacente con una colección de capas esféricas que son más adecuadas para representar el contenido del light field panorámico. Además, procesamos estos datos para reducir el gran número de capas a un número pequeño y fijo de capas de RGBA+profundidad sin una pérdida significativa de la calidad visual. Los canales RGB, alfa y de profundidad resultantes en estas capas son luego comprimidos utilizando técnicas convencionales de atlas de texturas y compresión de video. La representación final comprimida es ligera y se puede renderizar en plataformas móviles de RV/AR o en un navegador web".

 

 

El equipo de investigación, dirigido por Broxton y Paul Debevec, ingeniero senior de Google, hará una demostración de este nuevo sistema en la próxima conferencia virtual SIGGRAPH 2020.

 

Tenemos el paper del proyecto y algunos ejemplos en esta página web.