LG Display desarrolla un algoritmo para reducir la latencia en contenidos de alta resolución

La solución, que utiliza técnicas de aprendizaje profundo, se basa en el empleo de imágenes de baja resolución que se transforman en ultra alta resolución, reduciendo así la carga del sistema.

28 May 2018  20:52

Harold

4 comentarios

LG Display desarrolla un algoritmo para reducir la latencia en contenidos de alta resolución

LG Display, junto a la Universidad Sogang de Corea del Sur, ha desarrollado una tecnología que utiliza la inteligencia artificial para reducir la latencia de los contenidos de realidad virtual. La solución se basa, según explica el profesor Kang Seok-ju de Sogang, en un algoritmo capaz de convertir en tiempo real imágenes de baja resolución en otras de ultra alta, utilizando para ello técnicas de aprendizaje profundo. Esto se traduce en una reducción significativa de hasta una "quinta parte" de la latencia (motion to photon), así como también en una mejora del consumo, ya que reduce la carga del hardware. A su vez, la tecnología permite que equipos con menos potencia puedan renderizar mayores resoluciones.

 

"Como el contenido con mayor resolución exige una mayor capacidad de datos. Esto también provoca una mayor latencia (entre el movimiento de los usuarios y la actualización de la pantalla) en tiempo real", explican.

 

Básicamente, se trata de una forma de realizar el escalado, donde el ahorro viene por la utilización de la menor calidad de la imagen que se convierte a una mayor calidad mediante el citado algoritmo de inteligencia artificial, que "solo utiliza la memoria interna del dispositivo".

 

LG está colaborando también con la Universidad para desarrollar un instrumento de medición de latencia en visores de realidad virtual, que funciona con un motor para emular los movimientos del usuario.

 

El equipo, que ha estado trabajando en esta técnica desde 2015, no ha confirmado si se utilizará en el futuro visor de LG. La semana pasada presentaron, junto a Google, su nueva pantalla de realidad virtual, pero no hacían referencia a esta nueva tecnología de renderización de contenidos de alta resolución.

Comentarios (4)

Enlace al foro
  • Cdaked

    Cdaked

    Visores

    Cardboard
    Oculus Go
    Buenísimo. Supongo que ya nadie duda que LG está haciendo algo en XR para ella y/o Google ¿no?
    Si controla el escalado, parece para la pantalla de Google y LG ya que llevaría un chip para controlar la resolución y escalado en una zona.

    Parece que, aparte de la latencia, también evita el desenfoque (blur), reduce el consumo energético y a una quinta parte el trabajo de la tarjeta gráfica, usa la memoria del dispositivo, no del PC...

    Una fuente extra en inglés, ZDNet.
    en VRFocus
    y en Road To VR.
    5 0
  • Lo que no acabo de entender es que la calidad de la imagen será en baja y luego se amplia, o sea, que todo se resume a un reescalado, pero en mejor (??¿¿)
    Eso sí, eso que solo usa una quinta parte de la tarjeta, significa que todas las tarjetas acaban de subir en potencia para la vr por la cara, si a eso añadimos el fovateated render, quizas la siguiente generación no exija tanto, igual no va a hacer falta ni comprarse nueva tarjeta
    2 0
  • SpAiK

    SpAiK

    Visores

    Gear VR
    Cardboard
    OSVR HDK2
    Lenovo Explorer
    raul:Lo que no acabo de entender es que la calidad de la imagen será en baja y luego se amplia, o sea, que todo se resume a un reescalado, pero en mejor (??¿¿)

    Por hacer un símil simple, imagino que lo que resuelve el aprendizaje profundo es como cuando lees una palabra mal escrita pero tu la entiendes bien, tu cerebro la reconstruye correctamente.

    Eso podría aplicarse igualmente a cualquier display y así reducir la exigencia gráfica en resolución para amortizarla en otros aspectos.
    4 0
  • Sí, pero si estas viendo digamos unos arboles a 720, lo que hace esta pantalla es escalarlo a 4k..entonces de donde sale la nueva información visual? de donde salen todos los detallitos de las hojas, y la hierva? se lo inventa?
    0 0