Facebook libera el software para enfoque variable de Half Dome

19 DIC 2018  20:15

Redacción

11

Cualquier persona puede explorar el algoritmo que se encarga de realizar el efecto de desenfoque de forma natural.

El sistema de renderizado DeepFocus que presentó Facebook Reality Labs en la F8 para lograr enfoque variable de forma realista en un visor de realidad virtual, ha pasado a ser de código abierto, por lo que podemos explorar en su página de GitHub todo el código fuente de este algoritmo basado en aprendizaje automático, además de los datos que utilizaron para entrenar al sistema que pudimos ver en funcionamiento en el prototipo Half Dome, que también ofrecía 140º de ángulo de visión. Según comparte Facebook, el objetivo de la publicación del algoritmo es ayudar a toda la comunidad a incorporar esta característica encargada de difuminar la imagen.

 

DeepFocus imita la forma en que vemos el mundo real, logrando difuminar de forma natural y en tiempo real las partes de la escena virtual a las que no estamos enfocando, es decir, el efecto de desenfoque que se produce alrededor. De esta forma y junto al hardware de Half Dome, podemos ver nítido tanto objetos alejados como cercanos, ya que el dispositivo es capaz de mover físicamente las pantallas, algo que logra que la experiencia sea más confortable e inmersiva.

 

 

"Nuestros ojos son como cámaras diminutas: cuando enfocan un objeto, las partes de la escena que están a una profundidad diferente se ven borrosas. Esas regiones borrosas ayudan a nuestro sistema visual a dar sentido a la estructura tridimensional del mundo, y nos ayudan a decidir dónde enfocar nuestros ojos a continuación. Mientras que los visores con enfoque variable de RV ofrecen una imagen nítida en cualquier lugar donde el espectador mire, DeepFocus nos permite renderizar el resto de la escena tal y como se ve en el mundo real: naturalmente borrosa", explican.

 

El documento de la investigación fue presentado en el SIGGRAPH que se celebró a principios de mes en Tokio. Podemos conocer más sobre el trabajo desarrollado en esta entrada de blog de la compañía.

 

Si se cumplen las previsiones de Michael Abrash (a cargo de Facebook Reality Labs), es posible que no veamos un visor comercial con enfoque variable hasta 2021.