Fove, HMD con foveated rendering, posible integración con Xbox

Mucho se ha hablado sobre si el foveated rendering (en pocas palabras, renderizar con más calidad la zona a la que miramos que el resto) es la mejor solución para crear HMDs con una elevada resolución con unos requerimientos de potencia gráfica contenidos. Para ello es necesario un sistema que permita seguir nuestra mirada con la suficiente rapidez como para que no lo notemos.

11 SEP 2014  11:57

Juanlo

30 comentarios

Fove, HMD con foveated rendering, posible integración con Xbox

 

 

FOVE ha sido presentado en el TechCrunch Disrupt. Esta startup con sede en Tokio afirma haber logrado un sistema capaz de seguir nuestra mirada y ajustar el nivel de detalle de la zona a renderizar con la rapidez necesaria, y ha mostrado un prototipo del mismo. No han revelado los detalles de su tecnología, ya que todavía están pendientes del registro de patentes, pero han afirmado que utilizan tecnología infrarroja capaz de seguir los movimientos de nuestros ojos con una latencia mínima y una enorme precisión.

 

Además, FOVE participa en el programa Microsoft Ventures Accelerator de Londres, y sus creadores han afirmado que tienen intención de hablar con Microsoft para ofrecerles la posibilidad de integrarlo en la plataforma Xbox, aunque por el momento no han concretado nada. Opinan que los jugadores de consola suelen ser reacios a pagar por un dispositivo que cuesta más que la propia consola, y al parecer FOVE sería más caro que Oculus Rift, lo cual es lógico si integra la tecnología de seguimiento ocular.

 

FOVE

 

En estos momentos hay diversos prototipos funcionales como el que veis en la imagen, y planean lanzar una campaña de Kickstarter junto con el SDK el año que viene, con el objetivo de disponer de una versión comercial en 2016.

Comentarios (30)

Enlace al foro
  • A mi me gustaria saber que opina Standark de este aparato , porque parece que sabe algo del tema.
    0 0
  • Yo hay una cosa que veo que no habéis comentado, cada vez que el chaval habla sobre el seguimiento ocular lo comenta como que es perfecto para apuntar, obtener reacciones de personajes al saber que los miras y cosas así, o sea, sólo para la jugabilidad. Pero en ningún momento a hablado de usar el seguimiento ocular para renderizar con mejor calidad solo la zona a la que miramos, y de echo creo que eso no sería posible con el sistema que tienen, por muy bien que digan que va yo en el vídeo no lo veo lo suficiente fino como para ir cambiando la calidad de la imagen donde vamos mirando y que nosotros no nos demos cuenta, y si llegamos a notar el cambio de calidad en ciertas zonas, por poco que sea ya sabéis en que se puede traducir: mareos masivos para mentes sensibles...o sea que yo no lo veo aún viable en ese aspecto, es el primero con eye tracking si, pero sólo aplicable a la jugabilidad, a menos que microsoft los acoja de verdad y refinen el eye tracking en latencia y demás (esto carmack seguro que lo haría genial).
    De todos modos es sólo un primer prototipo, igual si consiguen que sirva bien para ese propósito su eye tracking, pero si buscasen esa finalidad digo yo que la habrían mencionado y remarcado, porque lo único que han enseñado es como se enfoca la imagen a la profundidad que miras, como te sonrie la chica si la miras y disparar a donde miras, pero en ningún momento han mencionado el tema de renderizar a menor resolución donde no estamos mirando.

    Bueno perdon por el tocho :P
    Aún así gran noticia, a ver como avanza
    0 0
  • "RescueGamer":Pero en ningún momento a hablado de usar el seguimiento ocular para renderizar con mejor calidad solo la zona a la que miramos,


    Yo le he oído decir claramente "Foveated rendering", no recuerdo en qué parte pero ahora lo miro si no.
    Y en la página de su adhesión a la ITA está mencionado también. Decirlo lo han dicho, pero otra historia es que no parecen haber enseñado ninguna demo.
    0 0
  • Sí que lo han dicho, y también lo menciona el artículo de TenchCrunch.
    0 0
  • "Diegolas":A mi me gustaria saber que opina Standark de este aparato , porque parece que sabe algo del tema.


    Al contrario, yo se más bien poco o nada del tema... Lo que he tenido es ocasión de hablar con personas que se dedican a la investigación de este tipo de tecnología, y me cambiaron radicalmente la opinión que yo tenía al respecto.

    Esta tecnología de seguimiento ocular existe desde hace mucho, pero para usos radicalmente menos precisos que el aquí pretendido. La utilidad que tendría el seguimiento ocular en RV, fuera de añadidos de cara a la jugabilidad (bastante insustanciales puesto que para activar menús o etc puedes mover directamente la cabeza) es el renderizado selectivo, y aquí es donde vienen los problemas.

    Esta tecnología en su estado actual, sencillamente, está lejos de cumplir los requisitos necesarios para utilizarla con renderizado selectivo. El ojo enfoca un área MUY pequeña de todo el campo de visión, por lo que la idea sería renderizar un área algo mayor que esta a máxima resolución y desplazarla por la imagen en base al movimiento de nuestros ojos. ¿El problema? Pues entre otros, el de siempre, la latencia. Imagínate hacer un movimiento rápido, por acto reflejo o lo que sea, que rompa la predicción por software del movimiento de tus ojos, y te salgas momentáneamente de ese área "enfocada". Otro problema sería que esta tecnología no es excesivamente precisa (insisto, en su estado actual). Esto implica que el área a renderizar debe ser notablemente más grande que el área de visión real de nuestro ojo y ahí entramos en un dilema: este área a renderizar debe ser lo más pequeña posible, para conseguir aligerar la carga de renderizado a pesar del cálculo extra que supone renderizar una parte concreta...

    Y como estos decenas de problemas que me comentaron muy de pasada. Ya digo que yo no estoy nada puesto en todo esto, y lo que comento es de oídas, pero me aseguraron que estamos a unos años aún de ver algo así en un visor...
    0 0
  • ¿Y no es más fácil optimizar el código y que vaya bien en hardware menos potente?

    Veo un reto programar renderizado selectivo y que a la velocidad que va la pupila sea eficiente. Siempre al mover el ojo habría un poco de tiempo en el que veríamos la imagen a baja resolución, por lo que o va muy muy rápido o la sensación de tener una especie de popping sería muy molesta.

    Al menos para renderizado selectivo no lo veo, quizás si para que le programa sepa donde miras y se adapte a ello en cuanto a la jugabilidad.
    0 0
  • Parece que solo vemos en alta resolución el 5% asi que aunque renderizaran el 40% para tener márgenes amplios de error, el consumo de recursos disminuiría considerablemente, no se si esta tecnología está o no para ser comercializada ya veremos que tienen que decir al respecto estos de Fove cuando nos enseñen algo.

    "eteal":¿Y no es más fácil optimizar el código y que vaya bien en hardware menos potente?

    Veo un reto programar renderizado selectivo y que a la velocidad que va la pupila sea eficiente. Siempre al mover el ojo habría un poco de tiempo en el que veríamos la imagen a baja resolución, por lo que o va muy muy rápido o la sensación de tener una especie de popping sería muy molesta.

    Al menos para renderizado selectivo no lo veo, quizás si para que le programa sepa donde miras y se adapte a ello en cuanto a la jugabilidad.


    El ojo no se mueve tan rápido como pensamos , con esto no quiero decir que sea fácil implementar esta tecnología, pero vamos llevan años en ello y mas tarde o mas temprano será una realidad.

    Optimizar código si, pero claro es que estamos hablando de doble renderizado o a 1080p (dk2) o posiblemente 1440p (cv1) y encima con una tasa de fps entre 75 y 90 , es mucha potencia eso.

    Un Saludo.
    0 0
  • La periferia de la visión ya se nos emborrona al dirigir la vista. ¿El hecho de perder nitidez naturalmente sumado a la mayor pérdida por esta tecnología no sería muy extraño, como un efecto túnel? Nadie dice nada de este inconveniente. Me lo imagino comparable a llevar un casco de cristal totalmente translúcido y transparente en una zona delimitada que acompaña nuestra vista.
    0 0
  • Pero a ver, si naturalmente pierdes esa nitidez, ¿cómo demonios te vas a dar cuenta de que la imagen también ha perdido nitidez? Una falta de nitidez no se suma a la otra.
    0 0
  • Pues yo sigo en mis trece en que en el software para el Cv1 deberian incluir la opcion del foveated rendering sin eye tracking, me explico, el 95% del tiempo miramos hacia el centro de nuestra vision y para mirar movemos mas el cuello, por lo tanto el 95% del tiempo estamos desaprovechando la calidad grafica de la vision periferica, incluso creo nos adaptariamos sin darnos cuenta a mover el cuello en vez de la pupila.

    Lo digo como una opcion para la gente que no tiene un superPC.

    Es mas voy a investigar en Unity, bajando la calidad grafica a tope en las que tengo y creando dos camaras nuevas mas pequeñas y centradas que tengan la calidad a tope y viendo si consigo mas fps.
    0 0