Irides, el visor de realidad virtual de Microsoft

Aunque parece que todos los esfuerzos de Microsoft se centran en la realidad aumentada con HoloLens, la sección de I+D está preparando Irides, un HMD inalámbrico de muy baja latencia.

14 May 2015  9:13

Juanlo

30 comentarios

Irides, el visor de realidad virtual de Microsoft

Para Microsoft, el principal desafío de la realidad virtual será ofrecer calidad, velocidad de respuesta y movilidad, todo al mismo tiempo, y el Proyecto Irides cumple con esas tres condiciones. Irides emplea la tecnología de streaming Kahawai, que descarga parte del trabajo de la GPU integrada haciendo que se procese en la nube, para devolverla en forma de streaming con una mayor calidad. Gracias al foveated rendering, Iride emplea más calidad en el punto exacto al que mira el usuario.

 

Doom 3

 

Microsoft ha hecho algunas pruebas con Doom 3, y los que lo han probado han notado una gran diferencia respecto a otras soluciones de realidad virtual existentes (entendemos que se refieren a Oculus) en cuanto a calidad global de la experiencia y latencia. En cualquier caso, el futuro de Irides no está claro, ya que se trata de un proyecto de investigación y es posible que Microsoft integre la tecnología de Irides en HoloLens en lugar de crear un visor de realidad virtual. El tiempo lo dirá.

Comentarios (30)

Enlace al foro
  •  Nikolas:Cuanto odio hacia MS en fin:

    Para reducir la latencia, se utiliza un sistema predectivo con una nube local entre servidor y usuario, de manera que la latencia de percibe el usuario es solo entre usuario y la "nube local"  a dia de hoy anda por unos 50ms, la idea es que esta baje por debajo de 20 en el desarrollo final.

    En resumen,  el usuario siempre va varios frames por detrás de los que estan calculado en nube, lo que hace que la latencia se limite a la mínima computación en local, pensar en que hay un "buffer" de frames ya calculados.

    Por otro lado, la frecuencia en frames para Xbox, se computara en 60fps y se podrán construir frames mediante HW específico que esta presente en One, con un potentísimo ASIC ( HANA2) que permitirá o bien construir frames para saltar de 60 a 90 frames o bien subirlo de resolución en caso de necesitar mas de 1080p para el visor, Asi que también hay soluciones integradas  para el cómputo en local.


    Si es que... En fin, como se detecta un FanBoy, por que estos solo aparecen cuando se habla de su marca preferida y a su vez la defienden, pero, no se hable mal de ellas o de sus productos, si no de la publicidad (lo gracioso es que se toman lo de FanBoy como un intento de insulto, aunque esa no sea la intención).

    Ya no quise responder cuando dijiste que el posible tiempo de latencia de las HoloLens (hay me di cuenta de donde estaba el problema de tratar con un FanBoy). Voy a explicar donde esta el fallo de esta publicidad:

    El fallo esta en que un sistema inalámbrico de muy baja latencia es una mezcla de palabras que se contradicen entre si, como ocurre con la nube local que es otra contradicción, para el que no lo entienda es como un automóvil de lujo, grande y potente, que sea barato, compacto y con poco consumo (las características se contradicen entre si).

    ¿Porque un sistema inalánbrico, no puede ser de baja latencia? porque el tiempo de respuesta aumenta al haber un intermediario que para colmo esta subordinado a interferencias electromagnéticas.

    En retransmisión en diferido en una dirección, incluso de manera inalámbrica, no es tan problemático (lo que el habla de fotogramas preparados de antemano) pero en tiempo real y con circulación en doble sentido de información es simplemente inviable para RA o RV.

    NP: Editado, por petición de la administración.
    0 0
  • Esto es falso: "sistema inalámbrico de muy baja latencia es una mezcla de palabras que se contradicen entre si"
    Hace un ping al router desde tu notebook, y lo más probable es que te de 1ms o menos de latencia. Y estamos hablando del WiFi, cuyas frecuencias suelen tener mucha interferencia (al menos en la banda 2.4Ghz).
    0 0
  • Vamos a desterrar el término fanboy de este foro porque solo consigue crear broncas en cuanto se empieza a utilizar, así que lo vamos a considerar una falta de respeto, por tanto os pido a todos que os abstengais de llamar fanboy a nadie. Quien no esté de acuerdo con los argumentos esgrimidos por otro forero, que exponga los suyos pero faltas de respeto no vamos a pasar ni una.

    Ayudadnos a hacer de este foro un lugar agradable para todos
    0 0
  • creo que si se renderiza las escenas que estan mas alla de la periferia del campo visual en la nube tendría mucho sentido
    0 0
  •  Federico:Esto es falso: "sistema inalámbrico de muy baja latencia es una mezcla de palabras que se contradicen entre si"
    Hace un ping al router desde tu notebook, y lo más probable es que te de 1ms o menos de latencia. Y estamos hablando del WiFi, cuyas frecuencias suelen tener mucha interferencia (al menos en la banda 2.4Ghz).


    Si, si, si eso esta muy bien, hasta que hay interferencias y el ping se dispara XD.

    Muchos no entienden que para la RV o RA la latencia es un factor clave, tanto es así que no es cuestión de tener un mejor sistema, si no de quitar intermediarios para optimizar tanto como se pueda, un sistema inalámbrico es un "intermediario" que se lleva por si solo su tajada en tiempo, de hay el problema.

    NP: Unido claro esta al tema de batería, peso, volumen y calor extra (lo que aumenta el precio del visor), pero eso es otra historia, el caso es que si fuera tan simple como muchos piensan, pues, ya se habría hecho, ahora bien no descarto que en un futuro próximo se de la noticia que ese problema se a solucionado.  


    0 0
  • AOXE3D:creo que si se renderiza las escenas que estan mas alla de la periferia del campo visual en la nube tendría mucho sentido


    Tampoco lo veo demasiado claro, porque lo que se vea en la periferia, aunque con menos detalle, tiene que ser parte del mismo "frame" (y del mismo momento de tiempo) que la imagen principal.
    A no ser que lo que se dibuje en la periferia sean manchones de colores con las mismas tonalidades que la imagen central, en ese caso prodría llegar a valer, pero no tengo claro que nuestra visión periférica sea tan difusa como para engañarla con tan poco detalle.
    0 0
  • Sólo digo una cosa: "Las limitaciones actuales serán superadas por la tecnología, sobretodo cuando hay mucho dinero a ganar".

    Saludos.
    0 0
  • Pepito_elconejo

    Anónimo

    "descarga parte del trabajo de la GPU integrada haciendo que se procese en la nube"
    Hasta acá leí. No, gracias Humosoft.
    0 0
  • jjdelalamo:
     AOXE3D:creo que si se renderiza las escenas que estan mas alla de la periferia del campo visual en la nube tendría mucho sentido


    Tampoco lo veo demasiado claro, porque lo que se vea en la periferia, aunque con menos detalle, tiene que ser parte del mismo "frame" (y del mismo momento de tiempo) que la imagen principal.
    A no ser que lo que se dibuje en la periferia sean manchones de colores con las mismas tonalidades que la imagen central, en ese caso prodría llegar a valer, pero no tengo claro que nuestra visión periférica sea tan difusa como para engañarla con tan poco detalle.

    perdon neutral me referia a lo que no se ve, mas alla de los limites del visor
    0 0
  • jjdelalamo:
     Nikolas:Cuanto odio hacia MS en fin:

    Para reducir la latencia, se utiliza un sistema predectivo con una nube local entre servidor y usuario, de manera que la latencia de percibe el usuario es solo entre usuario y la "nube local"  a dia de hoy anda por unos 50ms, la idea es que esta baje por debajo de 20 en el desarrollo final.

    En resumen,  el usuario siempre va varios frames por detrás de los que estan calculado en nube, lo que hace que la latencia se limite a la mínima computación en local, pensar en que hay un "buffer" de frames ya calculados.

    Por otro lado, la frecuencia en frames para Xbox, se computara en 60fps y se podrán construir frames mediante HW específico que esta presente en One, con un potentísimo ASIC ( HANA2) que permitirá o bien construir frames para saltar de 60 a 90 frames o bien subirlo de resolución en caso de necesitar mas de 1080p para el visor, Asi que también hay soluciones integradas  para el cómputo en local.


    Pues la verdad es que después de la explicación he entendido todavía menos.

    ¿La nube local? Toma ya.
    O es nube o es local. Parece que la "nube local" es calcularlo en la misma máquina, vamos, lo de toda la vida, pero tiene que aparecer la palabra nube.
    Y lo de calcular frames por adelantado está muy bien, pero ¿también tiene un chip adivinador para saber qué voy a hacer o hacia dónde voy a mirar en el próximo segundo?
    Y lo del ASIC, HANA2 y demás palabros, pues si funciona no es más que un coprocesador. Y si es potentísimo será carísimo. Resulta que las 295x2 y las Titan Z cuestan lo que cuestan por capricho. Nada, que MS ha descubierto la super CPU+GPU a una fracción del consumo y del precio que el resto de fabricantes del mundo.

    A ver, si seguro que tienen algo muy majo entre manos, pero por favor, que se dejen de palabrería y de tecnología arcana, que no queda muy serio.


    El concepto de nube local se lleva utilizando desde hace años, hacer offload a un dispositivo local que no pertenece al sistema principal.. Eso es una nube local, es típico de sistemas distribuidos.

    Los frames se calculan mediante sistemas predectivos SW, no hay un chip que haga eso, el HW local predice los frames potenciales y los envía al servidor para su cálculo, bien sea todo el frame bien parte de el.

    MS no ha descubierto una formula mágica de HW para CPU+ GPU, a sido la HSA fundación la que ha desarrollado lo que será la revolución en aceleración de gráficos en 2-3 años, lo bueno es que One esta preparada para HSA 1.0 al ser MS miembro de dicha fundación.

    La comparación con la titán z y tal no lo entiendo mucho, son sistemas completamente diferentes, si quieres tener potencia bruta sobre arquitecturas monolíticas necesitas potencia de calculo "bruto" para paliar la falta de paralelismo cpu-gpu y eso vale pasta, hasta que llegue el cambio de paradigma es lo que toca.

    Y si el HANA2 es un chip bastante potente, puede construir frames completos y reescalar de una manera muy eficaz. No tengo ni idea del precio, pero comprarlo al por menor seguro que no sería ninguna broma.
    0 0