Tema: Sale Unreal Engine 4.10 con positivas novedades para VR

Mensajes

  • Jose_rv

    31 Mar 2015 19:19

    Mensajes: 1295

    Ubicación: Santa Cruz de Tenerife

    Visores

    Oculus Rift Development Kit 1
    Oculus Rift Development Kit 2
    Oculus Rift
    Oculus Go
    Oculus Quest
    Oculus Rift S
    Jose_rv » 12 NOV 2015  10:41

    Ayer noche salio la release de la version 4.10 del motoro  Unreal Engine 4, esta vez han tenido especial interes en optimizar el motor para realidad virtual, parece ser que de manera bastante positiva, yo aun no lo he probado,  aqui las novedades para VR:

     

    NUEVO: OPTIMIZADO VR RENDERING
    ""Sus juegos de realidad virtual se vuelven más rápidos en esta actualizacion, gracias a las nuevas optimizaciones de renderizado específicamente para procesado en cascos de rv. Hemos implementado un nuevo "optimización de malla Ocultos y Visible" para reducir la sobrecarga de la GPU de VR renderizado. Tren bala VR demo, por Epic Games Estos dos optimizaciones asegurar que no pasamos tiempo GPU trabajando en píxeles que no se mostrarán en el dispositivo real, debido a las distorsiones de la lente. La malla área oculta trabaja como PrePass, donde tomamos una malla que representa el área oculta a la vista, y rechazamos todo lo que detrás de la malla. A continuación, para la etapa de post-procesamiento, utilizamos la inversa de esa malla, que representa los píxeles visibles, y el procesamiento posterior a continuación sólo se ejecutan en ellos. Mediante el uso de estas dos técnicas, se obtiene un rendimiento "libre"! El "tren bala", vimos un ahorro de aproximadamente 0,25 ms totales en el PC, en el que el tiempo total del marco sólo 11 ms. En las plataformas de consola se puede esperar ver mucho más grandes mejoras de rendimiento! ""

     

    BAJA LATENCIA CONTROLADORES DE MOVIMIENTO VR
    ""Hemos actualizado Componentes Motion Controller ahora hacer un late-actualización justo antes de comenzar la representación. Usted puede ver la diferencia entre una actualización tardía y una posición del componente y la rotación de abajo no actualizada tarde. La captura de pantalla fue tomada durante un movimiento de la velocidad normal, de lado a lado del brazo.

     

    Esta es la misma técnica que usamos para reducir la latencia con la cabeza montado pantallas. Ahora actualizamos posiciones de movimiento de componentes Controller dos veces por trama: una vez durante la garrapata de entrada, y una vez más la derecha antes de que prestamos. Eso significa que los controles se sentirán más sensible, y reflejar mejor lo que el jugador está haciendo en el mundo real. Esta característica está habilitada por defecto.""

     

    Otros:
    Nuevo: Añadido soporte para efectos de retroalimentación háptica, que utilizan curvas de amplitud y frecuencia para definir la respuesta de los jugadores se sientan en sus controladores de movimiento.
    Nuevo: Actualizado Oculus Mobile SDK (GearVR) a la versión 0.6.2.
    Nuevo: Actualizado Oculus SDK 0.8.
    Solución de error: Se ha corregido informes impropia de Is HMD Activado.
    Corregido errores de compilación en GearVR Plugin para objetivos no ARMv7.

     

    Aqui el resto de novedades: www.unrealengine.com/blog/unreal-engine-4-10-released?utm_medium=email&utm_campaign=4dot10&utm_source=newsletter_nov

    0
  • YapCom

    29 Sep 2015 17:26

    Mensajes: 64

    Ubicación: Nuevo León, México

    YapCom » 12 NOV 2015  15:42

    Como me da dolor de cabeza leer un texto grande traducido con el traductor de Google   cry

    Mi PC:
    CPU: Pentium Dual-Core E5700 | GPU: Radeon HD 5450 2,0 Gb
    Motherboard: GIGABYTE GA-G41MT-S2 | Ram: 4 Gb
    "No hay peor ciego que el que no quiere ver"

    0
  • Juanlo

    Moderador

    11 May 2013 12:53

    Mensajes: 7862

    Ubicación: Murcia (España)

    Juanlo » 13 NOV 2015  8:30

    Me alegro de que haya mejoras de rendimiento con eso de no renderizar las mallas ocultas, los que están preparando proyectos en UE4 para Oculus, Vive y PlayStation VR lo agradecerán.

    0
  • VirtualVR

    2 Nov 2015 22:39

    Mensajes: 672

    VirtualVR » 13 NOV 2015  9:01

    Vemos como la ingeniería informática poco a poco va avanzando con nuevas técnicas exclusivas de vr como lo de no renderizar lo que no vemos en un hmd o como lo de la resolucion a capas todo para mejorar el rendimiento y sobretodo para disminuir las latencias.

    0
  • jahrv

    9 Ene 2014 09:38

    Mensajes: 929

    jahrv » 26 NOV 2015  13:03

    No es por fastidiar la noticia, que es muy buena, pero en mi opinión personal todos los game-engine actuales están integrando optimizaciones para la Realidad de forma muy lenta. En el caso de Unreal Engine, que lo conozco mejor, las verdaderas novedades que optimizarían una barbaridad la Realidad Virtual serían las siguientes:

     

    - Shared instance rendering, un sistema de renderizado que tuviera en cuenta que prácticamente lo que hay que renderizar en cada ojo es casi lo mismo con un ligero shifting, y que incluso a unos 100m en la escena virtual se pierde toda capacidad en las actuales pantallas de mostrar detalle estereoscópico. Epic ha implementado internamente una modificación al UE que permite algo como esto y es lo que hay permitido que la demo Bullet Train vaya tan fluida. No está previsto aún en qué fecha estará disponible esta feature en el main branch. Presumiblemente en la versión 4.11.

     

    - Integración completa de Gameworks VR y LiquidVR en el engine, aportando al rendering todas las mejoras que esos SDK permiten. Esto tampoco ha dado Epic fechas de cuándo estará disponible, y que permitirá finalmente aprovechar al máximo varias GPUs para el renderizado estereoscópico así como una integración mayor con las gráficas.

     

    - Mixed deferred and forward rendering. UE actualmente es un motor que usa únicamente el método deferred rendering. Es el más usado en videoconsolas, pero para la Realidad Virtual, puesto que no es posible permitirse mucha complejidad en la iluminación, la técnica forward rendering es mucho más beneficiosa. En los móviles se dispone incluso de una técnica mixta, deferred y forward al tiempo, que usa una u otra según el contexto, optimizando al máximo el rendering. La Realidad Virtual necesitaría algo como esto.

     

    - Editor que funcione nativamente en RV. Actualmente se está viendo que es muy difícil editar una escena de RV usando la pantalla. El 2D de nuestra pantalla es muy engañosa sobre el aspecto que tienen en realidad los objetos cuando te colocas las gafas. Poder editar una escena directamente dentro de ella usando las gafas aumentaría enormemente la productividad de los developers.

     

    Todas estas grandes features van a tardar. La RV está todavia muy incipiente, y Epic, aunque está haciendo un esfuerzo enorme con esta tecnología, todavía está destinando unos recursos muy limitados a ella. No sé cuantificar cuánto ganaremos en los juegos y apps cuando todas esas features que menciono estén en el engine, pero va a ser una mejora muy muy alta. Esperando con ansia estoy...

    0
  • Jose_rv

    31 Mar 2015 19:19

    Mensajes: 1295

    Ubicación: Santa Cruz de Tenerife

    Visores

    Oculus Rift Development Kit 1
    Oculus Rift Development Kit 2
    Oculus Rift
    Oculus Go
    Oculus Quest
    Oculus Rift S
    Jose_rv » 26 NOV 2015  13:23

    Muy deacuerdo con lo que dices, así es...

     

    De cara a los tamaños cuando te pones las gafas es salvaje como se aprecia la diferencia, yo no te digo más que un metro de medir se ha vuelto mi mejor compañero de trabajo, es la única manera de que todo me quede perfecto de tamaños con las gafas, la panatalla 2d tiende a que agrandemos todo una pasada

    0
  • Fguillotine

    30 Ene 2015 17:20

    Mensajes: 3724

    Ubicación: Vigo

    Visores

    Air Link
    Meta Quest 3
    Fguillotine » 26 NOV 2015  13:50

    de cuaerdo en casi todo también, menos en shared instance rendering. Es la primera vez que escucho el término pero por lo que cuentas da la sensación de ser, más o menos, lo mismo que el 3D basado en Z-buffer, que lleva utilizando Tridef desde hace años, en wrappers como VorpX, o incluso de forma nativa en juegos como Crysis 2. Sí, se gana rendimiento pero los resultados suelen ser bastante peores, creando halos extraños alrededor de algunos objetos y mostrando otros a una profundidad erronea. Vamos, que desde una imagen plana en 2D es imposible generar una imagen estereoscópica perfecta.

     

    Por otra parte que a 100 m. se pierda detalle estereoscópico no crea que sea un defecto de las pantallas actuales. Es que el ojo humano a esa distancia pierde la percepción de volumen de los objetos de forma gradual. Cuanto más aumenta la distancia menos percepción 3D tenemos. Cuado miras al horizonte tus ojos están viendo dos imagenes exactamente iguales.
    Otra cosa es que en el cine o en algún videojuego se intenté jugar con la convergecia de las imagenes buscando espectacularidad, aunque se pierda realismo.

     

    Saludos

    0
  • imho

    7 Mar 2014 06:22

    Mensajes: 1552

    Visores

    Meta Quest 3
    imho » 26 NOV 2015  14:42
    de acuerdo en casi todo también, menos en shared instance rendering. Es la primera vez que escucho el término pero por lo que cuentas da la sensación de ser, más o menos, lo mismo que el 3D basado en Z-buffer, que lleva utilizando Tridef desde hace años, en wrappers como VorpX, o incluso de forma nativa en juegos como Crysis 2. Sí, se gana rendimiento pero los resultados suelen ser bastante peores, creando halos extraños alrededor de algunos objetos y mostrando otros a una profundidad erronea. Vamos, que desde una imagen plana en 2D es imposible generar una imagen estereoscópica perfecta.

    Por otra parte que a 100 m. se pierda detalle estereoscópico no crea que sea un defecto de las pantallas actuales. Es que el ojo humano a esa distancia pierde la percepción de volumen de los objetos de forma gradual. Cuanto más aumenta la distancia menos percepción 3D tenemos. Cuado miras al horizonte tus ojos están viendo dos imagenes exactamente iguales.
    Otra cosa es que en el cine o en algún videojuego se intenté jugar con la convergecia de las imagenes buscando espectacularidad, aunque se pierda realismo.

    Saludos
    A mi me da bastante miedo literalmente esa feature,si esto se tratase de lo mismo o algo similar que el z-buffer. Yo le vería sentido a esta tecnica,si se pudiese utilizar para una parte concreta de la escena,(que posiblemente se pueda,no lo se). Por ejemplo,en la periferia u objetos lejanos,y los desarrolladores acostumbrasen a hacer uso de esta tecnica de este modo,ganando algo mas de rendimiento en objetos que no vamos a percibir de igual modo,al estar mas lejanos. Pero tal y como lo veo actualmente,en objetos cercanos y a media distancia,a mi personalmente me resta mucha immersion,ya que no solo siento mucho menos 3d y profundidad,sino como comentas anteriormente,tambien los halos o burbujas transparentes y errores,e incluso varias limitaciones mas.

     

    Yo constantemente tengo pequeños "choques" con algun que otro usuario en algun foro de wrapper,cuando alaban un soporte enteramente bajo esta tecnica de reconstruccion 3d,o incluso toca explicarle a un usuario encabezonado en que esto no es 3d "real"(notense las comillas de esta expresion),por ello siempre que es posible me decanto por geometria en estos.
    A las tecnicas basadas en z-buffer,le veo su utilidad,y claro que tambien prefiero esto a nada en algunas ocasiones,pero vamos que esto no es la panacea ni mucho menos.

     

    En fin,el resto de mejoras de las notas,si que me parecen interesantes.

    0
  • Faldo

    19 May 2013 14:59

    Mensajes: 1072

    Ubicación: Madrid

    Visores

    HTC Vive
    Faldo » 27 NOV 2015  14:26

    Ya veréis cuando las HMDs salgan al mercado y haya 500 millón como poco de usuarios con ellas, como aparecerán optimizaciones, y juegos a punta pala.

    0

Usuarios navegando por este foro:

11 Anónimo