Tema: Y Oculus con quien se acostará? G-sync o Freesync??

Mensajes

  • Cuco

    15 Oct 2014 00:06

    Mensajes: 208

    Ubicación: Barcelona

    Cuco » 21 NOV 2014  1:11

    Abro este hilo porque me parece interesante hablar de este tema, del cual no he visto ningún comentario y por contra creo que es bastante importante.

     

    No se si ya os lo habréis preguntado o que a lo mejor ni tiene sentido el hacerlo.. pero.. dado todo el revuelo que esta habiendo al rededor de estas tecnologías y que parecen que son un gran avance, yo como usuario al que le gusta leer de estos temas y estar un poco informado me planteo, que pensaran los de Oculus al respecto? Les interesará..?

     

    Vamos a centrarnos un poco.. y es que estas tecnologías se basan en, resumidas cuentas, sincronizar los fps de las gpu's con los hz's del monitor. Hasta ahí bien, y ahora alguno dirá...si pero Oculus quiere que tengamos "supuestamente" 90 fps constantes para el cv1, pero claro...digo yo... lo mismo es que activemos la sincronización vertical para que la gpu no pase de 60 fps y así se combine perfectamente con los 60 hz que nos dan la mayoría de los monitores convencionales y si vamos sobrados, tampoco tendremos caídas de fps con lo que a priori ya es perfecto...pero nooo!.. porque al parecer el freesync y el g-sync hacen que el tema sea mucho más fluido, porque, entiendo yo, que utilizando estas tecnologías se consigue que los 60 fps junto con los 60 hz vayan perfectamente acompasados los unos con los otros, cosa que no tiene porque pasar con la v-sync donde pueden haber 60 fps y 60hz pero completamente descompasados..

     

    Dicho esto, el g-sync de Nvidea es exclusivo, sin embargo el freesync de Amd es "público", pero para ambos casos necesitas un monitor compatible con una u otra tecnología, por lo tanto.. Qué pasará con los próximos CV's?????

     

    Pues ahí queda el asunto.. que opináis???

     

    PD: Es un tema difícil de redactar, lo he intentando hacer lo mejor posible, aunque seguro no suficientemente bien.. XD.. disculpad si he metido alguna cagada técnica o algo... entiendo un poco pero no soy ningún pro.. y siempre hablo desde la humildad..

    0
  • Lukimator

    14 Abr 2014 00:10

    Mensajes: 1840

    Ubicación: London

    Lukimator » 21 NOV 2014  1:53

    El problema aquí se llama baja persistencia, ya que cuando bajase a 50fps también tendría que o bien desactivarse, o aumentar la persistencia del display arriesgando a que haya parpadeos apreciables

    0
  • VooDoo228

    24 Jun 2014 00:18

    Mensajes: 93

    Visores

    Oculus Quest 2
    VooDoo228 » 21 NOV 2014  7:02
    "Cuco"Abro este hilo porque me parece interesante hablar de este tema, del cual no he visto ningún comentario y por contra creo que es bastante importante.

    No se si ya os lo habréis preguntado o que a lo mejor ni tiene sentido el hacerlo.. pero.. dado todo el revuelo que esta habiendo al rededor de estas tecnologías y que parecen que son un gran avance, yo como usuario al que le gusta leer de estos temas y estar un poco informado me planteo, que pensaran los de Oculus al respecto? Les interesará..?

    Vamos a centrarnos un poco.. y es que estas tecnologías se basan en, resumidas cuentas, sincronizar los fps de las gpu's con los hz's del monitor. Hasta ahí bien, y ahora alguno dirá...si pero Oculus quiere que tengamos "supuestamente" 90 fps constantes para el cv1, pero claro...digo yo... lo mismo es que activemos la sincronización vertical para que la gpu no pase de 60 fps y así se combine perfectamente con los 60 hz que nos dan la mayoría de los monitores convencionales y si vamos sobrados, tampoco tendremos caídas de fps con lo que a priori ya es perfecto...pero nooo!.. porque al parecer el freesync y el g-sync hacen que el tema sea mucho más fluido, porque, entiendo yo, que utilizando estas tecnologías se consigue que los 60 fps junto con los 60 hz vayan perfectamente acompasados los unos con los otros, cosa que no tiene porque pasar con la v-sync donde pueden haber 60 fps y 60hz pero completamente descompasados..

    Dicho esto, el g-sync de Nvidea es exclusivo, sin embargo el freesync de Amd es "público", pero para ambos casos necesitas un monitor compatible con una u otra tecnología, por lo tanto.. Qué pasará con los próximos CV's?????

    Pues ahí queda el asunto.. que opináis???

    PD: Es un tema difícil de redactar, lo he intentando hacer lo mejor posible, aunque seguro no suficientemente bien.. XD.. disculpad si he metido alguna cagada técnica o algo... entiendo un poco pero no soy ningún pro.. y siempre hablo desde la humildad..

     

    Joder...pues opino , que acabas de demostrar que no me entero de nada.... bufffff....a ver si me meto mas en el tema a parte de lograr que los juegos me rulen lo mejor posible....
    Eso si..hoy ya podre decir que no te irás a la cama sn aprender algo nuevo.....

    0
  • Juanlo

    Moderador

    11 May 2013 12:53

    Mensajes: 7862

    Ubicación: Murcia (España)

    Juanlo » 21 NOV 2014  8:34

    Yo creo que Oculus no busca un vsync adaptable, sino que quiere fps sólidos todo el tiempo, ya sean reales o "inventados" mediante TimeWarp. Si el CV1 va a 90 Hz, harán falta 90 FPS todo el tiempo y no hará falta una sincronización vertical adaptable.

    0
  • dinodini

    14 May 2013 21:30

    Mensajes: 4157

    Visores

    PlayStation VR
    Oculus Quest 2
    PlayStation VR2
    dinodini » 21 NOV 2014  9:23

    El problema para Oculus es el tema del baile de fps. Jugando en un monitor es algo molesto, pero en RV es sencillamente insoportable.

    WELCOME TO THE FUTURE

     

    0
  • CortadorCesped

    23 Ago 2014 08:16

    Mensajes: 270

    CortadorCesped » 21 NOV 2014  9:24
    "Juanlo"Yo creo que Oculus no busca un vsync adaptable, sino que quiere fps sólidos todo el tiempo, ya sean reales o "inventados" mediante TimeWarp. Si el CV1 va a 90 Hz, harán falta 90 FPS todo el tiempo y no hará falta una sincronización vertical adaptable.

     

    Opino lo mismo. Segurisimo que van por otros derroteros bien distintos como bien apuntas.

    No hay fronteras. No hay límites. No hay reglas.
    - Bienvenido a la Realidad Virtual. -

    0
  • Juanlo

    Moderador

    11 May 2013 12:53

    Mensajes: 7862

    Ubicación: Murcia (España)

    Juanlo » 21 NOV 2014  9:41
    "dinodini"El problema para Oculus es el tema del baile de fps. Jugando en un monitor es algo molesto, pero en RV es sencillamente insoportable.

     

    Además de insoportable yo diría que es inaceptable, porque rompe totalmente la magia y la esencia de la realidad virtual.

    0
  • knack

    28 Jul 2014 21:01

    Mensajes: 1762

    knack » 21 NOV 2014  11:11

    yo no se la diferencia de ambos y tampoco entiendo bien lo que dices

     

    Lo que si es que el monitor esta claro que va a ser de 90hz si no lo meten de más y entrelazado.

     

    No entiendo por que metes 60hz en el tema por que es lo que llevan los monitores comúnmente cuando es irrelevante, la cuestión es conseguir los mayores hz y fps para que la sensación de movimiento sea lo más real posible y el parpadeo sea lo menos notable posible, y eso no se consigue con 60hz.

     

    Oculus no se casara ni con NVIDIA ni con ATI, seria estúpido, si quieres evitar el tearing activas el Sync que tengas. No van a hacer nada dependiente de que tengas una tarjeta u otra.

     

    Como ya dije en alguna otra ocasión, Nvidia suele tener muy buenas technologias, technologias que al contrario que AMD apenas se utilizan y se implementan por que son cerradas. A nvidia le va bien por
    que vende a los gamers algo que apenas utilizaran, es puro marketing mayormente, AMD las hace open standard y las convierte en eso standard que implementan/adopta y se utilizan ampliamente, vease mantle.

    0
  • Lukimator

    14 Abr 2014 00:10

    Mensajes: 1840

    Ubicación: London

    Lukimator » 21 NOV 2014  17:04

    Es cierto, lei que el gsync es mejor que el freesync, pero como uno es cerrado y el otro abierto tiene mas posibilidades de adopción

    0
  • knack

    28 Jul 2014 21:01

    Mensajes: 1762

    knack » 21 NOV 2014  19:21

    Ahora que estoy viendo lo del pelo pasa igual, no se si sera mejor el air de nvidia o el tress del amd, posiblemente el de nvidia aunque ni idea, la cuestión es que el tress es independiente del hardware y open standard, la cuestión es que nvidia te vende unos videos/demos muy bonitos de un pelo cojonudo que solo rulara en determinados juegos AAA que lo implementen y mientras tengas nvidia, al final el pelo realista que tendrás en la mayoría de los juegos sera tress o sucedáneos sobretodo en VR.

     

    El que esta implementado el tressfx en UE4 envió un correo a NVIDIA por que tenia preferencia por el, y pasaron de el, ni le contestaron, amd se puso en contacto con el para ofrecerle la ayuda que necesitara. A uno le interesa claramente más el marketing que se use. Y lamentablemente le funciona!

     

    Nvidia contenta por que sigue vendiendo sus tarjetas con tecnologías exclusivas que los gamers compran por que ven 3 buenas demos, tecnologías que van a ser casi fantasmas sobretodo en VR.

     

    Yo fui toda mi vida hasta esta año de NVIDIA y la verdad que cada vez me gusta menos su política si me pongo a comparar. No hay color. AMD hace mas por el sector que NVIDIA sin discusión posible.

     

    De todas formas no descarto comprarme una NVIDIA si da mejores resultados en lo que busco y se ajusta a lo mejor calidad/precio, lo que no me van a vender es humo, sobretodo con esas tecnologías muy bonitas que me van a servir para nada.

    0
  • Faldo

    19 May 2013 14:59

    Mensajes: 1072

    Ubicación: Madrid

    Visores

    HTC Vive
    Faldo » 22 NOV 2014  12:38

    El freesync vendra acoplado en el Displayport 12a. Oculus solo tendra que crear una salida Displayport 12a para que tenga freesync. En el caso de querer G-sync de NVIDIA, supondra pagar una patente y encarecer las gafas ademas de tener que meter mas hardware. Tambien es verdad que la gráfica necesita un displayport 12a para Freesync, que no se si hay alguna.

     

    El freesync es por software, y el G-sync por hardware. Eso siginifca que G-sync deberia funcionar mejor (no hay nada todabía con Freesync para comparar) pero encarece el monitor en cuestion una barbaridad.

    0
  • Cuco

    15 Oct 2014 00:06

    Mensajes: 208

    Ubicación: Barcelona

    Cuco » 23 NOV 2014  16:16
    "Juanlo"Yo creo que Oculus no busca un vsync adaptable, sino que quiere fps sólidos todo el tiempo, ya sean reales o "inventados" mediante TimeWarp. Si el CV1 va a 90 Hz, harán falta 90 FPS todo el tiempo y no hará falta una sincronización vertical adaptable.

     

    Si fuera como dices, entiendo que en un monitor convencional tampoco haría falta el freesync o el g-sync si tenemos el v-sync activado y no hay caída de fps, pero al parecer aún así tanto el freesync o el g-sync marcan diferencia con el v-sync, y entiendo que debe ser porque con estas dos tecnologías sincronizan perfectamente hz-fps haciendo que los dos se generen al mismo tiempo cosa que con el v-sync no tiene porque darse, ya que aunque tengamos 60 fps estables con el v-sync pueden estar desacompasados los fps con los hz del monitor.

     

    "Faldo"El freesync vendra acoplado en el Displayport 12a. Oculus solo tendra que crear una salida Displayport 12a para que tenga freesync. En el caso de querer G-sync de NVIDIA, supondra pagar una patente y encarecer las gafas ademas de tener que meter mas hardware. Tambien es verdad que la gráfica necesita un displayport 12a para Freesync, que no se si hay alguna.

    El freesync es por software, y el G-sync por hardware. Eso siginifca que G-sync deberia funcionar mejor (no hay nada todabía con Freesync para comparar) pero encarece el monitor en cuestion una barbaridad.

     

    Esto ya lo veo más, al ser, si no me equivoco, un standard que ha acoplado VESA.

     

    "knack"http://gearnuke.com/carmack-nvidia-g-sync-not-compatible-with-oculus-rift/

     

    Y esto me parece perfecto, aunque este mirando una 970 con ansias, el tema de la exclusividad de nvidea me toca los... por no hablar de que a Oculus no le interesa vender solo a la gente con gpus nvidea.

    0
  • Juanlo

    Moderador

    11 May 2013 12:53

    Mensajes: 7862

    Ubicación: Murcia (España)

    Juanlo » 24 NOV 2014  8:40
    "Cuco"Si fuera como dices, entiendo que en un monitor convencional tampoco haría falta el freesync o el g-sync si tenemos el v-sync activado y no hay caída de fps, pero al parecer aún así tanto el freesync o el g-sync marcan diferencia con el v-sync, y entiendo que debe ser porque con estas dos tecnologías sincronizan perfectamente hz-fps haciendo que los dos se generen al mismo tiempo cosa que con el v-sync no tiene porque darse, ya que aunque tengamos 60 fps estables con el v-sync pueden estar desacompasados los fps con los hz del monitor.

     

    Pero en realidad virtual, si los fps caen a 30, aunque estén sincronizados con la frecuencia de refresco gracias a gsync o freesync, el resultado va a ser desagradable, ya que la RV necesita una frecuencia de refresco muy alta. 30 fps con vsync en un monitor pueden quedar geniales, pero en un HMD nuestro cerebro lo va a notar y el blur sería horrible.

    0
  • knack

    28 Jul 2014 21:01

    Mensajes: 1762

    knack » 24 NOV 2014  12:02

    por cierto ahora que mencionais la 970, los que teneis nvidia 970 habeis probado la demo del Apollo 11? teoricamente compatible con Maxwell pero al parecer no rula en la 970 solo en la 980. ¿no meterian otro chip los nvidia en la 970 en vez del que dicen?

     

    y a 20fps en la 980 :O
    la verdad no se para que sacan una iluminación tan costosa como parece ser la VXGI, ya podian perder en tiempo en buscar algoritmos con más rendimiento.
    buen en realidad si se, para presumir nvidia de algo muy bonito pero que no sirve para nada más que para una demo y vender graficas... pero ¿que no vaya en una 970? que gañanes.

    0

Usuarios navegando por este foro:

FitPil 9 Anónimo