John Carmack Facebook Connect 2021 Keynote

31 OCT 2021  8:00

knob2001

55

John Carmack Facebook Connect 2021 Keynote

Cada vez que John Carmack habla sobre VR, algo en el fondo del metaverso se retuerce. Veamos qué ha dicho esta Connect 2021.

Todo con lo que Carmack no está de acuerdo

Las keynotes (charlas) de John Carmack en las Connect -a pelo y sin guión- son un torbellino de ideas que el hombre lleva rumiando desde la Connect anterior. Según pasan los meses, Carmack va acumulando notas hasta que unos días antes de la charla les pasa un resumen a los abogados de Meta-Facebook para preguntarles si algo de lo que pretende compartir con el resto de los mortales (o sea, los usuarios y desarrolladores), podría poner en algún aprieto serio a alguien. Luego, se mete las notas bajo el brazo y aparece ante nosotros sin haber visto -y en eso me juego el cuello- un solo segundo de los vídeos que ZuckerbergBoz y el resto de la compañía llevaban meses repitiendo hasta parecer medio humanos. Porque escuchando lo que dice Carmack tras cada Connect, estamos seguros de que el hombre va a lo suyo mientras que Meta-Facebook va a otra cosa completamente diferente.

 

A los que nos gusta la VR algo más hardcore, asistimos perplejos a su velocidad de ideas, su concatenación de temas y sobre todo, a una falta de pudor deliciosa cuando se trata de recordarle a sus compañeros que las cosas no se están haciendo bien. Y todo en abierto, en contra de lo que ocurre en el noventa y nueve por ciento del resto de compañías al uso.

 

Hace tiempo que en Real o Virtual sabemos leer entre líneas de sus comentarios inocentes: cuando Mr. Carmack dice que hay una discusión interna, eso quiere decir que ha habido bronca de las chungas entre él y Meta-Facebook. A veces gana él (liberar el firmware de Oculus Go, por ejemplo) pero por desgracia, la mayoría de las veces gana Meta-Facebook (como construir el Metaverso ahora).

 

Durante la hora que Carmack se puso frente a su pantalla para contarnos lo que se cuece dentro de la empresa que más millones parece querer gastarse en su Metaversodejó muchas pinceladas sobre cómo está el patio virtual puertas para adentro. Sabiendo que es imposible una traducción concisa de lo que dice este hombre por la cantidad de frases hechas e idas y venidas que concatena en tan poco tiempo, hemos intentado ordenar y escoger unas cuantas que llevan a reflexión y que ejemplifican la realidad del estado de la VR de Oculus.

 

Carmack empieza fuerte justificando las tortas que se dispone a dar:

 

Yo estoy siempre muy concentrado en los detalles esenciales y por tanto soy el más gruñón y el más descontento de todos por cómo van los proyectos. Siempre quiero más y lo quiero más rápido.

Nos gustaría decirle a Carmack que quizás una compañía de miles de trabajadores no es el ecosistema propicio para ser impaciente. Como veremos más adelante, Carmack se desahoga sobre el proceso general de construcción de un visor o de cómo aplicar determinadas características de software. ¿Fue esta incapacidad de Meta-Facebook a llevar el ritmo que él pretendía lo que le hizo dejar el cargo y salir a buscar la I.A.?

 

 Carmack saca muy pronto el tema de Airlink:

 

"Airlink funciona mejor de lo que muchos empleados creían. Sabemos por los datos que hay mucha gente usándolo para hacer streaming de sus juegos de Steam a las Quest. En su momento hubo mucho "debate" interno sobre si incorporar un sistema custom de hardware (wifi) en las Quest, pero decidimos sacar Quest 2 como estaba. Me parece genial que mucha gente esté encantada con el sistema, aunque también sabemos que a algunos de ellos no les termina de funcionar y que algunos tampoco tendrán una señal Wifi suficiente, sin embargo, a otro montón de gente sí que le está funcionando. Me hace gracia cómo hemos llegado hasta estas extensiones de uso tan obvias. Y ya se que tenemos un puñado de reglas sobre cómo proteger y limitar ciertos casos de uso, pero más adelante me gustaría poder ofrecer la posibilidad de hacer Airlink desde el ordenador de tus amigos o desde un servidor cloud para jugar a juegos VR.

Recordad la frase que nos comentó Carmack en los pasillos tras la Connect 6: el wifi llegará, lo tenemos y lo estamos probando, aunque tendréis que esperar porque aún no va fino. La calidad será siempre peor que por cable, y esta peor que jugar a un juego nativo. Por suerte para quien le funcione, dos años más tarde Airlink se está convirtiendo en un estándar de uso para ciertos usuarios que nunca volverán al cable.

 

Tras el comentario sobre Airlink, aprovechamos que haya pronunciado el término nube para explicar el punto de vista que va aportando en varias fases de la charla:

"De hecho, es muy gracioso cómo ha evolucionado internamente la conversación sobre el uso del renderizado en Cloud de VR. Ahora mismo parece casi el plan a seguir para algunas de las características del Metaverso cuando hace tan solo un día o un año que ni siquiera estaba sobre el papel . Hasta el punto de que yo mismo tengo que ir frenando la idea internamente porque todavía hay un montón de desafíos y errores por solucionar que me llevan a pensar que es mejor no saltar tan pronto. Pero es genial contemplar el progreso que estamos haciendo en el tema".

Carmack parece dar a entender que dentro de Meta-Facebook hay quien piensa que el sistema en la nube podría estar lo suficientemente maduro como para integrarlo ya en el ecosistema. ¿Tendría sentido un renderizado en cloud ahora mismo donde no tenemos ni siquiera Horizon o un lugar común? Más adelante en la charla, salta de nuevo al tema: 

 

Apoyo el uso de arquitecturas basadas en el renderizado en la nube, pero he tenido que frenar un poco y pensar que además del coste tremendo que supondría implementarlo, también podría hacer inviable la VR a mucha gente que no tiene una conexión a internet de alta calidad. Por eso mismo he planteado internamente que antes de lanzarnos a hacer este Metaverso, quizás deberíamos de crear una versión de Horizon en la nube como un proyecto de tecnología diferente y separada de la del PC. Compilar la versión que tenemos de PC en la nube y ejecutarla globalmente para probar. Creo que esa sería la forma más flexible de probarlo, pero seguimos teniendo ciertas conversaciones al respecto.

 

Y aunque ya va dejando pistas de que, según él, habría que ir de menos a más y probar Horizon como un mundo standalone de prueba, en otra parte de la conversación retoma el hilo para hablar de la potencia:

 

Podríamos usar características renderizadas en local como el uso de las manos y temas de nuestro avatar, mientras que el resto de avatares podrían estar renderizados en la nube. Incluso he oído que podría haber una intención de usar la nube más globalmente, como un interface general multipropósito. Creo que no eso va a funcionar. No podemos pedirle a los desarrolladores que añadan esa característica a sus aplicaciones porque ejecutar en la nube tu aplicación no es algo trivial. Mi punto de vista es que debería de ser algo específico y especializado antes que desarrollar un SDK general para que la gente lo use. [...]

Además, la nube no es la panacea. Ese escenario donde un PC es diez veces más potente que un móvil no existe porque en ese PC ya habrá un montón de aplicaciones VR ejecutándose a la vez y no habrá potencia para generar tantos avatares. [...]

Nvidia está construyendo una arquitectura para fragmentar cada CPU en distintas CPUs menos potentes pero dedicadas a cada proceso de manera exclusiva, sin embargo, esto podría hacer que termináramos con una potencia dedicada por CPU tan solo dos veces superior a la del móvil, así que no parece que sea una gran idea" 

 

El cloud gaming, término de moda cada vez que sale un servicio nuevo (SonyStadia o Xbox, por ejemplo), también tendrá su lugar en la VR. Sin embargo, Carmack opina que en nuestro caso, y con las necesidades técnicas diferentes de la realidad extendida, aumentada o virtual, podría darse el caso de no tener disponible la potencia suficiente para mantener el Metaverso exclusivamente en la nube. ¿Podríamos usar la potencia de nuestro visor/pc para ciertas cosas y añadir la del servidor?, esa es la pregunta que parece sugerir internamente a Meta-Facebook.

 

Esta preocupación sobre la potencia de cómputo para mantener el Metaverso es la que le lleva a pensar en la optimización de los sistemas. Y como sugiere Carmack durante casi toda su charla, la optimización comienza desde el día 0, tomando decisiones inteligentes. A medida que avanza la charla, Carmack no deja de mostrar su punto de vista más práctico y menos osado que el del resto de sus compañeros en Meta-Facebook:

 

Tengo muy buenas razones para creer que proclamar que vamos a construir el Metaverso no es la mejor manera de crear el Metaverso. He basado esta opinión contraria durante bastantes años porque sigo creyendo que el Metaverso no es más que un cebo para "astronautas de la arquitectura informática"

Eso de "astronautas de la arquitectura" es un término peyorativo que usamos para un tipo de programador o diseñador que solo enfocan los proyectos desde el punto más alto y abstracto y nunca quieren hablar de lo más bajo, como las micro-arquitecturas de las GPU, o de cómo mezclar streams a nivel de red o gestionar cualquiera de las arquitecturas de compresión de assets. Los detalles esenciales son lo más importantes pero "astronautas de la arquitectura" solo quieren hablar en términos muy abstractos sobre cómo tener objetos genéricos que podrían contener otros objetos con referencias a estos y pasar el control de unos a otros... 

Cuando les escucho me dan ganas de tirarme de los pelos porque esas cosas no son importantes cuando construyes algo de verdad.

Pero aquí tenemos a Zuckerberg, quien ha decidido que ha llegado el momento de construir el Metaverso y ha puesto unas ruedas enormes a girar con un montón de recursos disponibles de cara a solucionar los desafíos tan enormes que nos vamos a encontrar. Yo lo que quiero es redirigir toda esa energía y estar seguros de que sacaremos algo positivo y que seremos capaces de construir algo que pueda tener valor a muy largo plazo. Mi preocupación más grande es que podríamos gastar años y a miles de personas para terminar haciendo cosas que no contribuyan en casi nada a la manera en que la gente usa sus equipos.

Carmack vuelve a dejar claro que no se puede vender humo ni hablar de manera esotérica sobre el Metaverso por los pasillos de Meta-Facebook. Hay que bajar al barro del código, dejar muy bien sentadas las bases de la técnica antes de lanzarse a crear un universo completo a riesgo de que luego el usuario no lo vea cómodo, útil o necesario. A continuación vuelve a tirar de las orejas a quienes hablan de entelequias o conceptos más osados:

 

Por esa razón, el mejor consejo que puedo dar es que necesitamos concentrar nuestros esfuerzos en productos reales más que en tecnología, arquitectura o iniciativas. Yo no escribí un motor para diseñar juegos cuando trabajaba en ID Software. Yo solo desarrollaba videojuegos y resulta que alguna de esas tecnologías del videojuego que desarrollamos se pudieron reutilizar para desarrollar otras cosas. Pero siempre nos motivaba la creación del producto final y la tecnología que nos podría ayudar a crear ese videojuego. Fue después cuando, casi accidentalmente, nos dimos cuenta de que podríamos usar eso para crear otras cosas.

 

Para ilustrar ese pragmatismo (y dejar de vender imposibles o meter dinero en algo que no sea importante), Carmack habla de Horizon Work Rooms. Se queja de la cantidad de eco y latencia de audio que sigue existiendo dentro de la aplicación y explica que siguen trabajando en rebajar ese nivel de eco hasta menos de 100 milisegundos, pero que deberían de mejorarlo antes de lanzarse a otras cosas:

 

Vamos a intentar rebajar la latencia de nuestra comunicación de voz a través de la red por debajo de los 100 milisegundos. Intentemos llegar a los 50 milisegundos, pero no nos quedemos en 450 o incluso en 250, hagámoslo mejor de lo que nadie lo haya visto nunca. Ese es el tipo de conversaciones esenciales que tenemos que tener. Pongamos a un par de las mejores personas que podamos contratar en ello hasta que lo dejen perfecto y podamos así mejorar algo que va a afectar a todos los productos que tenemos en la actualidad.

 

 

Siguiendo con la crítica solapada que hace a estas ínfulas de Facebook-Meta de venirse tan arriba hablando de Metaversos, recuerda (tirando de las orejas a unos cuantos) que mucho Metaverso y mucha leche virtual pero que él sigue aquí, en una nueva Connect, hablando a un monitor y a un equipo de cámaras en vez de dando una conferencia dentro de una aplicación virtual con muchos avatares en la sala: 

 

Deberíamos de estar haciendo esta charla en el Metaverso. Si no somos capaces ni siquiera de conseguir esto, cómo vamos a conseguir lo que se tiene en mente. Podríamos hacerlo ya el año que viene. Quiero decir, creo que ya podríamos haberlo hecho este mismo año si nos hubiéramos puesto esta meta hace tiempo y haber concentrado nuestro trabajo en estas cosas, así que me voy a sentir bastante decepcionado si el año que viene sigo aquí, hablándole a un equipo de cámaras en la realidad física.

Y tiene toda la razón. Una de las críticas que siempre hemos hecho desde Real o Virtual es a la cantidad de recursos que parece que hacen las empresas en vendernos un futuro conceptual que no llegará nunca. Las cosas evolucionan a su ritmo pero necesitan una base muy bien fundada y un producto real que podamos tocar al día siguiente, que evolucione con los años y entonces sí, a saber cuánto de eso se parecerá a lo que en su momento se tenía en mente. Particularmente, me recuerda a los libros de ciencia ficción ilustrada que tenía de pequeño: En el 2019 los coches serían eléctricos y volarían. Un cuerno. Ni siquiera dos años después, en el 2021, pueden recorrer 500 kilómetros sin recargarlos durante horas.

 

Deberíamos de conseguir hacer cosas así (charlas a través de Horizons Work Rooms) aunque solo sea para demostrarnos a nosotros mismos que podemos hacerlo. Tendrá un valor para otro tipo de proyectos y ayudará a otros a solucionar sus problemas. Con 16 personas en la misma sala tenemos errores donde los avatares van cambiando de calidad constantemente, haciendo cosas raras con los hombros o dando pequeños saltos porque el sistema está intentado actualizarlo todo. Y hablamos de solo 16 personas, quizás 20 en total. 

Carmack no lo dice explícitamente, pero está claro el mensaje: Si no somos capaces de meter a 16 personas en una sala y hacer que aquello funcione como es debido, como para hacer un Metaverso con miles de avatares por ahí danzando.

 

Lejos de la confrontación sobre el Metaverso, Carmack reflexionó sobre los visores:

 

La madurez del mercado de visores virtuales llegará cuando se puedan cubrir todos los nichos de uso posibles como lo hace el mercado del teléfono móvil: terminales desde 50 dólares hasta 2.000 dólares con teléfonos de ultra-lujo. Hace tiempo, en Oculus, pensamos la posibilidad de admitir que otros fabricantes interaccionaran con nuestro ecosistema, pero resultó imposible. Mark (Zuckerberg) nos comentó que estábamos vendiendo nuestros visores por debajo del coste o a precio de coste, y al no haber ninguna ganancia monetaria en la venta del visor, no habría manera de que un fabricante externo quisiera rebajar sus precios sin negociar una parte de los ingresos que ganamos nosotros con el ecosistema.

Además, de permitir que un tercero construyera sus visores compatibles con nuestro sistema y dejarle incluir sensores más complejos e interesantes como es el tracking de ojos, de cara o del exterior, requeriría una integración muy profunda con el núcleo de nuestro software y no creo que podamos permitirnos trabajar a ese nivel.

Aún así, supongo que si un fabricante quisiera hacer un visor con una resolución muy alta y un FOV enorme, eso quizás podría funcionar porque estaríamos hablando de usar los mismos sensores que usamos nosotros y de la misma manera que los usamos en Quest 2. Algo así podría hacerse, aunque me da que el problema crítico serían los costes.

Aunque era evidente que Quest y Quest 2 se estaban vendiendo por debajo de lo que deberían, nunca habíamos tenido una confirmación real. Por esta razón, ni HTC ni HP podrán competir nunca contra estos precios porque son fabricantes de hardware y necesitan ganar dinero vendiendo visores. ¿Visores compatibles con Oculus a precio parecido? Está claro que ellos mismos saben que no va a ocurrirZuckerberg no va a compartir con nadie un trozo del único pastel del ecosistema que les puede reportar algo de dinero.

 

Pero ¿dónde está Quest PROCarmack ya avisa que un mejor visor llevará un coste mayor asociado. Lo interesante en este caso es la reflexión que hace sobre la visión que tiene Meta-Facebook acerca de un visor mejor. Carmack hace referencia a aquella frase de Palmer sobre que "un precio de 0 dólares sería incluso caro para algunos usuarios" y habla de la cantidad de visores Quest 2 que duermen en un cajón.

 

Quest 2 fue más rápido y más barato que el anterior y el resultado de ventas que vimos no fue lineal (N.T. No-Lineal significa que fue mejor de lo esperado). Sigo pensando que el precio que se le puso fue muy importante para que esto ocurriera, pero por desgracia, sabemos por los datos internos que incluso si lo vendiéramos a un precio de 0 dólares, seguiría siendo caro. Hay un montón de visores metidos en un cajón sin usarse con regularidad.

Hay usuarios de la VR que no han encontrado una experiencia lo suficientemente valiosa como para sacar del cajón el visor que ya tienen, así que es obvio que necesitamos conseguir que la gente vea su visor con el mismo valor que ven a su teléfono móvil.

Por ejemplo, sabemos que cuando llega contenido nuevo a los visores, estos suelen revivir. Estamos estudiando la reacción de los usuarios a Resident Evil 4. Es el lanzamiento más grande que hemos tenido en la plataforma y queremos saber si este título hará que la gente saque el visor del cajón para jugarlo. Sabemos que necesitamos mejores equipos, más potencia y nuevos sistemas con más características dentro de un ecosistema mejor, pero seguimos sin estar seguros de que un visor mejor sea la solución. Algunos internamente dicen que añadir sensores para el seguimiento facial y permitir que los usuarios sonrían o se muestren tristes a otros usuarios podría marcar un nuevo hito en la VR y traspasar esa línea que podría convertir experiencias pasadas en experiencias con mucho más valor del que tenían antes.

El problema es que la resolución irá a más, y la RAM también irá a más, y también los procesadores serán más rápidos, con más núcleos. Eso lo vamos a tener seguro. La pregunta está en todo lo demás. ¿Necesitamos pasar de cuatro cámaras a seis, siete, diez o doce? He visto por ahí diseños de visores que se han propuesto con un factor de forma plano y una docena de cámaras y creo que es una locura. Nunca vamos a poder llegar a competir con un teléfono de 50 dólares poniendo una docena de cámaras en el visor. 

Aquí Carmack entra de lleno en el tema del hardware vs Software y por primera vez, hace mención específica a ese visor (Quest PRO) con muchas más características:

 

Nos estamos tomando este visor de alta gama que saldrá el año que viene como un experimento. Queremos ver cuánto valor añade ese visor a la gente que decidió no sacarlo más de un cajón. Vamos a ver qué ocurre si metemos sensores de reconocimientos faciales, mejores sensores de reconocimiento exterior y lentes pancakes. 

Las lentes pancakes son mucho más caras pero son mucho más compactas y nos van a permitir hacer un visor mucho más delgado y con un factor de forma mucho más agradable. También van a mejorar muchísimo la claridad. Uno de los puntos que siempre hemos discutido sobre las Quest 2 es, por encima del FOV, lo limitados que estábamos por culpa de las lentes y no por la resolución. Esto es obvio cuando desviabas la mirada del centro de la pantalla.

Si duplicásemos las resolución de nuestras pantallas, mucha de esa mejora no valdría para nada porque tenemos que conseguir añadir más claridad a las lentes.

Hablando sobre los límites, Carmack lanza otro pequeño recado al equipo que se encarga del diseño del disipador. Uno de los problemas más importantes a los que se enfrenta la realidad virtual y aumentada es conseguir que el calor que generan los componentes (pantallas, proyectores, chips...) se alejen de la cabeza del usuario. Aquí, Carmack sigue sin ver claro dónde están los límites reales.

 

Ya estamos limitados por la cantidad de potencia que podemos disipar. Si pudiésemos llevar la velocidad de reloj del chipset de las Quest 1 al máximo, podríamos hacer la mayoría de las cosas que hacemos con Quest 2. E igualmente, si pudiésemos llevar el reloj de Quest 2 al máximo de su reloj, probablemente podríamos tener más rendimiento que el siguiente SoC (chipset) que saliera después. 

El problema es que en Oculus hemos sido muy conservadores sobre nuestro enfoque térmico. Está muy justificada la preocupación sobre un posible fuego por un cortocircuito en las baterías y por supuesto que no quieres tener nada en la cabeza de alguien echando humo, pero como he podido ver antes en discusiones sobre nuestras pantallas (N.T. habla sobre el límite de los hercios teóricos en los paneles de Quest 1) y otros aspectos, creo que somos demasiado conservadores. Me gustaría ver un poco de humo saliendo del SoC (chipset) antes de estar completamente de acuerdo con ellos.

 

Carmack salta de un tema a otro según va recordando broncas o desavenencias. Tras hablar del calor y cómo afecta a la potencia de los visores actuales, divaga sobre el papel de los controladores y cómo interaccionamos con el mundo virtual.

Está muy claro que no vamos a ir por el mundo usando dos controladores de 6 DOF (grados de libertad) y cartucheras en las cinturas para guardarlos si queremos que nuestra plataforma llegue al billón de usuarios que queremos. Pero sin embargo funcionan maravillosamente bien cuando jugamos. Ahí tenemos todavía algo que mejorar. 

Ya sabemos cómo hacer que los controladores hagan el seguimiento pasivo ellos mismos sin obligar a tenerlos a la vista del visor, y por tanto serán algo más baratos. Pero tenemos que hacer que puedas usar las manos en vez de los controladores incluso en las aplicaciones actuales. Pero claro, todo esto lleva un montón de trabajo.

Lo que sí que me gustaría ver más adelante es la manera de flexibilizar el diseño del visor y que no sea tan rígido. Integrar los componentes individuales y poder diseñar el visor como si fueran unas gafas de natación. De esa manera podríamos solucionar todos los problemas relativos al IPD (N.T. Distancia de nuestras pupilas).

Tras esta idea de recombinar todos los componentes de un visor en zonas que permitan un factor de forma mucho más accesible a cada facial en particular, da una pequeña charla sobre la relación que tienen con los suministradores de componentes además de comentar que no todos los Quest tienen dentro los mismos componentes y alguna versión de Quest 2 podría ir un poco más rápida que otra si haces determinadas pruebas.

 

Si tuviéramos al menos dos compañías diferentes suministrando los componentes, estarías en una posición de decir, voy a pillar ese componente que encaja en mis mínimos y que además es el más barato y eso afectaría al impacto en otras muchas cosas. Este año nos hemos dado cuenta de teníamos dos suministradores de memoria con especificaciones y rendimiento diferente entre los dos. No es algo que de lo que te puedas dar cuenta porque ambas cumplen las especificaciones que pedimos, pero algunas de ellas son mejores que las otras y si escribes un código de test podrás ver las diferencias entre ellas.

 

Carmack vuelve a poner el dedo en las cuestiones que frenan la adopción de la VR y que suponen un engorro cuando usas el visor.

 

Al parecer existe un 50% de posibilidades de que cuando te pongas sus Quest, dependiendo del momento del día en que lo hagas, tengas que volver a dibujar el Guardian. Luego tienes que aceptar un par de mensajes, esperar a que cargue la Home y por último, que carguen el resto de paneles. Entonces ya podrás lanzar la aplicación que quieres, la cual también se tomará sus veinte o treinta segundos hasta que esté preparada. ¿Te imaginas que los móviles funcionaran igual? ¿Que el usuario lo sacara de su bolsillo tuviera que esperar unos 2 minutos para hacer lo que quieres en vez de dos segundos? 

Una de las cosas que más nos gusta de Carmack es que si tiene que decir algo, lo dice, incluso cuando aquello deja en evidencia a la propia empresa de la que es consejero técnico. Así, durante la charla, decidió mencionar todos los problemas que han tenido muchos usuarios durante la caída mundial de Meta-Facebook de hace unos días.

 

La última inconveniencia fue el corte de servicio de Facebook que dejó a un montón de gente con sus visores inservibles y nunca ha habido una disculpa real. Fue horrible lo que ocurrió, pero en un esfuerzo interno fantástico, el equipo fue catalogando todo lo que no funcionó durante el problema. Como yo siempre les digo, no malgastemos una crisis sin aprender algo. Pensé en pedir permiso para hablar de todo esto [técnicamente] porque habría sido una oportunidad de mostrar el esfuerzo que estamos haciendo para mejorar las cosas, pero me dijeron que tendría que quitar muchos detalles internos. En cualquier caso, sigo pensando que habría sido bueno explicarlo aquí. Es un caso muy claro de no puedes romper a la gente cosas porque nosotros necesitamos generar más valor, no inhabilitarlo o quitárselo.

Carmack sigue pensando que los catálogos de Android de pantalla móvil deberían poder aprovecharse. Por eso menciona la aplicación Oculus TV como forma de poder ejecutarlos en VR

 

Una plataforma de verdad tiene millones de aplicaciones. Y nosotros no vamos a crear un puente diciendo que vengan a nuestra plataforma de manera individual. Hay gente que internamente piensa que podríamos elegir las 50 aplicaciones más importantes y decirles que añadan explícitamente maneras extra de hacer ciertas cosas en VR, pero creo que es nuestro deber y nuestra obligación averiguar primero y desde nuestro lado cómo sacar partido virtual de todo ese trillón de dólares invertido en el catálogo de las pantallas planas. No podemos decirles que tienen que cambiar sus propias aplicaciones. A mí me gustaría traerlo todo, y esto conllevará tomar una decisión sobre la evolución del siguiente controlador que nos permita interactuar con todas las aplicaciones. 

Cada ConnectCarmack suele romper una lanza por el software libre y lo abierto que debería de estar todo. En esta ocasión se detiene un segundo para enviar un mensaje a la forma tan lenta en que la plataforma añade cualquier evolución y pide un sistema parecido al que él implementaba en sus juegos antiguamente.

 

A día de hoy tenemos la capacidad de cambiar un montón de características del visor, pero las opciones están muy escondidas, poco documentadas y han de hacerse desde el Hub de Oculus Developer. Por ejemplo, podemos cambiar la profundidad de bit, el aspecto de pantalla o la resolución cuando enviamos video streaming desde las quest hacia una pantalla externa (N.T. se puede hacer con Sidequest también), pero esto no está accesible para los usuarios normales. 

Me gustaría poder contar con un sistema parecido a lo que tenía en el viejo Quake, un terminal rudimentario Old School donde hacer algo de magia y poder activar o desactivar algunas de las características del visor. Cada vez que algo se convierte en oficial, eso tiene que pasar por el departamento de diseño, se tiene que hacer en todos los idiomas y pasar por un proceso completamente aparte que lo explique y decida cómo se muestra en pantalla. Es una pérdida enorme de tiempo y es algo sobre lo que creo que tenemos que buscar una forma más rápida de hacer las cosas.

Carmack termina la charla con una anécdota que le ocurrió hace no mucho mientras jugaba a Beat Saber. Tiene dicho que nadie se le acerque cuando está jugando porque el tío se pone pesos en la muñeca (sabe que está haciendo mal) y que si le pegara un porrazo a alguien mientras está con Camelia o algo así la cosa se pondría muy fea. Un día, dice que mientras jugaba, recibió una llamada:

 

Jugando a Beat Saber, recibí una llamada que tenía que responder y me quite las gafas. Todo el mundo que estaba mirando el streaming del juego vio cómo mi pequeño avatar se desplomaba en el suelo y pensaron que me había dado un infarto. Cuando terminé tuve que entrar en Twitter para decir que me encontraba perfectamente y que no me había pasado nada.

 

Al final, Carmack se despidió de todos diciendo:

Estoy muy orgulloso del trabajo que estamos haciendo y sigo estando entusiasmado por el futuro

Si queréis ver la charla completa, está disponible aquí: