ARKit recibirá tracking de cuerpo, oclusión de personas y soporte de renderizado fotorrealista

La compañía mostró en su conferencia para desarrolladores algunas de las novedades que introducirá la nueva versión de ARKit.

4 JUN 2019  9:47

Harold

4 comentarios

ARKit recibirá tracking de cuerpo, oclusión de personas y soporte de renderizado fotorrealista

Apple anunció en la WWDC19 la llegada de la tercera versión de su plataforma de realidad aumentada ARKit, así como la introducción de las herramientas RealityKit y Reality Composer pensadas para facilitar la creación de experiencias de realidad aumentada convincentes.

 

People Occlusion de ARKit 3.

 

ARKit 3 introduce novedades en la captura y la oclusión de los elementos gracias a Motion Capture y People Occlusion. La primera característica permite a los desarrolladores integrar el movimiento de las personas en su aplicación, y la segunda tiene en cuenta a las personas a la hora de realizar la oclusión de los objetos virtuales, lo que se traduce en una experiencia más natural, ya sea delante o detrás de las personas que se crucen con los objetos. Otras de las novedades que presentan son la posibilidad de seguir hasta tres caras, el soporte simultáneo de la cámara frontal y trasera y las sesiones colaborativas, facilitando así saltar de forma más rápida a una experiencia compartida. También mostraron una imagen (la que tenemos en la cabecera de la noticia) con otras características que aparentemente estarán disponibles: texturas de entorno HDR, AR Coaching UI, detección más robusta de objetos 3D, etc.

 

Motion Capture de ARKit 3.

 
RealityKit es un sistema diseñado para RA que se integra de forma nativa con ARKit y que ofrece renderizado fotorrealista, mapeo del entorno y soporte de efectos de cámara como ruido y desenfoque de movimiento, todo ello con el objetivo de ofrecer contenidos virtuales que sean "casi indistinguibles de la realidad". La herramienta también dispone de animaciones, física y sonido espacial para elevar el realismo, y cuenta con una API para el lenguaje Swift.

 

Ejemplo de RealityKit.

 

Reality Composer es una herramienta para iOS, iPadOS y Mac que facilita la creación de prototipos y experiencias de RA en 3D. Para ello cuenta con una interfaz sencilla en la que arrastramos objetos y animaciones, creando así experiencias que pueden integrarse directamente en aplicaciones Xcode o exportarse para su visualización con AR Quick Look.

 

 

Para demostrar el potencial de algunas de las mejoras introducidas, la compañía Mojang realizó una demostración de su juego de RA Minecraft Earth, destacando funciones solo posibles de momento en iOS, como la posibilidad de ver a un usuario inmerso en el mundo virtual o realizar la captura de movimiento antes citada.

Comentarios (4)

Enlace al foro