Facebook enseña cómo funcionará la interfaz con forma de muñequera para gafas AR

18 MAR 2021  19:15

Redacción

3

Facebook Reality Labs adelantó la semana pasada varias de sus investigaciones sobre interfaces y métodos de interacción para el futuro de la XR. De uno de ellos, una muñequera para controlar aplicaciones de realidad aumentada, ha ofrecido más detalles hoy en este artículo del que os ofrecemos un resumen.

 

 

El dispositivo para llevar en la muñeca utiliza sensores de electromiografía (EMG) para detectar y traducir las señales eléctricas del nervio motor en instrucciones que seguirán las aplicaciones instaladas en las gafas AR. Su precisión es tal que el usuario lo sentirá como algo natural.

 

Las señales a través de la muñeca son tan claras que la EMG puede entender un movimiento de los dedos de apenas un milímetro. Eso significa que la introducción de datos puede hacerse sin esfuerzo. En última instancia, puede incluso percibir incluso la intención de mover un dedo"

 

El proyecto de encontrar la manera más natural de interactuar con unas gafas AR comenzó hace seis años, junto con la fundación de Oculus Research, llegando a la conclusión de que una muñequera era lo que ofrecía más ventajas. Usar la voz se descartó porque aunque es un método intuitivo, no es lo suficientemente privado. Cualquier dispositivo que el usuario tuviera que andar metiendo o sacando del bolsillo quedó descartado por ir en contra de la comodidad. La mejor opción era algo tan socialmente aceptado como un reloj de pulsera, algo que podría encajar razonablemente en la vida cotidiana y en cualquier contexto social. Además, un dispositivo situado en la muñeca tiene la ventaja adicional de servir fácilmente como plataforma para la computación, la batería y las antenas, al tiempo que admite una amplia gama de sensores.

 

 

El uso de electromiografía (EMG) llegó a continuación como la opción más lógica. Se trata de poder descodificar las acciones que nuestro cerebro ya ha decidido realizar (tomar una fotografía) y traducirlas en órdenes digitales al dispositivo. Una forma tan rápida de dar instrucciones a unas gafas AR como seleccionar una canción en tu teléfono o hacer clic con el ratón. Por el momento lo que esta muñequera puede detectar son movimientos básicos como juntar el índice y el pulgar en un pellizco o chasquear los dedos, pero con el tiempo el EMG avanzará hacia controles más sofisticados.

 

Con la ayuda de IA's que puedan predecir la intención de lo que queremos hacer, se ganarán segundos de interacción, fundamentales para llegar a alcanzar que todo se haga en tiempo real. Igual que ya existen los teclados predictivos que nos ayudan a escribir más rápido, dispositivos como esta muñequera conectada a unas gafas AR serán capaces de saber qué queremos hacer porque han estudiado y aprendido lo que hacemos de forma cotidiana. Se trata de desarrollar interfaces adaptativas

 

 

Tal vez salgas a correr y, basándose en tu comportamiento anterior, el sistema piense que lo más probable es que quieras escuchar tu lista de reproducción para correr. Entonces, te presenta esa opción en la pantalla: ¿poner la lista de reproducción para correr?. A continuación, solo tienes que confirmar o cambiar esa sugerencia mediante un microgesto."

 

Las capacidades hápticas también están en el punto de mira, lograr que si estamos haciendo el gesto de tensar la cuerda de un arco esa sensación sea transmitida a nuestro cerebro a través de la muñequera, que para ello debe de ser bidireccional. Todo esto no es ciencia ficción, Facebook Reality Labs tiene ya varios prototipos como una pulsera llamada Bellowband y otra llamada Tasbi, ambas con capacidades hápticas.

 

La última parte del artículo se refiere a la privacidad y a la seguridad que deben de ofrecer este tipo de dispositivos, muñequeras y gafas AR, que llevaremos puestos encima en nuestra vida cotidiana en un futuro cada vez menos lejano.