Google sigue las manos y dedos con Project Soli

Google ha presentado un dispositivo que puede tener aplicaciones muy interesantes en realidad virtual y aumentada, se trata de Project Soli, y es capaz de detectar pequeños movimientos de nuestros dedos.

1 JUN 2015  12:27

Juanlo

8 comentarios

Google sigue las manos y dedos con Project Soli

 

Project Soli es un pequeño chip que emplea tecnología de radar y puede detectar movimientos con una precisión submilimétrica que, como vemos en el vídeo, detecta sin problemas pequeños movimientos de nuestros dedos que pueden servir especialmente para dispositivos vestibles como relojes inteligentes y similares. Pero también podría ser útil para el seguimiento de nuestras manos en realidad virtual, convirtiéndose en una alternativa o incluso complementar a otras opciones ópticas como Leap Motion o Nimble VR, adquirida por Oculus el año pasado. Si es lo bastante rápido y preciso, podría evitar los problemas de oclusión que sufren los dispositivos ópticos. Además, al ser un chip minúsculo, podría integrarse sin muchos problemas en la carcasa de cualquier HMD.

Comentarios (8)

Enlace al foro
  • Atención al nuevo sistema de control de manos y dedos de Google. Project Soli es más que interesante, espectacular.



    Seguro que acaba en algo para realidad virtual ¿Qué pensáis?

    Aquí tenéis más datos.
    0 0
  • Interesante si, espectacular no, todo es conceptual, ni siquiera se ve un prototipo en funcionamiento algo muy dado a la publicidad de Google, el resultado final de rendimiento del sensor de gestos de comando ya se vera si se llega a comercializar.

    Un detalle, no es un sistema de seguimiento de manos, si no un sistema de comando que se vasa en el lenguaje de manos, un concepto interesante, pero algo ridículo, como se ve en el manejo de dispositivos que directamente se manejan con la mano sobre los botones o la propia pantalla, vamos, que la publicidad de la idea no es muy acertada.
    0 0
  • No le veo funcionalidad ninguna y menos para RV, es decir que sirve para no tocar la pantalla táctil del smartphone o smartwatch y hacer lo que harías en la pantalla sin problema alguno pero en el aire. En la RV no funciona ya que tiene que estar muy cerca del sensor.

    Ecografía 4d en el aire, eso si que va a funcionar para RV, pero ya se esta estudiando y es el Proyecto Tango de Google.
    0 0
  • Entiendo que Google puede, o podrá, hacer un seguimiento completo de dedos y manos a través de este radar. Pues yo lo veo como una mejora de la tecnología de cámaras del Proyect Tango usando radares. Un proyect Tango + Leap Motion.

    Soli emite una señal y detecta con mucha precisión - 10.000 registros por segundo - los cambios que generan los movimientos de los dedos


    en Xataka
    0 0
  • Road to VR se plantea el uso de Project Soli en VR y AR.

    Yo me pregunto si un chip de estos atado para que quede en la palma de la mano podría recoger todos los gestos tanto de la mano como de los dedos, añádase un sensor de movimiento y voilá.
    0 0
  •        Jeronimous:Y eso no es el Perception Neuron?


    Parecido. Pero para empezar con Google detrás. Y creo que con un par de chips lo mismo recogerían los datos de las dos manos y sus dedos con 10000 refrescos por segundo, buena latencia. ¿La cara y la posición de ojos, tal vez? ¿Costaría mucho detectar la posición del chip contra una estación en posición fija? ¿Podrían transmitirse los datos en la propia radiofrecuencia del radar?

    Habrá que ver hasta donde desarrollan esto. Supongo que el chip no estará fabricado con las últimas técnicas, ya que es un prototipo. Lo mismo reducen mucho su tamaño.

    Si a mí se me ha ocurrido todas estas posibilidades nada más oir la noticia, supongo que los señores de Google también podrán.
    0 0