Tema: AlterEgo, interfaz mediante subvocalización.

Mensajes

  • MaximVR

    17 Jun 2014 19:51

    Mensajes: 1163

    Visores

    Oculus Go
    MaximVR » 6 ABR 2018  11:00

     

    De momento es un poco aparatoso y limitado, se tiene que entrenar para cada usuario por un breve tiempo, unos 15 minutos y solo reconoce unos 20 comandos de voz y con una tasa de aciertos todavía baja para un uso cómodo, pero esperan poder aumentarlo hasta una conversación completa.

     

    Lo que usa son una serie de sensores mioeléctricos que detectan las levísimas señales que se producen en los músculos durante un fenómeno del habla llamado subvocalización, el habla silenciosa.

    Cuando pensamos en decir algo, el cerebro envía señales a los músculos de la lengua, la boca y los labios para prepararlos. Todavía no hemos pronunciado ni un sonido, pero es cómo si habláramos para nosotros mismos. La mayor parte de personas hacen esto de manera inconsciente cuando leen un libro.

    El caso es que la subvocalización puede ser interpretada por una máquina. Para ello, el equipo del MIT ha integrado una serie de sensores mioeléctricos que registran las señales eléctricas de los músculos. Una red neural interpreta estas señales, y las convierte en palabras que puede pronunciar un sistema de voz.

    De momento, AlterEgo está en sus comienzos y tiene muchas limitaciones. Para empezar, hay que enseñar a la red neural a reconocer e interpretar a cada persona, lo que lleva un cierto tiempo. La razón es que, igual que cada persona tiene una voz diferente, resulta que cada una pronuncia las palabras de subvocalización con su propio acento. La tasa de exito del dispositivo interpretando palabras es del 92%.

     

    Desde luego me parece una gran mejora respecto a una interfaz en voz alta, sobretodo en ambientes en los que no estás solo o hay mucho ruido ambiente. Tengo serias dudas en que se pueda diseñar de forma en que no sea tan antiestético, quizás en forma de un collar que no tenga que apoyarse en la cara sería un diseño aceptable?

     

    Visto en :
    MIT News

     

    KurzweilAI

     

    Xataka

     

    Gizmodo

    2
  • MaximVR

    17 Jun 2014 19:51

    Mensajes: 1163

    Visores

    Oculus Go
    MaximVR » 6 ABR 2018  11:56

    El tema debe ser complejo, quizás por la fata de potencia de proceso y lo verdes que deben estar los algoritmos todavía.

     

    Buscando un poco por la web he visto esta noticia de justo hace ahora 10 años en la que mostraban un collar, "the Audeo", que ya reconocía 150 palabras y desde luego tenía un aspecto más estético, aunque parece que le costaba lo suyo procesar cada frase o comando. Me pregunto porque no habrán continuado ese proyecto.

     

     

    Visto en: www.newscientist.com/article/dn13449-nerve-tapping-neckband-used-in-telepathic-chat/

    0

Usuarios navegando por este foro: