Suscríbete al boletín semanal

Recibe cada semana los contenidos más relevantes de la actualidad científica.

Agencia Sinc

Nuevo sistema para dirigir un robot con la voz y en español

Investigadores de la Universidad de Málaga han diseñado un sistema para controlar de forma remota un robot con la voz. El método logra una alta tasa de reconocimiento de palabras y el control de la plataforma robótica en tareas de navegación, ventajas que abren la puerta a su futura aplicación en otros dispositivos, como sillas de ruedas. Además, opera en castellano.

El investigador de la Universidad de Málaga Alberto Poncela, responsable del proyecto / Fundación Descubre
El investigador de la Universidad de Málaga Alberto Poncela, responsable del proyecto. / Fundación Descubre

Miembros del grupo ISIS de la Universidad de Málaga han creado un método de control remoto de un robot por medio de la voz. Según reconocen los expertos, en la actualidad existen otros sistemas de este tipo, pero el suyo muestra diferencias en dos aspectos: el idioma, ya que es de los pocos para hispanohablantes y la tasa de éxito en el reconocimiento.

Los expertos han desarrollado su modelo acústico en el sistema operativo Linux, ya que la arquitectura para controlar el robot trabaja con varios procesos simultáneos. Asimismo, en lo referente al idioma, han utilizado un software denominado Julius/Julian, un sistema de reconocimiento de voz de código abierto.

“Actualmente solo hay modelos acústicos para japonés e inglés. Al no existir modelo acústico específico para español, el desarrollo de este elemento ha supuesto la parte central de nuestro trabajo”, reconoce el investigador de la Universidad de Málaga Alberto Poncela, responsable del proyecto.

El método consigue una tasa de reconocimiento de palabras cercana al 99 % y de órdenes próxima al 95 %

Otra ventaja son los resultados que obtiene ese modelo acústico en las pruebas a las que se somete. “Conseguimos una tasa de reconocimiento de palabras cercana al 99 % y una tasa de reconocimiento de comandos, es decir, de órdenes, del 95 % o superior. A esto se suma que el robot consigue ir al sitio que se le envía bajo el control de la voz de un usuario no experto”, subraya Poncela.

Los investigadores apuntan que estos resultados de su estudio publicado en la revista Robotica, abren la puerta a la posibilidad de adaptar el sistema a otras plataformas robóticas, como sillas de ruedas, lo que supondría su aplicación en entornos asistenciales.

¿Cómo reconoce el robot una orden emitida por una persona? Para ello se requieren varios elementos. Por un lado, el léxico, el conjunto de palabras que el sistema puede reconocer. A este se sumaría la gramática, las reglas y las restricciones de ese vocabulario. “Además hay que construir un modelo acústico, es decir, la representación estadística de los sonidos que forman cada una de las palabras habladas usadas en la gramática. El modelo acústico se obtiene tras una fase de entrenamiento. Nosotros hemos considerado 802 palabras, agrupadas en 72 frases”, precisa otra de las investigadoras participantes en el estudio Leticia Gallardo Estrella.

El sistema tiene que ser entrenado para cada usuario, ya que las características de la voz de cada persona son distintas, con lo que hay que afinar hasta hacerlo preciso y personalizado. “Para ello, se graban las frases de entrenamiento con un micrófono y se parametrizan con unos coeficientes numéricos con las características propias de la voz. A partir de estos coeficientes se construye el modelo acústico”, detalla la investigadora.

A continuación, el vocabulario, la gramática y el modelo acústico se introducen en el motor de voz, que tiene como salida la frase reconocida. “Definimos un juego de comandos técnicos de movimiento cortos, por ejemplo 'parar', y otros largos 'girar 20 grados' que se emiten de forma remota con un micrófono, se reconoce el comando y, mediante wifi, la orden llega al robot, que tiene un punto de acceso”, especifica.

Pruebas de reconocimiento y navegación

Los investigadores han acometido dos tipos de pruebas para testear el sistema. Las primeras, para comprobar si el sistema reconoce la voz y las órdenes emitidas. Un comando sólo es correcto si se reconocen todas las palabras. Por ejemplo, la acción 'girar' va asociada a un valor numérico (20) y una unidad (grados) en la frase “girar 20 grados”.

El sistema tiene en cuenta todas esas variables y consigue, en palabras de los investigadores, buenos resultados. “Alcanzamos una tasa de reconocimiento de palabras cercana al 99 % y una tasa de reconocimiento de comandos del 95 % o superior”, incide Alberto Poncela.

El segundo tipo de pruebas guardan relación con la navegación. Para ello, simularon entornos complejos para que un robot modelo Pioneer P2AT los recorriera y llegara a un punto. Un usuario no experto en robótica emitió las órdenes con un micrófono. “El resultado fue que esta persona hizo llegar el robot a su destino”, subraya el científico.

Este trabajo se enmarca en el proyecto Sistema Inteligente de Asistencia Domiciliaria destinado a crear una arquitectura genérica capaz de adaptarse por sí misma a distintos tipos de usuarios mediante aprendizaje y financiado por la Consejería de Economía, Innovación, Ciencia y Empleo de la Junta de Andalucía.

Referencia bibliográfica:

Alberto Poncela, Leticia Gallardo-Estrella. ‘Command-based voice teleoperation of a mobile robot via a human-robot interface’. Robotica, 33 (1), pp. 1-18, 2015.

Fuente: Fundación Descubre
Derechos: Creative Commons
Artículos relacionados