Desarrollan una técnica para capturar el movimiento humano en 3D

Investigadores de la Universidad Politécnica de Cataluña (UPC) y de la Universidad de Lovaina (UCL), en Bélgica, han presentado una técnica que, utilizando dos videocámaras para capturar el movimiento humano, permite reconocer los gestos del cuerpo y representarlos en tres dimensiones en el ordenador, según publican en la revista Multimedia Tools & Applications. El método se puede aplicar al desarrollo de videojuegos interactivos en los que se gesticula con las manos y los pies.

Desarrollan una técnica para capturar el movimiento humano en 3D
Extracción de los puntos cruciales y obtención del esqueleto morfológico. Fotos: Correa et al.

El ingeniero Pedro Correa, del Laboratorio de Telecomunicaciones y Teledetección de la UCL, explica a SINC que, junto con la unidad del profesor Ferran Marqués de la UPC, han desarrollado unos algoritmos que abordan el problema del reconocimiento de los gestos “de la manera menos invasiva posible, ya que no se requiere vestir ningún tipo de traje o captores especiales, y para filmar el movimiento del cuerpo se utiliza una simple videocámara”.

Las imágenes filmadas identifican la silueta de la persona varias decenas de veces por segundo, y los datos obtenidos son analizados por el algoritmo ideado por los investigadores para identificar los denominados “puntos cruciales”: la cabeza, los pies y las manos. El denominado “algoritmo de extracción de puntos cruciales” emplea la noción matemática de distancia geodésica para calcular cuales son las extremidades de la persona, “o dicho de otra manera –aclara Correa-, qué puntos están más alejados de su centro de gravedad siguiendo un camino enteramente comprendido dentro de su silueta”.

Una vez obtenidas las extremidades, se analiza de nuevo la silueta creando "esqueletos morfológicos", que ayudan a asignar una etiqueta a cada extremidad. Las cinco etiquetas posibles son la cabeza, la mano izquierda, la mano derecha, el pie izquierdo y el pie derecho. Una vez son identificadas, se representan con puntos de color para poder realizar su seguimiento en 2 dimensiones. De esta forma el usuario pueda analizar el resultado visualmente.

Para obtener esas mismas informaciones en 3 dimensiones se realizan las mismas etapas con una cámara suplementaria. De esta manera la triangulación de las etiquetas extraídas en cada una de las dos vistas permite obtener los puntos en un espacio tridimensional. La vista frontal aporta las informaciones de las posiciones vertical y horizontal de las extremidades, y la vista lateral informa sobre su profundidad.

La baja complejidad del sistema permite aplicarlo en tiempo real en cualquier ordenador personal, con un margen de error de entre el 4 y el 9% en situaciones reales, dependiendo del contexto y la calidad de la segmentación realizada.

Correa explica que las aplicaciones de esta técnica son “todas aquellas que requieran una interacción gestual con el ordenador, es decir, desde aplicaciones de navegación en un sistema operativo –como desplazar ventanas y texto con movimientos de las manos-, hasta videojuegos interactivos de aerobic, entre muchos otros”. En el estudio también ha participado una empresa belga especializada en videojuegos a tamaño real, que se utilizan, por ejemplo, en parques de atracciones y museos.
---------------------------------------

Referencia bibliográfica:

Pedro Correa (UCL), Ferran Marqués (UPC), Xavier Marichal (Alterface S.A.), Benoit Macq (UCL). “3D posture estimation using geodesic distance maps”. Multimedia Tools & Applications 38 (3): 365 - 384 JUL 2008

Web: http://www.tele.ucl.ac.be/~pedro/gestural

Fuente: SINC
Derechos: Creative Commons

Solo para medios:

Si eres periodista y quieres el contacto con los investigadores, regístrate en SINC como periodista.

Artículos relacionados