Un equipo de investigadores de la Universidad de las Islas Baleares (UIB) ha desarrollado un modelo por ordenador que permite generar caras en las que, por primera vez, se visualizan emociones y estados de ánimo acordes a los rasgos de personalidad. El estudio se publica en el último número de la revista Computer Animation and Virtual Worlds.
“El objetivo de este trabajo ha sido diseñar un modelo que evidencie los estados emocionales de un personaje y su visualización en una cara virtual”, señala a SINC una de las autoras del estudio, Diana Arellano, de la Unidad de Gráficos y Visión por Ordenador e Inteligencia Artificial de la UIB. “En un mismo espacio 3D hemos integrado a la vez la personalidad, las emociones y los estados emocionales o de ánimo, que hasta ahora se venían tratando de forma separada”, aclara a SINC Arellano.
La investigadora recuerda que las emociones (como el miedo, la alegría o la sorpresa) son alteraciones del ánimo casi instantáneas, a diferencia de los estados emocionales (como el aburrimiento o la ansiedad) que son más duraderos, o la personalidad, que suele durar toda la vida. Los diseñadores han seguido las teorías de Albert Mehrabian para establecer el modelo, según los cinco rasgos de personalidad que establece este psicólogo estadounidense: extroversión, neurosis, apertura, diligencia y simpatía.
“Cada personalidad se puede considerar como un estado emocional por defecto”, indica Arellano. Así, una personalidad introvertida y neurótica se corresponde con un estado emocional ansioso. Los puntos de la cara que definen estas emociones se pueden determinar matemáticamente, y con los algoritmos desarrollados por los informáticos se pueden obtener de forma “fácil y rápida” las distintas expresiones faciales. El sistema, que emplea el estándar de codificación de vídeo MPEG-4 para generar las imágenes, permite visualizar las emociones básicas (enfado, asco, miedo, alegría, tristeza, sorpresa) y las situaciones intermedias.
Los resultados del método se han evaluado tanto de modo objetivo (mediante un reconocedor automático que identificó el 82% de las expresiones generadas) como subjetivo, a través de una encuesta a un grupo de 75 alumnos universitarios. Los estudiantes reconocieron con éxito el 86% de las emociones y el 73% de los estados emocionales representados en el ordenador.
Aun así, los investigadores han detectado que algunas emociones son difíciles de diferenciar, como el miedo y la sorpresa, y que es el contexto el que ayuda a diferenciarlas. El equipo ya trabaja en esta línea y prepara un cuentacuentos virtual que enriquezca la narración expresando con su rostro las emociones que genera la historia contada.
Arellano señala además que la manifestación de emociones no depende sólo de la expresión facial, si no que existen también otros factores como los gestos, la voz o los movimientos de la cabeza que también ayudan a la interpretación correcta de una emoción, ya que en ellos influye la personalidad notoriamente.
Los investigadores consideran que este modelo se podría aplicar desde entornos educativos (tutores virtuales y presentadores con rasgos de personalidad) hasta personajes de videojuegos o historias interactivas que tengan su propio motor emocional. “Nuestro siguiente paso es dejar de lado el estándar MPEG-4 y concentrarnos en una malla genérica de alta calidad que permitirá incluir tanto arrugas, como movimientos de ojos, párpados y cabeza, y sintetizar la voz”, concluye la investigadora.
---------------------------------------
Referencia bibliográfica:
Diana Arellano, Javier Varona y Francisco J. Perales. “Generation and visualization of emotional states in virtual characters”. Computer Animation and Virtual Worlds 19 (3-4): 259-270, 2008.
Mas información: http://dmi.uib.es/~ugiv/diana/pubs.html
Solo para medios:
Si eres periodista y quieres el contacto con los investigadores, regístrate en SINC como periodista.