La inteligencia artificial hace accesible el teatro a personas sordas y ciegas

Una tecnologia que emplea inteligencia artificial hace posible que las personas con discapacidad auditiva y visual puedan disfrutar en el teatro de los espectáculos musicales. El sistema Stage-sync, desarrollado por investigadores de la Universidad Carlos III de Madrid, incluye un software que permite ver los subtítulos adaptados y a un intérprete de lengua de signos mediante realidad aumentada. Las personas ciegas también pueden escuchar la audiodescripción de forma individual.

La inteligencia artificial hace accesible el teatro a personas sordas y ciegas
Elenco de la obra La familia Adams. / UC3M

Una nueva tecnología del grupo de investigación SoftLab de la UC3M se ha empleado para hacer accesible la comedia musical de Broadway La Familia Addams en el Teatro Calderón de Madrid. Se trata de un proyecto en el que han colaborado la agencia creativa C&W, COMUNICAdos y Escena Global y que ha contado con el apoyo de la Consejería de Educación e Innovación de la Comunidad de Madrid.

Gracias a ello, las personas con discapacidad auditiva y visual pueden disfrutar de cualquiera de las representaciones de esta comedia musical desde el pasado 3 de diciembre, que fue el Día Internacional de las Personas con Discapacidad.

El sistema incluye un software que permite ver los subtítulos adaptados y a un intérprete de lengua de signos mediante realidad aumentada. Las personas ciegas también pueden escuchar la audiodescripción de forma individual. Además, la tecnología se sincroniza automáticamente con la obra, sin intervención humana, gracias a técnicas de inteligencia artificial que detectan en todo momento qué es lo que sucede en el escenario. Después, el espectador recibe los contenidos de accesibilidad a través de la aplicación GoAll.

El 'software' permite ver los subtítulos y a un intérprete de lengua de signos mediante realidad aumentada. Las personas ciegas escuchan la descripción de forma individual

Tecnología que 'aprende'

Stage-sync es una tecnología que va aprendiendo a medida que se van realizando representaciones y se adapta a los cambios de ritmo y actores que se suelen producir en el teatro. Utilizando técnicas de aprendizaje profundo combinadas con procesamiento de audio consigue una sincronización perfecta entre la representación y los elementos de accesibilidad. Además, con el sistema de visualización de realidad aumentada ya no es necesario incluir los subtítulos en la escenografía, sino que cada espectador puede verlos 'integrados' en el espectáculo.

Según el responsable del SoftLab de la UC3M, Ángel García Crespo, hasta ahora solo se producían esporádica y puntualmente unas pocas representaciones teatrales con este público objetivo en mente y no se incluía la lengua de signos. “Ahora ya es posible que todas las representaciones sean accesibles”, indica.

El proyecto está financiado con el apoyo de la consejería de Educación e Investigación de la Comunidad de Madrid como parte de las ayudas del programa "Cheque Innovación", un programa de ayudas cofinanciadas por el Fondo Europeo de Desarrollo Regional para incentivar el uso de los servicios de Innovación.

Fuente: UC3M
Derechos: Creative Commons
Artículos relacionados