Tecnologías capacitadas

Muchas tecnologías de la información que utilizamos hoy son la evolución de un invento imaginado para servir a personas discapacitadas. El diccionario T9 que escribe mensajes de texto en los móviles tuvo su origen en las operaciones de barrido de las computadoras adaptadas, el teclado de los ordenadores lo inventó el italiano Pellegrino Turri a finales del siglo XIX para que una amiga ciega pudiera escribir; y Graham Bell desarrolló el teléfono creyendo que las personas sordas podrían percibir el sonido transmitido por una señal eléctrica. Para ver otros usos sociales de las tecnologías presentamos las experiencias que tienen usuarios reales a partir de sugerentes proyectos de investigación.

Gafas de subtitulado.
Gafas de subtitulado. FOTO: CESyA.

En España se están desarrollando técnicas para que los casi dos millones de personas sordas accedan a las salas cinematográficas, teatros y museos. Al adentrarnos en el laboratorio del Centro Español de Subtitulado y Audiodescripción (CESYA) nos encontramos con un equipo de investigadores que ha desarrollado en exclusiva unas gafas de subtitulado que ahora se están promocionando en festivales de cine como el de San Sebastián y que han sido reconocidas por la revista TIME como uno de los tres mejores inventos del 2007.

El dispositivo consiste en un monóculo que se ajusta a las gafas comunes y el texto aparece delante de la vista. Requiere la reproducción sincronizada con la imagen de los subtítulos, que se propagan de la sala de proyección por vía radio, wifi o bluetooth. Las ventajas es que la persona sorda lee unos subtítulos que no molestan al resto de espectadores, como ocurriría si éstos aparecieran en la pantalla; además un código de colores identifica a cada personaje y también sonidos y efectos de audio. Belén Ruiz, directora técnica del CESYA, señala que “los cines deberían disponer de varios ejemplares de las gafas subtituladas para que se repartieran a los espectadores sordos, igual que se entregan gafas para ver películas en 3D. Es más, promocionar la accesibilidad está respaldado por la nueva Ley de Cine.

Quienes han probado estas gafas encuentran divertido que se puede situar el texto a diferentes alturas de la pantalla de modo que “si lo dejas a la mitad, los subtítulos parecen bocadillos que salen de la boca de los personajes”, dice un usuario. Además, el subtítulo permanece constante delante de la lente, de tal modo que “si buscas algo en el bolso o miras a tus compañeros, sigues leyendo los subtítulos”.

La tecnología para personas sordas tiene una principal aplicación en los colegios. El Centro de Innovación Tecnológica para Discapacitados y la Dependencia (CITDD) ha llevado a la práctica una plataforma dispositivo como experiencia piloto en el Colegio Tres Olivos de Madrid. José Manuel Sánchez Pena, el director científico del CITDD, explica que las ventajas son numerosas para la integración del alumnado ya que las explicaciones orales se reconocen y transcriben a tiempo real en la pantalla de un ordenador, y además la clases queda grabada en vídeo para que se pueda revisar en casa. “

Tuvimos que entrenar al programa para que reconociera la voz de la profesora”, apunta Loli Bermejo, pedagoga y asesora de familias, profesores y niños con deficiencia auditiva, “cuantos más textos se leen a la máquina mejor reconoce tu voz. El único inconveniente fue la lentitud de la transcripción aunque era casi literal. Por otra parte, si el estudiante desea formular preguntas puede accionar una discreta alarma y enviar la pregunta a una terminal que queda en la mesa del profesor. “Supuso una gran sorpresa para los alumnos, dice Elena Polvorinos, profesora de 6º de Primaria, pero aprendieron enseguida a utilizarlo y el resto de compañeros quiso probarlo”.

En todos los sentidos

El acceso a las personas ciegas (68.000 personas están afiliadas a la ONCE) es el otro plano de investigación que desarrolla el CESYA, con la audiodescripción. Este sistema de audio por auriculares que detalla las acciones en el teatro o en una película aprovechando los momentos de silencio entre diálogos, y empieza a integrarse tímidamente en la programación televisiva (sólo el 1% de las emisiones públicas) o en las salas de exhibición cinematográfica.

María Jesús Varela, directora del Centro de Investigación, Desarrollo y Aplicación Tiflotécnica de la ONCE, ha probado la audiodescripción en algunas representaciones teatrales. “Es rapidísima y no se pisa con los diálogos. Además muestra con máximo detalle lo que hay en escena, incluso elementos que pasan desapercibidos al resto de espectadores, por eso es muy enriquecedor”. También lo ha probado con películas, pero no en salas de cine porque ninguna ofrece esta prestación.

Desde su silla de ruedas, las personas que han sufrido lesiones en las articulaciones por accidentes o por deficiencias en el nacimiento pueden realizan tareas cotidianas como cepillase los dientes, afeitarse, rascarse o recoger objetos del suelo gracias a un prototipo de robot. El proyecto, llamado “Asibot”, se está probando en el Hospital Nacional de Parapléjicos de Toledo con resultados muy positivos. “Es como la máquina de un gimnasio” señala Alberto Jardón, investigador del Robotics Lab, “porque se acciona cuando el usuario inicia un movimiento. La diferencia es que la persona por sí no posee toda la fuerza que debe ejercer, por ejemplo, para agarrar un objeto. Por eso el robot se adapta a la maniobra realizada y la perfecciona”. Los últimos modelos se fijan a la silla de ruedas y funcionan por comandos orales de reconocimiento de voz.

Gabriel Barroso de María trabaja en una empresa dedicada a la construcción de viviendas para personas discapacitadas y utiliza “Asibot” en sus sesiones en el Hospital de Toledo. El manejo lo encuentra bastante intuitivo. “Que la ciencia investigue para dotar de independencia la las personas que no pueden mover los brazos me produce una gran satisfacción”. Aunque el robot sea un prototipo, es posible que, con el paso del tiempo, se fabrique en serie para uso doméstico. Pese al coste que esto supondría, “todo el dinero que se pueda invertir no importa comparado con el bienestar recibido porque lo que más desea una persona como yo es la independencia.

La aplicación del reconocimiento de voz en las máquinas es relativamente novedoso pero más sorprendente puede parecer que los ordenadores obedezcan sólo “con el pensamiento”. Este artilugio de ciencia ficción se está consiguiendo en la Universidad Politécnica de Cartagena con un equipo coordinado por Joaquín Roca Dorda, quien lleva investigando el software aplicado a discapacitados desde 1979, una época en la que los ordenadores eran remotamente primitivos. La tecnología, que aún no ha sido bautizada con un nombre, realiza encefalogramas que interpretan la actividad del cerebro, pero “todo esto no es tan fácil como parece”, indica Roca, “no es que el usuario piense “A” para escribir “A”, sino que el proceso lleva detrás un estudio probabilístico de las órdenes más comunes, y el usuario ha debido ser previamente instruido para que sus impulsos nerviosos comuniquen la información deseada al ordenador”. Para ello debe seleccionar una función que corresponde a uno de los dos hemisferios del cerebro, lo cual envía una señal del orden de milivoltios que el ordenador reconoce y traduce en un resultado.

Las tecnologías que se investigan para las personas con problemas motóricos, auditivos y visuales se sitúan en la transición entre la fábula y la realidad, pero lo que es evidente es que están “muy capacitadas” para integrar a sus usuarios en las actividades cotidianas y en los espacios públicos.

Fuente: SINC
Derechos: Creative Commons
Artículos relacionados