Un estudio de la Universidad de California en Davis describe la nueva interfaz, a la que han denominado BCI, que traduce las señales cerebrales en voz con hasta un 97 % de acierto. El sistema, el más preciso de su tipo, busca restablecer la comunicación de quienes no pueden hablar debido a la parálisis o a enfermedades neurodegenerativas.
Investigadores del UC Davis Health implantaron sensores en el cerebro de un hombre con un deterioro grave del habla debido a la esclerosis lateral amiotrófica (ELA). El estudio, publicado en el New England Journal of Medicine, muestra como el hombre fue capaz de comunicar su intención a los pocos minutos de activar el sistema.
La ELA, también conocida como enfermedad de Lou Gehrig, afecta a las células nerviosas que controlan el movimiento de todo el cuerpo. La enfermedad conduce a una pérdida gradual de la capacidad de pararse, caminar y usar las manos. También puede hacer que una persona pierda el control de los músculos utilizados para hablar, lo que lleva a una pérdida del habla.
Esta nueva tecnología pretende restaurar la comunicación de las personas que no pueden comunicarse debido a la parálisis o a afecciones neurológicas como la ELA. Para ello, es capaz de interpretar las señales cerebrales cuando el usuario intenta hablar y las convierte en texto que es transmitido en voz alta por la computadora.
"Nuestra tecnología BCI ayudó a un hombre con parálisis a comunicarse con amigos, familiares y cuidadores", comenta David Brandman, co-autor principal del estudio. "Es la neuroprótesis del habla más precisa jamás reportada" añade el investigador.
Para desarrollar el sistema, el equipo inscribió a Casey Harrell, un hombre de 45 años con ELA, en el ensayo clínico BrainGate. En el momento de su participación, Harrell tenía debilidad en los brazos y las piernas (tetraparesia). Además, su habla era muy difícil de entender (disartria) y requería que otros le ayudaran a interpretarlo.
En julio de 2023, el investigador Brandman implantó el dispositivo BCI en Harrel. Colocó cuatro matrices de microelectrodos en la circunvolución precentral izquierda, una región del cerebro responsable de coordinar el habla. Las matrices están diseñadas para registrar la actividad cerebral de 256 electrodos corticales.
El participante Casey Harrell con su asistente personal Emma Alaimo y el neurocientífico de la UC Davis Sergey Stavisky. / UC Regents
"Realmente estamos detectando su intento de mover sus músculos y hablar", explicó el neurocientífico Sergey Stavisky coinvestigador principal del estudio.
"Estamos grabando desde la parte del cerebro que está tratando de enviar estos comandos a los músculos. Básicamente escuchamos eso y traducimos los patrones de actividad cerebral a un fonema, como una sílaba o la unidad de oración, y luego las palabras que están tratando de decir" añade Stavisky.
Nicholas Card, primer autor del artículo, dice a SINC cómo el nuevo sistema BCI es capaz de eliminar el ruido eléctrico que se genera en el cerebro durante el habla: “Hay dos tipos de ruido en las señales neuronales con los que tiene que lidiar el BCI, por un lado el ruido eléctrico y, por otro, señales neuronales. Nuestro dispositivo esta diseñado específicamente para ser resistente al ruido eléctrico transitorio mediante un complejo mecanismo de algoritmos y un tipo especifico de red neuronal”.
El sistema es resistente al ruido eléctrico transitorio y a las señales neuronales no relacionadas con el habla
“Además, BCI es resistente a señales neuronales no relacionadas con el habla. Por ejemplo, el dispositivo no descodifica accidentalmente cosas que está escuchando en una sala con más personas, cuando el paciente no está intentando hablar. Tampoco interpreta accidentalmente sus toses, bostezos o estiramientos de mandíbula como habla”, añade el investigador.
A pesar de los avances recientes en la tecnología BCI, los intentos de facilitar la comunicación han sido lentos y propensos a errores, debido a que los programas de aprendizaje automático que interpretaban las señales cerebrales necesitaban una gran cantidad de tiempo y datos para operar correctamente.
"Los anteriores sistemas BCI de voz cometían errores de vocabulario con mayor frecuencia. Esto dificultaba que el usuario se entendiera de manera consistente y era una barrera para la comunicación", explica Brandman.
Harrell utilizó el sistema tanto en entornos de conversación espontánea, como provocados. En ambos casos, la decodificación de voz se produjo en tiempo real, con actualizaciones continuas del sistema para que funcionara con precisión.
Las palabras decodificadas se mostraban en una pantalla. Sorprendentemente, se leyeron en voz alta con una voz que sonaba como la de Harrell antes de tener ELA. La voz fue compuesta utilizando software entrenado con muestras de audio existentes suyas.
En la primera sesión de entrenamiento de datos de voz, el sistema tardó 30 minutos en lograr una precisión de palabras del 99,6 % con un vocabulario de 50 palabras.
“Una ventaja clave de utilizar un vocabulario reducido de 50 palabras es que se puede pedir al participante que diga cada una de ellas varias veces, lo que ayuda a identificar una relación sólida entre la actividad neuronal y los fonemas correspondientes dentro del descodificador neurona”, apunta Card.
Sin embargo, el reducido vocabulario limita las frases que el participante puede formular. Por ello, en la segunda sesión, el tamaño del vocabulario potencial aumentó a 125.000 palabras. Con solo 1,4 horas adicionales de datos de entrenamiento, el BCI logró una precisión de palabras del 90,2 % con este vocabulario ampliado.
Después de la recopilación continua de datos, el BCI mantuvo una precisión del 97,5 %. Este resultado hace que el sistema sea mejor que muchas aplicaciones de teléfonos inteligentes disponibles comercialmente que intentan interpretar la voz de una persona.
Espero que tecnologías como este discurso BCI ayuden a los futuros pacientes a hablar con sus familiares y amigos
"Esta tecnología es transformadora porque brinda esperanza a las personas que quieren hablar pero no pueden. Espero que tecnologías como este discurso BCI ayuden a los futuros pacientes a hablar con sus familiares y amigos" comenta Stavisky.
"La primera vez que probamos el sistema, lloró de alegría cuando las palabras que estaba tratando de decir correctamente aparecieron en la pantalla. Todos lo hicimos", agrega el investigador.
El estudio informa sobre 84 sesiones de recopilación de datos durante 32 semanas. En total, Harrell utilizó el BCI de voz en conversaciones a su propio ritmo durante más de 248 horas para comunicarse en persona y por videollamada.
El becario postdoctoral y autor principal del estudio Nicholas Card prepara el sistema BCI junto a Casey Harrell. / UC Regents
"No poder comunicarme es muy frustrante y desmoralizador. Es como si estuvieras atrapado", señala Harrell.
"Ha sido inmensamente gratificante ver a Casey recuperar su capacidad de hablar con su familia y amigos a través de esta tecnología", continúa Card.
Además, dado que hay múltiples aspectos del sistema BCI que pueden mejorarse, se prevé que en el futuro se explore su aplicación en personas con diferentes afecciones neurológicas o en fases más avanzadas de ELA, así como aumentar el número de participantes.
“Tanto este estudio como los otros mencionados incluyeron a un solo participante, lo que hace difícil determinar el grado de personalización que puede requerir una BCI del habla de persona a persona. Esta será una importante vía de investigación de cara al futuro”, recalca el científico
Por ello, los autores subrayan la importancia de los voluntarios en el proyecto BrainGate. "Merecen un tremendo crédito por unirse a estos primeros ensayos clínicos. Lo hacen, no porque esperen obtener algún beneficio personal, sino para ayudarnos a desarrollar un sistema que restaure la comunicación y la movilidad de otras personas con parálisis", concluye Leigh Hochberg.
Referencia:
Nicholas Card et al. "An Accurate and Rapidly Calibrating Speech Neuroprosthesis". New England Journal of Medicine, 2024