Un hombre enfermo de ELA recupera el habla gracias a una neuroprótesis y la inteligencia artificial
Ha sido el resultado del trabajo de neurocirujanos de la Universidad de California
Madrid
"No poder comunicarse es tan frustrante y desmoralizante. Es como si estuvieras atrapado", confesaba Casey Harrell, un hombre afectado por la Esclerosis Lateral Amiotrófica. Pues Harrell ha sido el afortunado que, gracias al trabajo del departamento de neurocirugía de la Universidad de California, en Estados Unidos, ha 'recuperado' el habla.
La ELA es una enfermedad que afecta de forma directa y agresiva a las células nerviosas que son las encargadas de controlar el movimiento de todo el cuerpo. Se trata de una enfermedad que causa la pérdida gradual de la capacidad de caminar, de usar las manos y las piernas, de ponerse de pie. Además, es muy común entre quienes la sufren, el perder el habla, dada la pérdida del control de los músculos involucrados en esta actividad.
La nueva tecnología se está desarrollando para restaurar las comunicaciones de las personas que no pueden hablar debido a la parálisis o afecciones neurológicas de enfermedades como esta. La herramienta, interpreta las señales cerebrales cuando el usuario tarta de hablar y las convierte en texto. Un texto que es posteriormente hablado en voz alta por un ordenador con la voz exacta del paciente. "Nuestra tecnología BCI ayudó a un hombre con parálisis a comunicarse con amigos, familias y cuidadores", aseguraba el neurocirujano de UC Davis, David Brandman, uno de los artífices del proyecto.
Un arduo camino para llegar al objetivo
Cuando alguien trata de hablar, el dispositivo BIC transforma la actividad cerebral en text en una pantalla de ordenador el cual es cada de leer el texto en voz alta. Para desarrollar esta tecnología se ha llevado a cabo un intenso y largo trabajo de investigación. Casey Harrell, de 45 años, se apuntó al proyecto en julio de 2023. Por entonces, tenía debilidad en los brazos y las piernas (tetraparesia) y su discurso fue muy difícil de entender por culpa de la disartria. Por ello, fue necesario la ayuda de terceras personas para la interpretación.
Las matrices de la herramienta están diseñadas para registrar la actividad cerebral de 256 electrodos corticales.
Los procesos han sido lentos y propensos a errores debido a que los programas de aprendizaje automático que interpretaban las señales cerebrales requerían una gran cantidad de tiempo y datos para funcionar. Harrell utilizó el sistema, en el periodo de pruebas que se extendió en algo más de un año, tanto en entornos de conversación solicitadas como espontáneas. En ambos casos, la decodificación de voz ocurrió en tiempo real, con actualizaciones continuas del sistema para que funcionase con la máxima precisión. Las palabras decodificadas se mostraban en una pantalla. Sorprendentemente, se leyeron en voz alta con una voz que sonaba como la de Harrell antes de que tuviera ELA, que se había recopilado de audios previos a la enfermedad.
El logro es el resultado de un minucioso entrenamiento en 84 sesiones de recogida de datos con el paciente a lo largo de 32 semanas. En este periodo el sistema logró comunicar lo que el paciente quería decir desde la primera sesión, aunque presentó dificultades y obligó a dar pasos en diferentes direcciones hasta alcanzar el objetivo.
El sistema más preciso hasta la fecha
"En este punto, podemos decodificar lo que Casey está tratando de decir correctamente alrededor del 97 por ciento de las veces, lo que es mejor que muchas aplicaciones de teléfonos inteligentes disponibles comercialmente que intentan interpretar la voz de una persona", aseguraba Brandman, este sábado cuando de ha publicado un estudio sobre este caso (Una neuroprótesis del habla precisa y de calibración rápida).
Después del éxito de la tecnología los neurocientíficos confían y tienen la esperanza de poder devolverle la voz a otros pacientes que la han perdido, ya sean enfermos de ELA o no.
Supone, además, un gran avance en comparación a las interfaces cerebro-máquina previamente desarrolladas que requerían del parpadeo o de intentos de cierta vocalización del paciente para poder comunicarse, puesto que hay enfermos que no pueden hacer ninguna de estas dos cosas