ciencia, tecnología, implantes cerebrales
El dispositivo traduce el pensamiento en voz en tiempo real.
12 junio 2025.- Un hombre con una discapacidad grave del habla puede hablar expresivamente y cantar gracias a un implante cerebral que traduce su actividad neuronal en palabras casi instantáneamente. El dispositivo transmite cambios de tono cuando hace preguntas, enfatiza las palabras que elige y le permite tararear una serie de notas en tres tonos.
El sistema, conocido como interfaz cerebro-computadora (BCI) , utilizó inteligencia artificial (IA) para decodificar la actividad eléctrica cerebral del participante mientras intentaba hablar. El dispositivo es el primero en reproducir no solo las palabras que una persona pretendía decir, sino también características del habla natural, como el tono, la altura y el énfasis, que ayudan a expresar significado y emoción.
En un estudio, una voz sintética que imitaba la del participante pronunció sus palabras en 10 milisegundos tras la actividad neuronal que indicó su intención de hablar. El sistema, descrito hoy en Nature 1 , supone una mejora significativa respecto a los modelos BCI anteriores, que transmitían el habla en tres segundos o la reproducían solo después de que los usuarios terminaran de imitar una frase completa.
Decodificador en tiempo real
El participante del estudio, un hombre de 45 años, perdió la capacidad de hablar con claridad tras desarrollar esclerosis lateral amiotrófica, un tipo de enfermedad de la neurona motora que daña los nervios que controlan los movimientos musculares, incluidos los necesarios para el habla. Aunque aún podía emitir sonidos y palabras, su habla era lenta y confusa.
Cinco años después del inicio de sus síntomas, el participante se sometió a una cirugía para insertarle 256 electrodos de silicio, cada uno de 1,5 mm de longitud, en una región cerebral que controla el movimiento. La coautora del estudio, Maitreyee Wairagkar, neurocientífica de la Universidad de California en Davis, y sus colegas entrenaron algoritmos de aprendizaje profundo para capturar las señales en su cerebro cada 10 milisegundos. Su sistema decodifica, en tiempo real, los sonidos que el hombre intenta producir, en lugar de las palabras que pretende pronunciar o los fonemas constituyentes (las subunidades del habla que forman las palabras habladas).
El equipo también personalizó la voz sintética para que sonara como la del hombre, entrenando algoritmos de IA con grabaciones de entrevistas que había realizado antes de la aparición de su enfermedad.
El equipo pidió al participante que intentara hacer interjecciones como «aah», «ooh» y «hmm» y pronunciar palabras inventadas. La BCI logró reproducir estos sonidos, demostrando que podía generar habla sin necesidad de un vocabulario fijo.
Libertad de interlocución
Usando el dispositivo, el participante deletreó palabras, respondió preguntas abiertas y dijo lo que quería, usando algunas palabras que no formaban parte de los datos de entrenamiento del decodificador. Comentó a los investigadores que escuchar la voz sintética producir su discurso lo hacía sentir feliz y que la sentía como si fuera su voz real.
En otros experimentos, la BCI identificó si el participante intentaba pronunciar una oración como pregunta o como afirmación. El sistema también pudo determinar cuándo enfatizaba diferentes palabras en la misma oración y ajustar el tono de su voz sintética en consecuencia. Las BCI anteriores solo podían producir un habla plana y monótona.
Según los investigadores, esto supone un cambio de paradigma, ya que puede dar lugar a una herramienta práctica. Las características del sistema “serían cruciales para su adopción en el uso diario por parte de los pacientes en el futuro”.
Fuente: Wairagkar, M. et al. Nature https://doi.org/10.1038/s41586-025-09127-3 (2025)
COMENTARIOS