Los dispositivos de lectura del cerebro permiten a las personas paralizadas hablar usando sus pensamientos, interfaces cerebro-computadora (BCI)
Una interfaz cerebro-computadora traduce las señales cerebrales del participante del estudio en el habla y los movimientos faciales de un avatar animado. Fuente: Noé Berger |
Dos estudios informan de mejoras considerables en las tecnologías diseñadas para ayudar a las personas con parálisis facial a comunicarse.
25 agosto 2023.- Implantes de lectura del cerebro mejorados mediante inteligencia artificial (IA) han permitido a dos personas con parálisis comunicarse con una precisión y velocidad sin precedentes.
En estudios separados, ambos publicados el 23 de agosto en Nature 1 , 2 , dos equipos de investigadores describen interfaces cerebro-computadora (BCI) que traducen señales neuronales en texto o palabras pronunciadas por una voz sintética. Los BCI pueden decodificar voz a 62 palabras por minuto y 78 palabras por minuto, respectivamente. La conversación natural se produce a unas 160 palabras por minuto, pero las nuevas tecnologías son más rápidas que cualquier intento anterior.
"Ahora es posible imaginar un futuro en el que podamos devolverle una conversación fluida a alguien con parálisis, permitiéndole decir libremente lo que quiera con una precisión lo suficientemente alta como para que se entienda de forma fiable", afirmó Francis Willett, neurocientífico de la Universidad de Stanford. en California, coautor de uno de los artículos 1 , en una conferencia de prensa el 22 de agosto.
Estos dispositivos “podrían ser productos en un futuro muy cercano”, afirma Christian Herff, neurocientífico computacional de la Universidad de Maastricht, Países Bajos.
Electrodos y algoritmos
Willett y sus colegas desarrollaron un BCI para interpretar la actividad neuronal a nivel celular y traducirla a texto. Trabajaron con Pat Bennett, de 67 años, que padece una enfermedad de la neurona motora, también conocida como esclerosis lateral amiotrófica, una afección que provoca una pérdida progresiva del control muscular, lo que provoca dificultades para moverse y hablar.
Primero, los investigadores operaron a Bennett para insertar series de pequeños electrodos de silicio en partes del cerebro involucradas en el habla, unos pocos milímetros debajo de la superficie. Luego entrenaron algoritmos de aprendizaje profundo para reconocer las señales únicas en el cerebro de Bennett cuando intentaba pronunciar varias frases utilizando un conjunto de vocabulario grande de 125.000 palabras y un conjunto de vocabulario pequeño de 50 palabras.
La IA decodifica palabras a partir de fonemas, las subunidades del habla que forman las palabras habladas. Para el vocabulario de 50 palabras, el BCI funcionó 3,4 veces más rápido que un BCI anterior desarrollado por el mismo equipo 3 y logró una tasa de error de palabra del 9,1%. La tasa de error aumentó al 23,8% para el vocabulario de 125.000 palabras. "Aproximadamente tres de cada cuatro palabras se descifran correctamente", dijo Willett en la conferencia de prensa.
"Para aquellos que no son verbales, esto significa que pueden permanecer conectados con el mundo en general, tal vez continuar trabajando, mantener relaciones familiares y de amigos", dijo Bennett en una declaración a los periodistas.
Leer la actividad cerebral
En un estudio separado 2 , Edward Chang, neurocirujano de la Universidad de California en San Francisco, y sus colegas trabajaron con una mujer de 47 años llamada Ann, que perdió la capacidad de hablar después de un derrame cerebral hace 18 años.
Utilizaron un enfoque diferente al del equipo de Willett, colocando un rectángulo delgado como un papel que contenía 253 electrodos en la superficie de la corteza cerebral. La técnica, llamada electrocorticografía (ECoG), se considera menos invasiva y puede registrar la actividad combinada de miles de neuronas al mismo tiempo. El equipo entrenó algoritmos de inteligencia artificial para reconocer patrones en la actividad cerebral de Ann asociados con sus intentos de pronunciar 249 oraciones usando un vocabulario de 1024 palabras. El dispositivo produjo 78 palabras por minuto con una tasa media de error de palabras del 25,5%.
Aunque los implantes utilizados por el equipo de Willett, que capturan la actividad neuronal con mayor precisión, superaron a estos en vocabularios más extensos, es "agradable ver que con ECoG es posible lograr una baja tasa de errores de palabras", dice Blaise Yvert, investigador de neurotecnología en el Instituto de Neurociencia de Grenoble en Francia.
Chang y su equipo también crearon algoritmos personalizados para convertir las señales cerebrales de Ann en una voz sintética y un avatar animado que imita expresiones faciales. Personalizaron la voz para que sonara como la de Ann antes de su lesión, entrenándola con grabaciones del vídeo de su boda.
Se necesitan mejoras antes de que las BCI puedan estar disponibles para uso clínico. "El escenario ideal es que la conexión sea inalámbrica", dijo Ann a los investigadores. Una BCI adecuada para el uso diario tendría que estar compuesta por un sistema totalmente implantable, sin conectores ni cables visibles, añade Yvert. Ambos equipos esperan seguir aumentando la velocidad y precisión de sus dispositivos con algoritmos de decodificación más robustos.
Además, los participantes de ambos estudios todavía tienen la capacidad de activar sus músculos faciales cuando piensan en hablar, y sus regiones cerebrales relacionadas con el habla están intactas. Este no será el caso para todos los pacientes.
"Consideramos esto como una prueba de concepto y simplemente como una motivación para que la gente de la industria en este espacio lo traduzca en un producto que alguien realmente pueda usar", dice Willett.
Los dispositivos también deben probarse en muchas más personas para demostrar su fiabilidad. "No importa cuán elegantes y técnicamente sofisticados sean estos datos, tenemos que entenderlos en contexto, de manera muy mesurada", dice Judy Illes, investigadora de neuroética de la Universidad de Columbia Británica en Vancouver, Canadá. "Tenemos que tener cuidado con las promesas excesivas de generalización amplia a poblaciones grandes", añade. "No estoy seguro de que hayamos llegado a ese punto todavía".
COMENTARIOS