CIENCIA. Leer la mente con máquinas

  Un investigador usa un casco de interfaz cerebro-computadora. Foto: Jean-Pierre Clatot/AFP/Getty Images Los investigadores están desarroll...

 

Un investigador usa un casco de interfaz cerebro-computadora. Foto: Jean-Pierre Clatot/AFP/Getty Images

Los investigadores están desarrollando interfaces cerebro-computadora que permitirían la comunicación de personas con síndrome de enclaustramiento y otras afecciones que les impiden hablar.

21 mayo 2023.- En la novela clásica de Alexandre Dumas El conde de Montecristo , un personaje llamado Monsieur Noirtier de Villefort sufre un terrible derrame cerebral que lo deja paralizado. Aunque permanece despierto y consciente, ya no puede moverse ni hablar, depende de su nieta Valentine para recitar el alfabeto y hojear un diccionario para encontrar las letras y palabras que necesita. Con esta rudimentaria forma de comunicación, el decidido anciano logra salvar a Valentine de ser envenenada por su madrastra y frustrar los intentos de su hijo de casarla en contra de su voluntad.

La representación de Dumas de esta condición catastrófica, donde, como él dice, “el alma está atrapada en un cuerpo que ya no obedece sus órdenes”, es una de las primeras descripciones del síndrome de encierro Esta forma de parálisis profunda ocurre cuando se daña el tronco encefálico , generalmente debido a un accidente cerebrovascular, pero también como resultado de tumores, lesiones cerebrales traumáticas, mordeduras de serpientes , abuso de sustancias, infecciones o enfermedades neurodegenerativas como la esclerosis lateral amiotrófica (ELA).


En El conde de Montecristo , Monsieur Noirtier de Villefort no puede moverse ni hablar pero se comunica con su nieta a través de palabras y letras en un libro. Fuente: PROYECTO GUTENBERG


Se cree que la condición es rara , aunque es difícil decir qué tan rara es. Muchos pacientes encerrados pueden comunicarse a través de movimientos oculares decididos y parpadeo, pero otros pueden quedar completamente inmóviles , perdiendo su capacidad incluso para mover los globos oculares o los párpados, lo que hace que el comando "parpadee dos veces si me entiende" sea discutible. Como resultado, los pacientes pueden pasar un promedio de 79 días aprisionados en un cuerpo inmóvil, conscientes pero incapaces de comunicarse, antes de recibir un diagnóstico adecuado.

El advenimiento de las interfaces cerebro-máquina ha fomentado la esperanza de restaurar la comunicación de las personas en este estado de bloqueo, permitiéndoles reconectarse con el mundo exterior. Estas tecnologías generalmente usan un dispositivo implantado para registrar las ondas cerebrales asociadas con el habla y luego usan algoritmos informáticos para traducir los mensajes previstos. Los avances más emocionantes no requieren parpadeo, seguimiento ocular o intentos de vocalización, sino que capturan y transmiten las letras o palabras que una persona dice en silencio en su cabeza.

Estudios recientes  han proporcionado la primera evidencia de que las interfaces cerebro-máquina pueden decodificar el habla interna. Estos enfoques, si bien son prometedores, a menudo son invasivos, laboriosos y costosos, y los expertos están de acuerdo en que requerirán un desarrollo considerablemente mayor antes de que puedan dar voz a los pacientes encerrados.

Involucrar al cerebro, pero ¿dónde?

El primer paso para construir una interfaz cerebro-máquina es decidir qué parte del cerebro tocar. Cuando Dumas era joven, muchos creían que los contornos del cráneo de una persona proporcionaban un atlas para comprender el funcionamiento interno de la mente. Gráficos de frenología coloridos , con extensiones bloqueadas para facultades humanas como la benevolencia, el apetito y el lenguaje, todavía se pueden encontrar en textos médicos anticuados y en las secciones de decoración del hogar de los grandes almacenes. 

Ahora está claro que nuestras facultades y funciones surgen de una red de interacciones entre varias áreas del cerebro, con cada área actuando como un nodo en la red neuronal. Esta complejidad presenta tanto un desafío como una oportunidad: dado que aún no se ha encontrado una región del cerebro que sea responsable del lenguaje interno, varias regiones diferentes podrían ser objetivos viables.

Los científicos han observado que una parte del lóbulo parietal llamada giro supramarginal (SMG), que generalmente se asocia con agarrar objetos, también se activa fuertemente durante el hablaHicieron el sorprendente descubrimiento mientras observaban a un participante del estudio tetrapléjico al que se le había implantado una matriz de microelectrodos, un dispositivo más pequeño que la cabeza de un alfiler cubierto con montones de púas de metal a escala reducida, en su SMG. La matriz puede registrar la activación de neuronas individuales y transmitir los datos a través de una maraña de cables a una computadora para procesarlos.

La configuración de la interfaz cerebro-máquina sería comparable a un partido de fútbol, donde el cerebro es el estadio de fútbol y cada una de las neuronas es una persona en ese estadio. Los electrodos son los micrófonos que baja al estadio para escuchar. 

En el cerebro, los dispositivos implantados se ubican en el espacio extracelular entre las neuronas, donde monitorean las señales electroquímicas que se mueven a través de las sinapsis cada vez que una neurona se activa. Si el implante capta las neuronas relevantes, las señales que registran los electrodos parecen archivos de audio, reflejando un patrón diferente de picos y valles para diferentes acciones o intenciones.


El gráfico muestra el tiempo en el eje horizontal y una medida de la variabilidad de activación de las neuronas en el eje vertical.  Las líneas de diferentes colores indican patrones de variabilidad únicos para palabras reales (campo de batalla, pitón, natación, vaquero, cuchara, teléfono) y no palabras (nifzig y bindip).

Los investigadores llevaron a cabo experimentos de interfaz cerebro-computadora con la ayuda de un voluntario con tetraplejía que accedió a implantarse electrodos en su cerebro. Esta figura muestra lecturas de neuronas en una región del cerebro llamada giro supramarginal, que se activa fuertemente durante el habla. El voluntario fue evaluado con varias palabras, así como con algunas palabras sin sentido. La población de neuronas que activa el conjunto de electrodos se comportó de manera similar entre las pruebas (ITI, o intervalo entre pruebas), pero mostró una gran variabilidad cuando al sujeto se le mostraron palabras (CUE), habló las palabras internamente (HABLA INTERNA) o pronunció las palabras en voz alta (HABLA VOCALIZADA). Cada línea de color indica una palabra diferente. El patrón de varianza, indicado por los altibajos en el eje vertical.


Un equipo investigador de Caltech entrenó su interfaz cerebro-máquina para reconocer los patrones cerebrales producidos cuando un participante del estudio tetrapléjico "hablaba" internamente seis palabras (campo de batalla, vaquero, pitón, cuchara, natación, teléfono) y dos pseudopalabras (nifzig, bindip). Descubrieron que después de solo 15 minutos de entrenamiento y mediante el uso de un algoritmo de decodificación relativamente simple, el dispositivo podía identificar las palabras con más del 90 por ciento de precisión. Eestudio , que aún no se ha publicado en una revista científica revisada por pares, se presentó en la conferencia de la Sociedad de Neurociencia de 2022 en San Diego. 

Pensamientos en letras en palabras

Otro enfoque evita la necesidad de construir un gran vocabulario mediante el diseño de una interfaz cerebro-máquina que reconoce letras en lugar de palabras. Al tratar de pronunciar las palabras que codifican para cada letra del alfabeto romano, un paciente paralizado podía deletrear cualquier palabra que se le ocurriera, encadenando esas palabras para comunicarse en oraciones completas.

Al igual que la estática en una línea telefónica, las señales cerebrales pueden ser ruidosas. El uso de palabras clave de la OTAN, como Alpha para A, Bravo para B y Charlie para C, hace que sea más fácil discernir lo que alguien está diciendo.

Los investigadores probaron esta idea en un participante que no podía moverse ni hablar como resultado de un derrame cerebral. Al participante del estudio se le implantó una serie más grande de electrodos, aproximadamente del tamaño de una tarjeta de crédito, sobre una amplia franja de su corteza motora. En lugar de escuchar a escondidas las neuronas individuales, esta matriz registra la actividad sincronizada de decenas de miles de neuronas, como escuchar una sección completa en un estadio de fútbol gimiendo o vitoreando al mismo tiempo.

Usando esta tecnología, los investigadores registraron horas de datos y los introdujeron en sofisticados algoritmos de aprendizaje automático. Pudieron  decodificar el 92 por ciento de las oraciones deletreadas en silencio del sujeto del estudio  , como "Eso está bien" o "¿Qué hora es?" - en al menos uno de dos intentos. El próximo paso podría ser combinar este enfoque basado en la ortografía con un  enfoque basado en palabras  que desarrollaron previamente para permitir que los usuarios se comuniquen más rápido y con menos esfuerzo.

Todavía en la etapa inicial

Hoy, a cerca de 40 personas en todo el mundo se les han implantado conjuntos de microelectrodos, y más están disponibles en línea. Muchos de estos voluntarios (personas paralizadas por accidentes cerebrovasculares , lesiones de la médula espinal o ELA ) pasan horas conectados a computadoras ayudando a los investigadores a desarrollar nuevas interfaces cerebro-máquina para permitir que otros, algún día, recuperen las funciones que han perdido. En este momento, todo este campo todavía está en la etapa inicial.

El reto está en ver actualizaciones de hardware y software que hagan que los dispositivos sean menos engorrosos, más precisos y más rápidos. Por ejemplo, el dispositivo iniciado por el laboratorio de la UCSF funcionó a un ritmo de unas siete palabras por minuto, mientras que el habla natural se mueve a unas 150 palabras por minuto. E incluso si la tecnología evoluciona para imitar el habla humana, no está claro si los enfoques desarrollados en pacientes con cierta capacidad para moverse o hablar funcionarán en aquellos que están completamente bloqueados. 



Este video describe una interfaz cerebro-computadora en desarrollo en UC San Francisco. El equipo trabajó con un voluntario que sobrevivió a un derrame cerebral y ya no puede articular palabras. Se implantó un electrodo sobre un área del cerebro que controla el tracto vocal. La configuración decodificó con éxito las palabras que el voluntario intentaba pronunciar. Lea más aquí . Fuente: UC SAN FRANCISCO (UCSF)


Otra pregunta abierta es si es posible diseñar interfaces cerebro-máquina que no requieran cirugía cerebral. Los intentos de crear enfoques no invasivos han fallado porque tales dispositivos han tratado de dar sentido a las señales que han viajado a través de capas de tejido y hueso, como tratar de seguir un partido de fútbol desde el estacionamiento.

Ya se ha avanzado utilizando una técnica de imagen llamada magnetoencefalografía (MEG), que registra los campos magnéticos en el exterior del cráneo que son generados por las corrientes eléctricas en el cerebro y luego traduce esas señales en texto. En este momento, está tratando de construir un dispositivo que use MEG para reconocer los 44 fonemas, o sonidos del habla, en el idioma inglés, como ph u oo , que podría usarse para construir sílabas, luego palabras y luego oraciones.

En última instancia, el mayor desafío para restaurar el habla en pacientes encerrados puede tener más que ver con la biología que con la tecnología. 

La forma en que se codifica el habla, en particular el habla interna, puede variar según el individuo o la situación. Una persona podría imaginarse garabateando una palabra en una hoja de papel con el ojo de su mente; otro podría escuchar la palabra, aún no pronunciada, resonando en sus oídos; otro podría asociar una palabra con su significado, evocando un estado de ánimo particular. Debido a que diferentes ondas cerebrales podrían asociarse con diferentes palabras en diferentes personas, es posible que se deban adaptar diferentes técnicas a la naturaleza individual de cada persona.

Fuente: Marla Broadfoot, doctorada en genética y biología molecular. Vea más de su trabajo en marlabroadfoot.com .

COMENTARIOS

Nombre

actualidad,1125,ADN,2,agenda,6,agricultura,125,agujeros negros,5,ALCINE,1,alergia,5,alimentación,2,alzheimer,67,anemia,1,animales,125,antibióticos,1,apnea,1,arañas,1,ARNm,1,arqueologia,93,artrosis,1,aspirina,1,astronomia,155,atrofia muscular espinal,1,audiovisual,224,autismo,17,ávaros,1,avuelapluma,12,BIC,4,biocombustibles,6,biodiversidad,37,biotecnología,15,BIP,1,calefacción,1,calentamiento global,15,calor,4,cambio climático,76,cancer,192,cannabidiol,1,cannabis,4,CAR-T,7,carnavales_2024,15,CBD,1,cemento,1,cerebro,1,ciberseguridad,2,ciencia,439,cine,104,clima,1,CO2,7,colesterol,3,compromiso179,8,computación cuántica,3,contaminación,22,convocatoria,32,COP28,5,COP29,1,covid-19,117,CRISPR,2,Crohn,1,cultura,218,cultura_alcala,2,cultura_guadalajara,1,cultura_torrejon,1,danza,6,deal,62,demencia,5,dengue,1,deportes,317,depresión,9,diabetes,61,dieta,1,economia,418,economia_empleo,129,economia_negocios,374,economia_sociales,72,economia_vivienda,80,edición genética,8,EII,1,El Niño,1,ELA,2,elecciones,26,elecciones_partidos,8,elecciones_UE2024,26,elecciones2023,78,elecciones2023_alcala,6,elecciones2023_coslada,1,elecciones2023_guadalajara,31,elecciones2023_madrid,7,elecciones2023_torrejon,24,elecciones2023_villalbilla,3,empleo,21,energia,916,energía nuclear,6,energía solar,57,energia_almacenamiento,8,energia_eolica,16,energías renovables,107,enfermedades infecciosas,13,enigmas,154,ensayos,3,enseñanza,1,envejecimiento,5,epigenética,1,epilepsia,2,esclerosis,22,esnoticia,3899,esnoticia_alcala,932,esnoticia_anchuelo,1,esnoticia_azuqueca,66,esnoticia_breves,20,esnoticia_coslada,381,esnoticia_guadalajara,424,esnoticia_madrid,1539,esnoticia_sanfernando,190,esnoticia_torrejon,440,esnoticia_velilla,2,esnoticia_villalbilla,85,espacio,5,estrés,1,europa,40,eventos,23,exposiciones,31,Fiestas_Alcala,9,financiación_autonómica,1,FITUR_2023,18,FITUR_2024,16,FIVE,1,formacion,34,foros y debates,51,gastronomia,44,geología,1,glioblastoma,1,gripe aviar,4,hidrógeno verde,33,hispanidad,2,historia,180,historias,413,horteralia,1,huracanes,1,imserso,1,inca,1,incendios,2,influenza,1,inmigración,1,inmunoterapia,44,inteligencia artificial,102,ITS,1,James Webb,8,ketamina,1,laboral,32,LGBT,1,libros,167,lídar,1,litio,2,malaria,2,mayas,2,MDMA,1,medicamentos,31,medioambiente,352,melanoma,1,micenas,1,microplásticos,6,miocarditis,1,mitosyleyendas,59,motor,570,motor_electricos,137,motor_hibridos,81,motor_innovacion,64,motor_mercado,152,motor_noticias,149,movilidad,15,mpox,6,mujer,1,museos,2,musica,19,naturaleza,135,Navidad2023,52,neardental,1,neurociencia,30,nocturia,1,nutricion,144,nutrición,5,obesidad,11,opinión,208,osteoartritis,1,paleontología,1,parkinson,24,peliculas,36,pensiones,1,permanente,1,personajes,97,pesca,1,plantas,37,plásticos,1,poesia,43,polen,2,presupuestos2024,1,prime,69,psicologia,1,psilocibina,1,relatos,2,robótica,28,sal,1,salud,691,salud dental,13,salud mental,13,semana_santa,15,SIDA,1,sueño,3,teatro,13,tecnologia,249,terremotos,1,THC,1,tradiciones,67,transmisión_sexual,1,transporte,2,turismo,267,universo,13,vacunas ARN,6,vidasaludable,151,video,41,VIH,4,violenciadegenero,1,viruela,2,virus,2,virus del nilo,2,yuca,1,
ltr
item
La Crónica del Henares: CIENCIA. Leer la mente con máquinas
CIENCIA. Leer la mente con máquinas
https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh2dR8Kr9xacuazwpH1Ib7DZa_QgwZYfGNFMdNHOlExsqpaLz6_ob1JhBNAczI0BJvGpW-AH5S6S_-66I77wOnLyQILPa12ncnQa5WoIVzZ8XJDVIFIbZP6yKr0x-Fr3JrcwhKNca5Gv2tbgVN7bgCGA9ObVMneguhr6XPe6SIngIxFqea1v_xT_dE0Gg/s320/ciencia.jpg
https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh2dR8Kr9xacuazwpH1Ib7DZa_QgwZYfGNFMdNHOlExsqpaLz6_ob1JhBNAczI0BJvGpW-AH5S6S_-66I77wOnLyQILPa12ncnQa5WoIVzZ8XJDVIFIbZP6yKr0x-Fr3JrcwhKNca5Gv2tbgVN7bgCGA9ObVMneguhr6XPe6SIngIxFqea1v_xT_dE0Gg/s72-c/ciencia.jpg
La Crónica del Henares
https://www.cronicadelhenares.com/2023/05/ciencia-leer-la-mente-con-maquinas.html
https://www.cronicadelhenares.com/
https://www.cronicadelhenares.com/
https://www.cronicadelhenares.com/2023/05/ciencia-leer-la-mente-con-maquinas.html
true
5995595061750506997
UTF-8
Cargar todos los posts No se encuentra Ver todo Leer más Responder Cancelar respuesta Borrar Por Inicio Páginas Posts Ver todo Relacionados Etiqueta ARCHIVO BUSCAR Todos los posts No se encuentra INICIO Domingo Lunes Martes Miércoles Jueves Viernes Sábado Dom Lun Mar Mie Jue Vie Sab Enero Febrero Marzo Abril Mayo Junio Julio Agosto Septiembre Octubre Noviembre Diciembre Ene Feb Mar Abr Mayo Jun Jul Ago Sep Oct Nov Dic justo ahora hace 1 minuto hace $$1$$ minutos hace 1 hora hace $$1$$ horas Ayer hace $$1$$ días hace $$1$$ semanas hace más de 5 semanas Seguidores Siguen THIS PREMIUM CONTENT IS LOCKED STEP 1: Share to a social network STEP 2: Click the link on your social network Copy All Code Select All Code All codes were copied to your clipboard Can not copy the codes / texts, please press [CTRL]+[C] (or CMD+C with Mac) to copy Tabla de contenidos