La animación muestra dónde son posicionados los electrodos y un ejemplo en audio de cómo se traducen la intención y gesticulación normal de decir: "La prueba que buscas no está disponible en libros" y "El proceso de construir barcos es fascinante".

"En mi cabeza reviso cada oración diez veces, borro alguna palabra, añado un adjetivo, y me aprendo el texto de memoria, párrafo por párrafo", escribió Jean-Dominique Bauby en el libro autobiográfico La escafandra y la mariposa. En ese libro (después adaptado al cine), Bauby, periodista y editor, describe su vida antes y después de una lesión paralizante que le impedía mover un solo músculo; escribió todo letra por letra con parpadeos.

Miles de personas deben recurrir a esas maneras de comunicarse que requieren muchísimo esmero debido a lesiones por accidentes o en combate, a embolias o trastornos neurodegenerativos como la esclerosis lateral amiotrófica, que inhabilitan el habla.

Ahora los científicos reportan que desarrollaron una "voz virtual prostética", sistema con el cual las intenciones de vocalización del cerebro son traducidas en habla inteligible sin necesidad de mover un solo músculo, ni siquiera los de la boca. (El físico y autor Stephen Hawking usaba un músculo en su cachete para pulsar teclas que una computadora sintetizaba para leer lo que decía).

Los investigadores ya han desarrollado otros asistentes del habla virtuales en el pasado que funcionan al descifrar las ondas cerebrales que reconocen letras y palabras, representaciones verbales del habla. Pero con ese enfoque no se logran la rapidez ni fluidez del habla natural.

El nuevo sistema, descrito en la revista Nature el 24 de abril, descifra los comandos de motricidad del cerebro que guían el movimiento vocal cuando hablamos —como la dirección de la lengua o qué tanto pegamos los labios— y genera oraciones inteligibles que se aproximen a la cadencia natural de un hablante.

Los expertos indicaron que se trata de una prueba de concepto: es un vistazo a lo que sería posible con más experimentos y afinación. El sistema fue probado inicialmente en personas que mantienen intacta su capacidad del habla; no ha sido usado en personas con las condiciones o lesiones neurológicas, como apoplejías, que pudieran hacer imposible el descifrado de las ondas cerebrales.

Para las pruebas, los científicos de la Universidad de California, del campus San Francisco y del de Berkeley, reclutaron a cinco personas que estaban hospitalizadas para evaluación antes de una intervención quirúrgica por epilepsia.

Muchas personas epilépticas no obtienen resultados de los medicamentos y eligen someterse a una operación. Antes de la intervención, los doctores deben encontrar el sitio en el cerebro de los pacientes donde se originan las convulsiones; usan electrodos posicionados sobre la superficie del cerebro, o dentro de la materia gris, para "escuchar" dónde está el mayor movimiento.

Para encontrar la ubicación específica a veces transcurren semanas. En ese tiempo los pacientes andan con los electrodos implantados en o cerca de regiones cerebrales involucradas en el movimiento de ondas de audición y movimiento. Los pacientes suelen dar su consentimiento para participar en experimentos que aprovechan los implantes.

Cinco pacientes en la Universidad de California, campus San Francisco (UCSF), acordaron probar el generador de voz virtual. Cada uno tenía implantados una o dos matrices de electrodos: almohadillas con cientos de pequeños electrodos que se colocan sobre la superficie del cerebro.

Conforme los pacientes recitaban cientos de oraciones los electrodos registraban los patrones de actividad neuronal en la corteza motora cerebral. Los investigadores después asociaron esos patrones con los movimientos sutiles de labios, lengua, laringe y mandíbula que hacían los pacientes al hablar de manera natural. El equipo tradujo esos movimientos a las oraciones habladas.

El estudio en Nature reporta que hasta 70 por ciento de lo dicho por la "voz prostética" era comprensible.

"Mostramos, al descifrar la actividad cerebral que guía la articulación, que se puede simular un habla más precisa y que suena más natural que la versión sintetizada a partir de la extracción de representaciones del sonido en el cerebro", dijo Edward Chang, profesor de neurocirugía en UCSF y coautor del nuevo estudio. Lo realizó junto con Gopala K. Anumanchipalli, también de UCSF, y Josh Chartier, afiliado tanto a UCSF como al campus en Berkeley.

Otros sistemas de comunicación con base en implantes han producido unas ocho palabras por minuto. El nuevo programa genera unas 150 palabras por minuto, a la par del habla natural.

Los investigadores también encontraron que el sistema de voz prostética adaptada a la actividad neuronal de una persona sí puede usarse y adaptarse para alguien más, lo que sugiere que, algún día, estos sistemas podrían existir a la venta de manera generalizada.

El equipo ahora quiere realizar estudios clínicos para probar más a fondo el sistema. El principal reto para eso posiblemente sea encontrar a los pacientes idóneos: las apoplejías que inhabilitan el habla de las personas usualmente también dañan o eliminan las partes del cerebro que apoyan la articulación hablada.

En un comentario adicional al reporte publicado en Natura, los ingenieros biomédicos Chethan Pandarinath y Yahia J. Ali (de la Universidad Emory y del Instituto Tecnológico de Georgia) escribieron: "Con más progreso, esperamos que los individuos con dificultad en el habla puedan recuperar la capacidad de pronunciarse libremente y de reconectarse con el mundo que los rodea".

Copyright: 2019 New York Times News Service