Un paciente con ELA puede hablar en tiempo real por primera vez gracias a la IA

Este hito científico permite comprender el 60% de las palabras emitidas con la interfaz, frente al 4% sin el dispositivo

Guardar
En un avance que ha capturado la atención del mundo científico, un hombre con esclerosis lateral amiotrófica (ELA) ha logrado hablar y cantar gracias a una nueva tecnología de interfaz cerebro-computadora y a la inteligencia artificial.

Este desarrollo, liderado por investigadores de la Universidad de California, representa un significativo paso adelante en la neurociencia aplicada y ofrece una renovada esperanza para los pacientes afectados por la pérdida del habla.

Quién es el paciente con ELA que pudo hablar

El protagonista de este avance es un hombre de 45 años que vio su capacidad de comunicación mermada tras el desarrollo de la ELA, una enfermedad neurodegenerativa que afecta las neuronas motoras y deteriora progresivamente la función muscular, incluyendo el habla.

Cinco años después del inicio de los síntomas, este paciente fue sometido a una intervención quirúrgica para implantar electrodos en su cerebro, marcando el comienzo de un viaje hacia la recuperación de su voz.

Cómo funciona la tecnología que le permitió hablar

El dispositivo implantado consiste en una serie de microelectrodos ubicados en el córtex motor, la región cerebral responsable de la producción del habla. Estos electrodos son capaces de captar la actividad neuronal cuando el paciente intenta formular palabras o emitir sonidos.

Mediante el uso de algoritmos de inteligencia artificial, la interfaz traduce estas señales cerebrales en audio en tiempo real, con una latencia de tan solo 10 milisegundos. Esta rapidez es clave, ya que permite una experiencia auditiva que se percibe como natural.

A diferencia de las tecnologías previas que transformaban las señales cerebrales en texto con retrasos significativos, el nuevo sistema imita una conversación en tiempo real, reproduciendo no solo los sonidos sino también sus variaciones en tono, entonación y ritmo. Este nivel de detalle es crucial para lograr una comunicación efectiva que refleje emoción y significado.

El uso de este dispositivo no solo ha permitido al paciente recuperar la capacidad de hablar, sino también expresarse con una voz sintetizada personalizada, que se asemeja notablemente a su voz original gracias a grabaciones previas al deterioro por ELA. Más allá de las palabras, el sistema le permite cantar melodías sencillas y moldear su entonación y énfasis, aspectos fundamentales para la comunicación emocional.

Este hito científico permite comprender
Este hito científico permite comprender el 60% de las palabras emitidas con la interfaz, frente al 4% sin el dispositivo. (Imagen Ilustrativa Infobae)

La capacidad de formular preguntas, realizar interjecciones y enfatizar ciertas palabras ha sido otro de los logros significativos. Durante las pruebas, se demostró que los oyentes podían comprender aproximadamente el 60% de las palabras emitidas a través de la interfaz cerebro-computadora, una mejora considerable en comparación con el 4% de reconocimiento sin el uso del dispositivo.

Cuál es el impacto de este desarrollo

Este avance tecnológico ha sido catalogado como un verdadero hito en el campo de las prótesis neuronales. Los expertos destacan que este dispositivo puede representar un cambio de paradigma, al convertirse en una herramienta potencialmente utilizable en situaciones reales para personas con diversas condiciones que afectan la comunicación verbal.

La precisión del sistema y su capacidad de operar de manera casi instantánea abre la puerta a futuras aplicaciones, no solo para quienes padecen ELA, sino también para individuos afectados por parálisis, traumas craneales y otras afecciones.

Según David Brandman, codirector del Laboratorio de Neuroprótesis de UC Davis, recuperar la voz es crucial para la identidad personal y podría mitigar el aislamiento experimentado por aquellos que han perdido esta capacidad fundamental.

Los investigadores destacan que aún
Los investigadores destacan que aún son necesarios estudios adicionales para validar esta tecnología en diversos contextos clínicos.(Imagen Ilustrativa Infobae)

A pesar del entusiasmo generado por estos resultados iniciales, los investigadores advierten que es necesario realizar estudios adicionales con un mayor número de participantes y en contextos clínicos variados. La validación de la tecnología en diferentes escenarios de pérdida del habla permitirá evaluar su eficacia y viabilidad a largo plazo.

El equipo de investigadores, liderado por Sergey Stavisky y Maitreyee Wairagkar, mantiene su compromiso de mejorar y expandir esta tecnología. En palabras de Stavisky, la implementación de una síntesis de voz en tiempo real con características naturales de habla es un paso importante hacia la restauración de la habilidad de comunicación en pacientes con discapacidades del habla.