Ann, una mujer de 47 años con cuadriplejía logró hablar luego de 18 años gracias a un nuevo dispositivo y los últimos avances de la inteligencia artificial (IA).
Una neuroprótesis compuesta por 253 electrodos, implantada directamente sobre su cerebro, registró su actividad cerebral y envió las señales a una computadora, que transformó sus pensamientos en palabras pronunciadas con una voz idéntica a la que tenía antes de sufrir un accidente cerebrovascular (ACV) o ictus, a los 30 años.
La descripción del método desarrollado por un equipo de investigadores de Universidad de California en Berkeley y Universidad de California San Francisco, se publicó en la revista Nature Neuroscience y marca un importante avance en el campo de las interfaces cerebro-computadora.
Convertir señales cerebrales en voz humana
Se trata de un sistema de transmisión capaz de convertir las señales cerebrales en habla audible casi en tiempo real, dijeron los investigadores.

Y explicaron las importancia de este avance: “Los retrasos en el habla superiores a unos pocos segundos pueden interrumpir el flujo natural de la conversación. Esto impide que las personas con parálisis participen en diálogos significativos, lo que puede generar sentimientos de aislamiento y frustración”.
A diferencia de los métodos anteriores, que generaban sonidos únicamente después de que los usuarios completaban una frase entera, el dispositivo actual permite detectar y transformar palabras en voz en solo tres segundos, de forma simultánea al pensamiento.
Para lograrlo, los investigadores mejoraron la interfaz cerebro-computadora (BCI, por sus siglas en inglés) con algoritmos de inteligencia artificial (IA) capaces de decodificar las frases mientras la paciente las pensaba, y reproducirlas en voz alta mediante una voz sintética.
“Nuestro enfoque de streaming incorpora la misma capacidad de decodificación rápida de voz de dispositivos como Alexa y Siri a las neuroprótesis”, afirmó Gopala Anumanchipalli, profesor adjunto Robert E. y Beverly A. Brooks de Ingeniería Eléctrica y Ciencias de la Computación en UC Berkeley y coinvestigador principal del estudio.

Y agregó: “Usando un algoritmo similar, descubrimos que podíamos decodificar datos neuronales y, por primera vez, permitir la transmisión de voz casi sincrónica. El resultado es una síntesis de voz más natural y fluida”.
“Al demostrar una síntesis precisa de cerebro a voz en otros conjuntos de datos de habla silenciosa, demostramos que esta técnica no se limita a un tipo específico de dispositivo”, afirmó Kaylo Littlejohn, estudiante de doctorado del Departamento de Ingeniería Eléctrica y Ciencias de la Computación de UC Berkeley y coautor principal del estudio. “El mismo algoritmo puede utilizarse en diferentes modalidades, siempre que exista una buena señal”.
Una transmisión de voz casi en tiempo real
Ann, la participante del estudio, sufrió un derrame cerebral en el tronco encefálico en 2005 que le quitó la capacidad de hablar. Dieciocho años después, se sometió a una cirugía en la que se le implantó un rectángulo delgado como un papel con 253 electrodos sobre la superficie de su corteza cerebral. Este implante es capaz de registrar la actividad combinada de miles de neuronas al mismo tiempo.

Para recuperar su forma original de comunicación, los investigadores entrenaron algoritmos de inteligencia artificial con grabaciones de un video de su boda, logrando así personalizar una voz sintética que reproduce el tono que tenía antes del ictus.
Para reunir los datos necesarios para entrenar el algoritmo, los investigadores le mostraron a Ann indicaciones en la pantalla, como la frase “Hola, ¿cómo estás?”, y le solicitaron que intentara pronunciarla en silencio.
Luego, la paciente leyó en silencio 100 oraciones seleccionadas de un conjunto de 1024 palabras, junto con 50 frases que se mostraron en una pantalla. El dispositivo BCI registró su actividad neuronal cada 80 milisegundos, iniciando la captura 500 milisegundos antes de que comenzara a articular mentalmente cada oración. El sistema logró generar entre 47 y 90 palabras por minuto, mientras que una conversación habitual alcanza unas 160.

Estos resultados marcan un avance muy importante frente a la versión previa de esta tecnología que Ann había probado en un estudio anterior, y también respecto al dispositivo de comunicación asistida que usa actualmente, el cual requiere más de 20 segundos para emitir una sola frase.
Edward Chang, neurocirujano de la Universidad de California en San Francisco y coautor del estudio, señaló que con un aumento en la cantidad de sensores, una mayor precisión y un procesamiento de señales más avanzado, la tecnología seguirá evolucionando.
Los investigadores también trabajan en mejorar la expresividad de la voz sintetizada, con el objetivo de reproducir variaciones en el tono, timbre o volumen que se producen durante el habla natural, como sucede cuando una persona manifiesta distintas emociones.
Últimas Noticias
Una experta explicó cómo reconocer el hambre emocional y qué hacer antes de comer por ansiedad
La doctora Rachel Goldman, experta en psicología clínica, fue invitada al podcast de Mel Robbins para explicar cómo diferenciar una necesidad física real de un impulso generado por el estrés o la ansiedad. También propuso métodos sencillos para controlar la ingesta motivada por el estado anímico

Conexión intestino-cerebro: un estudio reveló cómo el microbioma está asociado al deterioro de la memoria
Un equipo de científicos liderado por la Universidad de Stanford encontró pistas sobre cómo una bacteria se vincula a ciertas funciones cognitivas. El hallazgo podría favorecer el desarrollo de tratamientos accesibles a través de la alimentación

Cómo es el nuevo atlas digital interactivo que muestra los órganos humanos con ultra precisión
Es una plataforma científica pionera que permite explorar en 3D de la estructura global hasta las células individuales. Promete transformar la investigación médica y el estudio de enfermedades complejas

Cómo es el hongo que se transmite de gatos a humanos y llegó a Sudamérica
Los casos confirmados en Uruguay de esta infección cutánea de origen brasileño motivaron la implementación de medidas para contener su propagación

Qué hacer cuando se tapan los oídos por resfríos, alergias o cambios de presión, según expertos
Desde infecciones hasta alteraciones anatómicas pueden desencadenar molestias auditivas inesperadas. Especialistas en otorrinolaringología explicaron las estrategias aprobadas para aliviar el malestar auditivo



