Qué es y cómo funciona el sistema auditivo cerebral que puede distinguir voces en ambientes ruidosos

Investigadores de Columbia University probaron por primera vez en humanos una tecnología capaz de detectar, a partir de la actividad cerebral, qué conversación intenta seguir una persona y amplificar la señal correspondiente. Las claves de un avance que podría cambiar el futuro de los audífonos tradicionales

Guardar
Google icon
Primer plano de una mujer con un sistema auditivo, gráficos de actividad neuronal cerebral y ondas de sonido visualizadas alrededor de su cabeza.
Investigadores de Columbia University desarrollan un audífono cerebral que distingue voces en ambientes ruidosos gracias a inteligencia artificial (Imagen Ilustrativa Infobae)

Escuchar parece una acción automática hasta que el entorno se llena de voces, música, platos, motores y conversaciones cruzadas. En un restaurante concurrido, una reunión familiar o una oficina ruidosa, millones de personas con problemas auditivos enfrentan una dificultad cotidiana: entender qué dice alguien sin que todos los sonidos alrededor se mezclen en una especie de murmullo imposible de separar.

Ahora, un grupo de investigadores de Columbia University logró demostrar por primera vez en humanos una tecnología capaz de hacer algo que hasta hace poco parecía propio de la ciencia ficción: identificar, a partir de la actividad cerebral, qué voz intenta seguir una persona en medio de múltiples conversaciones y amplificar únicamente esa señal.

PUBLICIDAD

El avance, publicado en la revista Nature Neuroscience, fue desarrollado por científicos del Zuckerman Institute y representa un paso importante hacia una nueva generación de dispositivos auditivos inspirados directamente en el funcionamiento natural del cerebro.

Infografía sobre el 'audífono cerebral' que detecta y amplifica la voz deseada, mostrando un cerebro, un oído y diagramas de su funcionamiento.
La nueva tecnología identifica, mediante actividad cerebral, la conversación que sigue una persona y amplifica solo esa señal específica (Imagen Ilustrativa Infobae)

A diferencia de los audífonos tradicionales, que aumentan el volumen de todo lo que captan sus micrófonos, este sistema intenta reproducir una habilidad extraordinaria del sistema nervioso humano: la capacidad de enfocarse en una sola conversación mientras el resto del entorno queda en segundo plano.

PUBLICIDAD

La limitación central de los audífonos convencionales

Muchas personas con pérdida auditiva pueden escuchar sonidos, pero no necesariamente comprender palabras cuando hay ruido alrededor.

Ese fenómeno es conocido en neurociencia como “efecto cóctel”. El nombre proviene de una situación muy común, estar en una fiesta o reunión donde varias personas hablan al mismo tiempo y aun así poder concentrarse en una sola voz.

Para el cerebro humano sano, este filtrado ocurre de manera relativamente automática. El sistema auditivo selecciona qué sonidos priorizar y cuáles ignorar. Pero esa capacidad suele deteriorarse con la pérdida auditiva y también con el envejecimiento.

Audífono
El sistema auditivo cerebral supera la principal limitación de los audífonos tradicionales, que amplifican todos los sonidos sin discriminar (Crédito: Freepik)

Ahí aparece una de las principales limitaciones de los dispositivos actuales. Los audífonos convencionales amplifican indiscriminadamente el sonido ambiente. En la práctica, eso significa que la voz que la persona intenta escuchar compite con todas las demás: conversaciones cercanas, cubiertos, televisores, tráfico o música de fondo.

El resultado puede ser agotador. Muchas personas describen una fatiga mental intensa después de intentar seguir conversaciones en ambientes concurridos.

Cómo funciona el “audífono cerebral”

La nueva tecnología desarrollada en Columbia utiliza inteligencia artificial y señales neuronales para resolver justamente ese problema.

El sistema analiza la actividad cerebral en tiempo real para detectar a qué conversación está prestando atención el usuario. Una vez identificada esa voz, la amplifica digitalmente mientras atenúa las demás. En lugar de decidir por sí mismo qué sonido aumentar, el dispositivo “lee” la intención auditiva del cerebro.

Para probarlo, los investigadores trabajaron con pacientes con epilepsia que ya tenían electrodos implantados —pequeños sensores capaces de registrar la actividad eléctrica de las neuronas— como parte de tratamientos médicos previos. Los participantes colaboraron voluntariamente en experimentos realizados en hospitales de Nueva York y California.

El sistema auditivo cerebral que distingue voces en ambientes ruidosos
Un sistema auditivo experimental monitorea la actividad cerebral de un participante para identificar a qué conversación presta atención y amplificar únicamente esa voz mientras atenúa los sonidos del entorno (Créditos: Vishal Choudhari / Mesgarani lab / Columbia's Zuckerman Institute)

Durante las pruebas, escuchaban dos conversaciones superpuestas mientras el sistema monitorizaba la actividad neuronal asociada a la atención. Los resultados mostraron que el dispositivo podía reconocer correctamente cuál de las voces intentaba seguir cada participante y potenciar solo esa conversación.

“Desarrollamos un sistema que actúa como una extensión neural del usuario”, explicó Nima Mesgarani, investigador principal del proyecto. Según detalló, la tecnología aprovecha la capacidad natural del cerebro para filtrar sonidos complejos y aislar dinámicamente la conversación deseada.

La respuesta de los pacientes durante las pruebas

Una paciente llegó a pensar que los investigadores manipulaban manualmente el volumen desde otra habitación porque el cambio entre voces resultaba demasiado exacto para ser automático. Otra describió la experiencia como algo “parecido a la ciencia ficción”.

Ilustración de un cerebro humano de perfil, con ondas acústicas entrando y una vía neuronal iluminada que lleva a la amígdala brillante en el centro, sobre un fondo oscuro.
Los ensayos clínicos se realizaron con pacientes de epilepsia que ya tenían electrodos implantados, lo que permitió registrar señales neuronales precisas (Imagen Ilustrativa Infobae)

Detrás de esa reacción hay una razón importante: el sistema responde prácticamente en tiempo real. Esa velocidad es clave para que la experiencia resulte natural y no genere retrasos incómodos durante una conversación.

El investigador explicó que el sistema funciona tanto cuando el usuario recibe una indicación específica sobre qué conversación seguir como cuando cambia espontáneamente el foco de atención, algo mucho más parecido a la vida cotidiana.

Qué ocurre en el cerebro cuando intentamos escuchar una sola voz

Aunque muchas veces pasa desapercibido, escuchar es una tarea cerebral extremadamente compleja. Cuando varias personas hablan al mismo tiempo, el oído capta todas las ondas sonoras mezcladas. La separación real ocurre después, dentro del cerebro.

Regiones especializadas del sistema auditivo analizan patrones diminutos de frecuencia, ritmo y entonación para reconstruir cada voz por separado. Luego, áreas vinculadas con la atención determinan cuál conversación debe priorizarse.

Primer plano de una oreja con una onda sonora estilizada en blanco, y el fondo desenfocado de un restaurante lleno de mesas y siluetas de personas.
El sistema responde en tiempo real a los cambios de atención del usuario, brindando una experiencia más natural y eficiente para seguir conversaciones (Imagen Ilustrativa Infobae)

Es un proceso tan rápido que normalmente sucede sin esfuerzo consciente. El nuevo dispositivo intenta aprovechar justamente esas señales cerebrales asociadas a la atención selectiva. En otras palabras, no “adivina” qué voz quiere escuchar el usuario: detecta cómo responde el cerebro cuando intenta concentrarse en alguien específico.

La Organización Mundial de la Salud (OMS) estima que más de 430 millones de personas viven con pérdida auditiva discapacitante en el mundo. Para muchas de ellas, el mayor problema no es el silencio absoluto, sino la dificultad para comunicarse en lugares con ruido.

Ese desafío puede generar aislamiento social, frustración e incluso agotamiento emocional. Algunas personas evitan reuniones, restaurantes o encuentros familiares porque seguir conversaciones se vuelve demasiado demandante.

Los investigadores creen que este tipo de tecnología podría cambiar radicalmente esa experiencia. Incluso podría beneficiar a personas sin pérdida auditiva, ayudándolas a reducir el esfuerzo mental en ambientes especialmente ruidosos, como oficinas abiertas, aeropuertos o eventos masivos.

El desafío ahora es volver la tecnología portátil

Aunque los resultados son prometedores, el sistema todavía está lejos de convertirse en un producto comercial. Actualmente depende de electrodos implantados directamente en el cerebro, algo que solo fue posible porque los pacientes ya los utilizaban por motivos médicos.

Silueta de cabeza humana en perfil con cerebro iluminado por una red neuronal azul y violeta. Ondas sonoras blancas y cian salen del oído, una dorada y prominente.
Una silueta de cabeza humana muestra una red neuronal interna iluminada en azul y violeta, mientras ondas sonoras concéntricas emanan del oído, con una destacada en dorado representando la selección auditiva. (Imagen Ilustrativa Infobae)

El próximo objetivo será desarrollar sensores mucho menos invasivos y miniaturizar toda la tecnología para adaptarla a dispositivos utilizables en la vida diaria. Los investigadores también deberán comprobar que el sistema funciona en escenarios reales mucho más complejos, con movimientos, cambios constantes de interlocutores y distintos niveles de ruido.

Aun así, el avance representa una demostración inédita de que la actividad cerebral puede utilizarse para mejorar la escucha selectiva humana en tiempo real.

PUBLICIDAD

PUBLICIDAD

Últimas Noticias

Un estudio de Mayo Clinic sobre la resistencia al tratamiento del cáncer de mama ofrece nueva esperanza a las pacientes

Científicos detectaron una variante proteica que dificulta la eficacia de terapias dirigidas y anticipan alternativas combinadas para mejorar los resultados en quienes no responden a los abordajes convencionales

Un estudio de Mayo Clinic sobre la resistencia al tratamiento del cáncer de mama ofrece nueva esperanza a las pacientes

El CONICET desarrolla el primer filtro doméstico nacional para eliminar microplásticos del agua

El grupo de investigación trabaja en un prototipo apoyado por fondos privados, con el objetivo de mejorar la calidad del agua en los hogares, según explicó Carla Di Luca en Infobae al Mediodía

El CONICET desarrolla el primer filtro doméstico nacional para eliminar microplásticos del agua

Cuánta agua deberían tomar los mayores de 60 años para cuidar la salud cerebral y física, según expertos

Una hidratación insuficiente puede afectar la memoria, el estado de ánimo y aumentar el riesgo de enfermedades. El médico gerontólogo, José Ricardo Jáuregui, habló con Infobae sobre las claves de la ingesta

Cuánta agua deberían tomar los mayores de 60 años para cuidar la salud cerebral y física, según expertos

Expertos de Harvard crean un método para identificar mutaciones genéticas que causan cáncer

Un equipo científico liderado en Estados Unidos presentó una nueva herramienta estadística capaz de distinguir, entre innumerables alteraciones en el ADN humano, aquellas que desempeñan un papel directo en el inicio y progresión de tumores

Expertos de Harvard crean un método para identificar mutaciones genéticas que causan cáncer

Cuál es el factor inesperado que reduce la fuerza muscular y afecta el rendimiento físico

Un reciente estudio demostró que disminuye la capacidad de los músculos para mantener la fuerza y la estabilidad, incluso en actividades físicas de baja intensidad

Cuál es el factor inesperado que reduce la fuerza muscular y afecta el rendimiento físico