Escuchar parece una acción automática hasta que el entorno se llena de voces, música, platos, motores y conversaciones cruzadas. En un restaurante concurrido, una reunión familiar o una oficina ruidosa, millones de personas con problemas auditivos enfrentan una dificultad cotidiana: entender qué dice alguien sin que todos los sonidos alrededor se mezclen en una especie de murmullo imposible de separar.
Ahora, un grupo de investigadores de Columbia University logró demostrar por primera vez en humanos una tecnología capaz de hacer algo que hasta hace poco parecía propio de la ciencia ficción: identificar, a partir de la actividad cerebral, qué voz intenta seguir una persona en medio de múltiples conversaciones y amplificar únicamente esa señal.
El avance, publicado en la revista Nature Neuroscience, fue desarrollado por científicos del Zuckerman Institute y representa un paso importante hacia una nueva generación de dispositivos auditivos inspirados directamente en el funcionamiento natural del cerebro.
PUBLICIDAD
A diferencia de los audífonos tradicionales, que aumentan el volumen de todo lo que captan sus micrófonos, este sistema intenta reproducir una habilidad extraordinaria del sistema nervioso humano: la capacidad de enfocarse en una sola conversación mientras el resto del entorno queda en segundo plano.
La limitación central de los audífonos convencionales
Muchas personas con pérdida auditiva pueden escuchar sonidos, pero no necesariamente comprender palabras cuando hay ruido alrededor.
Ese fenómeno es conocido en neurociencia como “efecto cóctel”. El nombre proviene de una situación muy común, estar en una fiesta o reunión donde varias personas hablan al mismo tiempo y aun así poder concentrarse en una sola voz.
PUBLICIDAD
Para el cerebro humano sano, este filtrado ocurre de manera relativamente automática. El sistema auditivo selecciona qué sonidos priorizar y cuáles ignorar. Pero esa capacidad suele deteriorarse con la pérdida auditiva y también con el envejecimiento.
Ahí aparece una de las principales limitaciones de los dispositivos actuales. Los audífonos convencionales amplifican indiscriminadamente el sonido ambiente. En la práctica, eso significa que la voz que la persona intenta escuchar compite con todas las demás: conversaciones cercanas, cubiertos, televisores, tráfico o música de fondo.
El resultado puede ser agotador. Muchas personas describen una fatiga mental intensa después de intentar seguir conversaciones en ambientes concurridos.
PUBLICIDAD
Cómo funciona el “audífono cerebral”
La nueva tecnología desarrollada en Columbia utiliza inteligencia artificial y señales neuronales para resolver justamente ese problema.
El sistema analiza la actividad cerebral en tiempo real para detectar a qué conversación está prestando atención el usuario. Una vez identificada esa voz, la amplifica digitalmente mientras atenúa las demás. En lugar de decidir por sí mismo qué sonido aumentar, el dispositivo “lee” la intención auditiva del cerebro.
Para probarlo, los investigadores trabajaron con pacientes con epilepsia que ya tenían electrodos implantados —pequeños sensores capaces de registrar la actividad eléctrica de las neuronas— como parte de tratamientos médicos previos. Los participantes colaboraron voluntariamente en experimentos realizados en hospitales de Nueva York y California.
PUBLICIDAD
Durante las pruebas, escuchaban dos conversaciones superpuestas mientras el sistema monitorizaba la actividad neuronal asociada a la atención. Los resultados mostraron que el dispositivo podía reconocer correctamente cuál de las voces intentaba seguir cada participante y potenciar solo esa conversación.
“Desarrollamos un sistema que actúa como una extensión neural del usuario”, explicó Nima Mesgarani, investigador principal del proyecto. Según detalló, la tecnología aprovecha la capacidad natural del cerebro para filtrar sonidos complejos y aislar dinámicamente la conversación deseada.
La respuesta de los pacientes durante las pruebas
Una paciente llegó a pensar que los investigadores manipulaban manualmente el volumen desde otra habitación porque el cambio entre voces resultaba demasiado exacto para ser automático. Otra describió la experiencia como algo “parecido a la ciencia ficción”.
PUBLICIDAD
Detrás de esa reacción hay una razón importante: el sistema responde prácticamente en tiempo real. Esa velocidad es clave para que la experiencia resulte natural y no genere retrasos incómodos durante una conversación.
El investigador explicó que el sistema funciona tanto cuando el usuario recibe una indicación específica sobre qué conversación seguir como cuando cambia espontáneamente el foco de atención, algo mucho más parecido a la vida cotidiana.
Qué ocurre en el cerebro cuando intentamos escuchar una sola voz
Aunque muchas veces pasa desapercibido, escuchar es una tarea cerebral extremadamente compleja. Cuando varias personas hablan al mismo tiempo, el oído capta todas las ondas sonoras mezcladas. La separación real ocurre después, dentro del cerebro.
PUBLICIDAD
Regiones especializadas del sistema auditivo analizan patrones diminutos de frecuencia, ritmo y entonación para reconstruir cada voz por separado. Luego, áreas vinculadas con la atención determinan cuál conversación debe priorizarse.
Es un proceso tan rápido que normalmente sucede sin esfuerzo consciente. El nuevo dispositivo intenta aprovechar justamente esas señales cerebrales asociadas a la atención selectiva. En otras palabras, no “adivina” qué voz quiere escuchar el usuario: detecta cómo responde el cerebro cuando intenta concentrarse en alguien específico.
La Organización Mundial de la Salud (OMS) estima que más de 430 millones de personas viven con pérdida auditiva discapacitante en el mundo. Para muchas de ellas, el mayor problema no es el silencio absoluto, sino la dificultad para comunicarse en lugares con ruido.
PUBLICIDAD
Ese desafío puede generar aislamiento social, frustración e incluso agotamiento emocional. Algunas personas evitan reuniones, restaurantes o encuentros familiares porque seguir conversaciones se vuelve demasiado demandante.
Los investigadores creen que este tipo de tecnología podría cambiar radicalmente esa experiencia. Incluso podría beneficiar a personas sin pérdida auditiva, ayudándolas a reducir el esfuerzo mental en ambientes especialmente ruidosos, como oficinas abiertas, aeropuertos o eventos masivos.
El desafío ahora es volver la tecnología portátil
Aunque los resultados son prometedores, el sistema todavía está lejos de convertirse en un producto comercial. Actualmente depende de electrodos implantados directamente en el cerebro, algo que solo fue posible porque los pacientes ya los utilizaban por motivos médicos.
PUBLICIDAD
El próximo objetivo será desarrollar sensores mucho menos invasivos y miniaturizar toda la tecnología para adaptarla a dispositivos utilizables en la vida diaria. Los investigadores también deberán comprobar que el sistema funciona en escenarios reales mucho más complejos, con movimientos, cambios constantes de interlocutores y distintos niveles de ruido.
Aun así, el avance representa una demostración inédita de que la actividad cerebral puede utilizarse para mejorar la escucha selectiva humana en tiempo real.