
El cerebro humano es mucho más versátil de lo que se creía cuando se trata de hablar y escuchar. Una investigación de la Radboud University reveló que, durante una conversación, la mente ajusta en tiempo real la forma de comprender y producir el habla, moldeando la voz y la entonación según la persona con la que interactuamos.
El estudio, presentado en el Donders Institute de los Países Bajos, demuestra que la comunicación interpersonal descansa en una sorprendente flexibilidad cerebral. Este hallazgo no solo abre nuevas perspectivas para la neurociencia, sino que también impulsa el desarrollo de tecnologías de reconocimiento de voz capaces de imitar mejor la adaptación natural del ser humano.
El estudio, liderado por Orhun Uluşahin, profundiza en los mecanismos que el cerebro emplea para ajustarse a las diferencias individuales en la manera de hablar de cada persona. “Lo que sabes sobre la forma en que alguien habla influye en cómo hablas tú mismo”, afirmó.
Esta adaptación no se limita a cómo escuchamos, sino que abarca la producción del habla. Durante una conversación, las personas modifican sutilmente su voz, igualando tono y ritmo al de su interlocutor, lo que genera similitud acústica entre ambos.

Para analizar este fenómeno, el equipo de Radboud University diseñó experimentos en los que los participantes escuchaban voces grabadas y repetían lo que oían. En una de las pruebas, los sujetos debían igualar el ritmo de la frase original. Los investigadores evaluaron la sincronización y el tono empleado, y los resultados evidenciaron que quienes escuchaban frases en tono agudo respondían con voces más altas, mientras que aquellos expuestos a tonos graves utilizaban voces más bajas.
La investigación identificó que este efecto de ajuste disminuye cuando los participantes estuvieron expuestos durante un tiempo prolongado a una voz específica. Por ejemplo, después de escuchar durante veinte minutos una voz femenina de tono alto, los sujetos repetían una frase de la misma voz, pero en un tono bajo. En estos casos, la tendencia a adaptar la voz al nuevo tono era menor. El cerebro utiliza la información almacenada sobre el hablante para mantener una referencia estable.
Estos resultados reflejan que los sistemas de escucha y habla emplean recursos comunes y que la experiencia previa con una voz concreta limita la capacidad de adaptación.

En otro experimento, los investigadores pidieron a los participantes que repitieran palabras modificadas acústicamente de forma sutil. Por ejemplo, la palabra neerlandesa “beterschap” (“que te mejores”) se alteró para sonar como “beuhterschap”. Los sujetos no cambiaron su pronunciación y continuaron diciendo la palabra de forma habitual.
“Simplemente oyes ‘beterschap’, aunque en realidad suene ligeramente diferente. Tu cerebro elige la opción más probable, la que ya conoce. Por eso pronuncias la palabra igual que siempre”, explicó Uluşahin. Este resultado muestra que existen límites claros: cuando el cerebro tiene una referencia consolidada sobre el sonido de una palabra, la capacidad de ajuste se reduce.
La investigación de Radboud University ofrece nuevas perspectivas para la neurociencia y el desarrollo de sistemas de reconocimiento de voz. Uluşahin, actualmente investigador posdoctoral en el Donders Institute, trabaja en un modelo informático que imite el reconocimiento humano de palabras, capaz de identificar términos en una frase y adaptarse a distintos hablantes.
“Para una voz, el modelo debe interpretar un sonido como una ‘b’, mientras que para otra puede interpretarlo como una ‘p’, porque ambos pronuncian diferente”, detalló. El objetivo consiste en que el modelo cometa errores similares a los humanos, lo que permitirá profundizar en la comprensión del funcionamiento cerebral.

La amplitud y dinamismo de la red lingüística cerebral superan lo estimado hasta ahora. Casi todo el hemisferio izquierdo participa en el procesamiento del lenguaje, aunque todavía no se identificaron con exactitud las zonas responsables de la formación de palabras o la planificación de los movimientos de los labios. Los resultados de Radboud University subrayan que escuchar y hablar están íntimamente conectados a nivel cerebral, y que la adaptación al interlocutor es clave en la comunicación humana.
El reto científico, según concluye el equipo de Radboud University, consiste en crear modelos que reproduzcan los mismos errores y aciertos que las personas, en vez de perseguir una perfección artificial. Este enfoque podría abrir nuevas vías para entender en profundidad los mecanismos cerebrales que hacen posible la comunicación.
Últimas Noticias
Anne Hathaway apuesta por el azul petróleo para su estilismo en Naciones Unidas
La actriz eligió un sofisticado conjunto de Giorgio Armani, inspirado en su personaje de “El diablo viste de Prada”, y sorprendió al rendir homenaje a la moda durante un evento de ONU Mujeres en Nueva York

Receta de postre chaja, rápida y fácil
Perfecto para quienes quieren lucirse con una combinación de crema, merengue y frutas, listo en minutos y sin necesidad de horno

Cómo es el “pez guitarra” que científicos, pescadores y comunidades costeras buscan salvar
Esta especie marina enfrenta una disminución preocupante en su población. Referentes de la investigación trabajan juntos para frenar su desaparición y preservar el equilibrio ecológico

De las clases particulares al fenómeno digital: el influencer de matemática que enseña sin fórmulas imposibles
Con millones de seguidores en TikTok e Instagram, Fede Shortrede revolucionó la forma de aprender matemática sumando humor y creatividad a los conceptos más temidos. En su paso por Infobae a la Tarde, mostró cómo el método digital puede acercar la materia a todos

Por qué el reloj analógico podría desaparecer de las aulas y qué advierten los expertos sobre sus consecuencias
Las dificultades de los estudiantes para interpretar dispositivos tradicionales generan preocupación entre docentes y científicos, mientras el avance de la tecnología redefine las competencias básicas y plantea nuevos desafíos en la formación escolar


