
¿Cómo sonará la alegría? ¿Y la tristeza? Se supone que la algarabía no tiene el mismo grado sonoro que la pena más profunda, aunque no existía certeza alguna. Pero ahora las emociones y los sentimientos que generan los seres humanos ya se pueden traducir en un sonido audible. Esto es posible, ya que científicos españoles crearon un casco que funciona como una interfaz para conectar el cerebro con un software que traduce las ondas cerebrales en sonidos. Dos personas con parálisis cerebral ya probaron el novedoso dispositivo y dieron un concierto en Barcelona acompañados por la Orquesta de San Cugat.
Especialistas del Centro de Regulación Genómica de Barcelona, en colaboración con la Universidad de Barcelona, desarrollaron el Brain Polyphony, un sistema para la sonificación de la actividad neuroeléctrica del cerebro en tiempo real, que responde de acuerdo al tipo de emoción y la reacción que provoca en el cuerpo un determinado sentimiento.
La herramienta se desarrolló en principio como un sistema de comunicación alternativo, basado en la lectura de ondas cerebrales, para facilitar el cuidado de personas con parálisis cerebral. Sin embargo, también puede utilizarse como un instrumento sonoro y creativo. El dispositivo está pensado para "dar voz" a las personas con algún tipo de discapacidad motora que les impide comunicarse con facilidad con su entorno.
"Este sistema explora la posibilidad de crear un sistema de comunicación alternativa entre pacientes con parálisis cerebral. Así, sonificamos ondas cerebrales para proveer de un medio de comunicación a las personas que no pueden comunicarse", explicó Mar Dierssen, la neurocientífica que lideró el proyecto.

El Brain Polyphony consiste en un casco y un software. El casco, denominado Enobio, se conecta con el organismo mediante electrodos para que los científicos puedan medir la actividad cerebral y cardíaca del paciente. Los sensores calculan las emociones a partir de los patrones cerebrales, cardíacos, musculares y de acelerometría que se generan en el organismo ante un determinado sentimiento.
El dispositivo toma estos datos y mide dos parámetros emocionales: la valencia, que indica si el sentimiento es agradable o no, y la arousal, que marca la intensidad de esa emoción. Toda la información adquirida a través de la interfaz se traslada a un ordenador con un software que traduce, en tiempo real, las emociones recogidas en sonidos.
"Lo que hacemos es crear música con sus emociones. Nos centramos en las emociones porque es lo más útil, no solo para la persona con discapacidad motora, sino también para su familia, porque el enfermo podrá expresar si está triste, alegre o si le duele algo, ya que sus emociones se convierten en sonido", concluyó Dierssen.
LEA MÁS:
Últimas Noticias
Las apps del celular generaron más dinero que los videojuegos móviles en 2025: la IA tiene mucho que ver
Las aplicaciones de IA registraron un aumento de ingresos del 148%, convirtiéndose en una de las categorías más rentables del mercado móvil

Localizan octava fosa clandestina en el ejido Miguel Alemán, Baja California, suman 18 cuerpos encontrados
La Fiscalía de Baja California confirmó que algunos de los cuerpos presentan una data de fallecimiento reciente

Abre 200 vacantes para trabajar en la construcción de la línea 1 del metro de Bogotá: hay puestos para principiantes y con experiencia
La jornada será este jueves en el CDC de Kennedy y busca vincular personal a frentes activos, con perfiles que van desde iniciantes hasta completos experimentados

La Justicia ordena esclarecer la muerte de la teniente Zapata y sus posibles vínculos con la Comunidad del Anillo: se negó la preclusión
El revés para la Fiscalía obliga a revisar irregularidades históricas, evaluar nuevas pruebas forenses y decidir si hubo encubrimiento institucional en la Policía Nacional

Manifestaciones, accidentes y bloqueos en CDMX y Edomex hoy 22 de enero: reducción de carriles por mantenimiento en la autopista Chamapa - Lechería
Mantente informado en tiempo real sobre el acontecer del Valle de México

