
Escuchar música es una de las experiencias más universales; basta una melodía para transportarnos a otro lugar o cambiar nuestro estado de ánimo en cuestión de segundos. Durante siglos, las emociones que nos despierta una banda sonora se han considerado casi un arte exclusivo del ser humano, dotado de sensibilidad y creatividad únicas. ¿Pero qué ocurre cuando un algoritmo asume el rol de compositor y nos invita a sentir con sus creaciones?
Hoy, la inteligencia artificial es capaz de escribir canciones, crear bandas sonoras y acompañar imágenes en pantalla con composiciones inéditas. Lo que antes parecía ciencia ficción se ha convertido en un fenómeno cotidiano en la industria audiovisual y musical. Cada vez más, surgen preguntas sobre cuán auténticas son las respuestas emocionales que provocan estas melodías generadas por máquinas.
PUBLICIDAD
¿Logra la música creada por IA conmovernos de la misma forma que una obra compuesta por una persona? Un reciente estudio llevado a cabo en Barcelona ofrece una nueva perspectiva sobre este debate y desafía la frontera entre la creatividad humana y la potencia de los algoritmos. Los resultados invitan a replantear muchos mitos y a abrir el oído —y la mente— a nuevas posibilidades en el arte del sonido.

IA y emoción: un experimento inédito en Barcelona
La inteligencia artificial está empezando a ocupar un sitio donde, hasta hace poco, solo reinaba la sensibilidad humana: la música capaz de emocionarnos. Un grupo de investigadores en Barcelona ha descubierto que las composiciones creadas por IA logran despertar respuestas emocionales y fisiológicas en los espectadores casi al nivel de la música compuesta por personas.
PUBLICIDAD
Publicado el 25 de junio de 2025 en la revista PLOS One, el estudio llevado adelante por Nikolaj Fišer, Miguel Ángel Martín-Pascual y Celia Andreu-Sánchez, de la Universitat Autònoma de Barcelona, el Instituto de Televisión Pública Española (RTVE) y la University of Ljubljana, aporta datos frescos y sorprendentes sobre un tema que divide a amantes del arte y entusiastas de la tecnología.
Aunque la música escrita por personas sigue pareciéndonos más familiar, la inteligencia artificial muestra una asombrosa habilidad para tocar fibras emocionales en quienes la escuchan.
PUBLICIDAD

Cómo se diseñó el experimento
El experimento, realizado entre marzo y mayo de 2024, reunió a 88 voluntarios en el Neuro-Com Laboratory de la Universitat Autònoma de Barcelona y RTVE. Cada participante vio breves videos, en los que la banda sonora podía ser una pieza escrita por un compositor, o una melodía instrumental generada por IA a partir de descripciones más o menos complejas.
Para cuidar que todo fuera imparcial, se usaron videos de estilos muy distintos tomados de internet y las músicas humanas seleccionadas provenían de bases de datos de películas, según la carga emocional de cada escena. Las piezas de IA, creadas mediante la herramienta Stable Audio, se basaron tanto en descripciones detalladas como en valores emocionales simples.
PUBLICIDAD
¿Qué sintieron los participantes? Medición fisiológica y percepción
Durante la visualización, los investigadores no dejaron pasar un detalle: midieron la dilatación de las pupilas, el ritmo de parpadeo y la respuesta galvánica de la piel para captar cómo reaccionaban los cuerpos ante cada música. Además, tras cada video, los participantes calificaron su experiencia: si les había gustado, cuánto les había estimulado, si sentían que la música encajaba y cuán familiar les resultaba.
Resultados: similitudes, matices y diferencias
¿El resultado? Tanto la IA como los compositores humanos lograron provocar emociones similares en los espectadores, aunque con matices. La IA generó incluso mayor activación fisiológica, y cuando los prompts utilizados para crear la música eran más detallados, la integración entre imagen y sonido fue mejor valorada.
PUBLICIDAD

La música humana, en cambio, fue percibida como notablemente más familiar, lo que sugiere que aún preferimos aquello que conocemos. “La música humana fue percibida como más familiar, lo que podría indicar una preferencia más fuerte por este tipo de música”, señalan los autores.
El estudio concluye que el origen de la música, sea una persona o un algoritmo, no es lo que finalmente determina la emoción provocada en el espectador. La familiaridad sí hace diferencia, por la acumulación de patrones musicales conocidos a lo largo de nuestra vida. Sin embargo, la IA ya es capaz de cumplir el objetivo: emocionar, acompañar imágenes y captar la atención, algo que abre un sinfín de posibilidades para la industria audiovisual.
PUBLICIDAD
Límites, desafíos y futuro del arte sonoro con IA
Los propios investigadores invitan a no perder de vista que queda mucho por explorar. El estudio solo empleó una herramienta de composición por IA –cuando existen otras alternativas– y la muestra fue relativamente pequeña. Además, la forma en que medimos emoción ante la música sigue dependiendo de factores personales, culturales y de contexto. Abrir el juego a músicos profesionales, a otros públicos, o a composiciones originales pensadas solo para estos experimentos, podría aportar respuestas todavía más sorprendentes.
Al final, lo cierto es que el debate sobre la creatividad y el papel de la IA en el arte apenas comienza. Por ahora, los datos ya revelan un escenario apasionante donde humanos y máquinas empiezan a colaborar para expandir los límites de lo que sentimos cada vez que le damos al “play”.
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Esta nueva tecnología procesa 250 kilos de baterías usadas de autos eléctricos por hora para recuperar metales valiosos
El proyecto ReCAM transforma estos residuos en materiales listos para fabricar nuevas celdas

Cómo crear actualizaciones de estado en WhatsApp sin abrir la app
Este ‘atajo’ también permite visualizar estados desde la pantalla principal del celular

Detectan un fallo en sistemas operativos de Linux que otorga permisos de administrador a los atacantes
La vulnerabilidad, denominada CopyFail, afecta al núcleo de todo este ecosistema y facilita la escalada de privilegios

Para qué sirve el primer modelo de IA geoespacial, que ya se encuentra en órbita
Este sistema fue desarrollado por la NASA e IBM y entrenado con datos de los satélites Landsat y Sentinel-2

Cuanto más amable suena tu chatbot, más te miente
Un estudio de Oxford publicado en Nature mide por primera vez el costo de entrenar modelos para ser cálidos: hasta 30 puntos menos de precisión y 40% más de coincidencia con creencias falsas. Cuál es el impacto en las personas más vulnerables


