Así suena la primera canción estilo Beatles creada por robots

El tema se llama Daddy´s car y fue desarrollado por una herramienta de inteligencia artificial de Sony. La discográfica planea sacar, el año próximo, un álbum exclusivamente con este tipo de producciones

Compartir
Compartir articulo

Hace unos meses muchos se sorprendían cuando Google daba a conocer la primera obra de arte de Magenta creada por la plataforma de inteligencia artificial TensorFlow.

Ahora, no sólo sabemos que los robots pueden aprender a hacer arte, sino que los resultados son sorprendentes. El laboratorio de investigación Sony CSL desarrolló un programa de inteligencia artificial que dio a luz un tema con el estilo de los Beatles. Se llama Daddy´s Car, el compositor francés Benoît Carré se encargó de añadirle la letra y suena así:

Este desarrollo fue posible gracias a Flow Machines, una herramienta que elaboró el sello discográfico y que puede crear canciones de cualquier estilo. Para lograr esto, combina diferentes técnicas que incorpora tras estar expuesto a una gran base de datos de partituras musicales.

LEA MÁS: Las novedades más destacadas de la feria de tecnología IFA 2016

¿Convivirán robots con artistas? Por ahora se ve que es posible que las máquinas produzcan nuevas obras musicales. Resta saber si también podrán ponerles textos creativos a esas canciones.

Cuesta imaginar que un robot pueda transmitir la nostalgia, la esperanza, el amor y el desamor que abundan en las letras de las canciones. Pero tal vez la inteligencia artificial también aprenda a emular estas sensaciones. Solo el tiempo lo dirá.

Voces robóticas que suenan muy humanas

Pero la inteligencia artificial sigue avanzando a pasos agigantado también en otos aspectos. Ahora, en el marco de un proyecto llamado WaveNet, se logró crear voces robóticas que, en realidad suenan humanas. Muy humanas.

LEA MÁS: E3 2016, todas las novedades para PlayStation

En el video se reproducen dos muestras de voces creadas por WaveNet: la primera en inglés y la segunda, en chino mandarín:

Se trata de un programa desarrollado en el marco de Google Deep Mind, que se basa en redes neuronales para producir voces, donde se perciben pausas, temblores, entonaciones y hasta diferentes modulaciones. Todo con el fin de que parezcan provenir de seres humanos.

Para llegar a esto, el sistema es nutrido con varias horas de audios que le permiten aprender la forma en que las personas hablan. Con esa información, WaveNet es capaz de construir una voz tan real que casi parece que uno está interactuando con un ser humano.

La idea es que estas voces puedan integrarse a los asistentes virtuales como Google Now y, eventualmente, Google Home, el dispositivo que lanzará el gigante informático para competir con Amazon Echo.

LEA MÁS:

Los robots de Google podrían cambiar la forma de componer música

Tutorial: cómo funciona el asistente virtual Amazon Echo