Clonación de voces: apps que imitan los patrones de voz plantean nuevos riesgos a la seguridad

Gracias a nuevos desarrollos tecnológicos hoy es posible imitar de manera precisa la voz humana mediante el simple intercambio de palabras con una app. Expertos plantean la posibilidad de que los patrones clonados sean utilizados con fines maliciosos

El desarrollo de nuevos y sofisticados algoritmos permitirán en un futuro cercano "clonar" con precisión la infinidad de voces humanas que identifican a cada uno de los millones de seres humanos que habitan el planeta. Uno de los ejemplos más exitosos de la nueva tecnología ha sido desarrollado por el gigante chino Baidu, quien asegura que con solo enunciar cincuenta oraciones su sistema es capaz de crear una copia sintética de la voz humana.

Hasta no hace mucho la industria de la clonación de voces se concentraba en un nicho de mercado muy reducido que buscaba atender las necesidades de aquellos que por motivos médicos perdían la capacidad de hablar debido a una cirugía o por enfermedades como el cáncer.

Se le requería a los interesados en crear copias virtuales de sus voces que se sometieran a grabaciones que obligaban a repetir incontables veces una variedad de frases, con distintos tonos emocionales como interrogativos o exclamatorios con el objetivo de poder cubrir la mayor cantidad de pronunciaciones posibles.

Lo que hasta solo unos años significaba un proceso engorroso y sobre todo muy costoso – con precios promedio en torno a los 3.000 dólares -hoy día ha sido simplificado mediante las omnipresentes aplicaciones, apalancadas en los populares teléfonos inteligentes que corren en su mayoría bajo sistemas operativos Android y iOS.

Los nuevos software permiten aprovechar inclusive archivos de audio de corta duración para luego ser mezclados y de esta manera crear nuevas palabras, que son ajustadas de manera independiente para que puedan sonar armoniosas al ser emitidas desde un smartphone.

Las aplicaciones prácticas de dicho desarrollo a futuro son incontables, y permitirán que usuarios de Facebook puedan escuchar artículos periodísticos relatados por sus propios autores, mientras que una mujer puede ceder su voz al software de lectura de su esposo no vidente, todo con la finalidad de humanizar lo más posible a las frías voces sintéticas.

VivoText, otro referente de la industria de clonación de voces basado en Tel Aviv, planea lanzar una app en el corto plazo que permitirá a los usuarios modificar el énfasis, velocidad y estado emocional de las palabras y frases emitidas de manera artificial.

Los detractores de la nueva tendencia de clonación de voces cuestionan los posibles usos malintencionados de las copias digitales de los patrones de voz, las cuales podrían burlar los complejos sistemas de seguridad utilizados hoy día por bancos para comprobar la identidad de sus clientes, de la misma manera que en la actualidad muchos sistemas de desbloqueo de dispositivos mediante reconocimiento facial pueden ser burlados por fotografías de sus propietarios.

Distintas medidas están siendo tomadas para combatir los intentos de aquellos que quieran usar de forma maliciosa las grabaciones. Reconocido por su software Photoshop, Adobe desarrolló marcas de agua digitales para poder autentificar la procedencia de las grabaciones de voz, lo que haría que computadoras – mediante inteligencia artificial – puedan alertar sobre situaciones sospechosas y de esta manera limitar las posibilidades de que los nuevos clones de voz sean usados de manera malintencionada.

LEA MÁS:

TE PUEDE INTERESAR