
Adobe avanza en la integración de inteligencia artificial en sus plataformas de creación y recientemente dio a conocer una herramienta de corrección que permitirá cambiar las emociones de voces grabadas.
El funcionamiento de esta opción, llamada Corrective AI, se basa en la edición de texto y la personalización de entonaciones para agregar ese contenido en otros formatos. Todo en un proceso automático y con una amplia variedad de emociones a elegir.
Qué es Corrective AI, la herramienta de edición de voz de Adobe
Corrective AI se distingue por ofrecer un amplio nivel de manipulación a grabaciones preexistentes, en vez de limitarse a voces enteramente generadas por IA.
De este modo, se habilitan correcciones rápidas para presentaciones en video, películas o piezas comerciales, con una eficiencia que ahorra tiempo y evita la necesidad de repetir grabaciones por cuestiones de interpretación. El objetivo de Adobe consiste en acercar la flexibilidad de la IA a la fase de post-producción, allí donde los cambios suelen resultar más costosos.
El resultado es instantáneo, con variaciones que pueden ir de un tono monótono a uno confiado, e incluso a un susurro, todo a través del procesamiento automático del audio.
La plataforma Firefly de Adobe, lanzada recientemente, ya había incorporado sistemas generativos para modificar voces y añadir etiquetas de emociones. Corrective AI traslada estas capacidades a un entorno más práctico, ampliando el rango de aplicaciones para cualquier creador que dependa del audio narrativo en sus proyectos.
Más herramientas de edición de voz de Adobe
Otra tecnología emergente destacada por Adobe es Project Clean Take, una función experimental que, usando IA, es capaz de separar hasta cinco pistas distintas a partir de un solo archivo de audio. El sistema identifica voces, ruidos ambientales, efectos sonoros y otros elementos, permitiendo manipular individualmente el volumen y la presencia de cada uno.
En una demostración, Project Clean Take logró eliminar el estruendo de una campana que opacaba la voz de un presentador, restaurando así la claridad de la grabación. Al mismo tiempo, devolvió la posibilidad de reincorporar dicha campana simplemente ajustando los niveles de la pista correspondiente, un control que hasta ahora requería herramientas especializadas y procesos laboriosos.

Esta técnica también representa una respuesta eficaz a los desafíos de derechos de autor que plantea la música incidental en videos grabados en espacios públicos.
Adobe mostró cómo la IA separó la música de fondo y la reemplazó automáticamente por una pista similar, libre de restricciones comerciales, extraída de su catálogo Adobe Stock.
Además, el modelo aplicó efectos de reverberación y ambiente para conservar la sensación de la toma original, todo mediante una interacción mínima por parte del usuario.
La compañía también presentó un modelo capaz de analizar videos, identificar escenas y generar automáticamente efectos sonoros contextualizados.
Al cargar un video, el sistema detectó un despertador en una de las secuencias y añadió un efecto de alarma. En una escena de conducción protagonizada por un personaje animado, la IA agregó el sonido de una puerta al cerrarse, interpretando correctamente el contexto visual.

Si bien estos efectos automáticos no siempre alcanzan el nivel de realismo deseado—como en el caso de un efecto de roce de ropa mal ajustado—, el sistema compensa con su interfaz conversacional.
Los usuarios pueden solicitar ajustes precisos mediante comandos escritos, sin tener que navegar manualmente por la línea de tiempo para encontrar la escena adecuada. Así se logró, por ejemplo, insertar un nuevo efecto de automóvil, que la IA ubicó y sincronizó con precisión en el lugar correcto del video.
Nueva plataforma de edición de video con IA
Adobe también presentó Firefly Video Editor, un proyecto en desarrollo que apunta a cambiar la edición de video bajo un enfoque multicanal. La empresa describe la herramienta como un “editor de línea de tiempo multitrack para generar, organizar, recortar y secuenciar clips”.
El editor unifica en una aplicación web las funciones de generación de voz en off, creación de bandas sonoras, títulos y edición cuadro a cuadro, todo con el soporte de IA generativa.
A ello se suman una serie de estilos predefinidos para optimizar el flujo creativo en producciones audiovisuales. La llegada de la versión beta privada está prevista para el próximo mes, con un sistema de lista de espera para los primeros usuarios interesados.
Últimas Noticias
Empresa de Jeff Bezos y la NASA unen fuerzas para detectar y desviar asteroides peligrosos
Blue Ring ha sido diseñado para otros usos, como órbitas de telecomunicaciones en Marte o el transporte de sensores avanzados

Sigue estos pasos para encontrar los correos archivados de Gmail
Archivar correos en Gmail ayuda a mantener la bandeja de entrada ordenada sin perder mensajes importantes

Qué es lo que ocupa más espacio en WhatsApp y cómo ahorrar almacenamiento
Aunque el espacio ocupado depende del uso individual, en la mayoría de los casos los videos son los que más almacenamiento consumen
La IA no sabe hacer tu trabajo y los que la construyen recién lo están descubriendo
Un estudio de Carnegie Mellon y Stanford analizó 43 benchmarks y más de 72.000 tareas de agentes de inteligencia artificial y encontró que el 84% está enfocado en programación. La clave: eso representa apenas el 7,6% del mercado laboral real

Samsung podría enfrentar huelga de trabajadores y la producción de chips de IA estaría en riesgo
El eje del conflicto radica en la marcada diferencia salarial con SK Hynix, el principal competidor de la compañía surcoreana




