
La capacidad de la inteligencia artificial para producir pinturas, crear imágenes que representen cualquier objeto o imitar diversos estilos artísticos es sorprendete. Dicho proceso de generación implica el entrenamiento de la IA mediante el uso de obras de arte reales, muchas de las cuales son creadas por artistas sin recibir compensación.
En respuesta a esta situación, los artistas están mostrando resistencia frente a la IA y están a punto de tener acceso a una herramienta para contrarrestarla: Nightshade.
PUBLICIDAD
Qué significa envenenar las obras

Ben Zhao, profesor de la Universidad de Chicago, quien dirigió el equipo que creó Nightshade, le dijo al portal de reseñas del MIT que le objetivo del programa es que “ayude a inclinar el equilibrio de poder de las empresas de inteligencia artificial hacia los artistas” al implementar una función disuasorio contra las faltas a los derechos de autor e intelectuales de los creadores.
El hecho conocido como envenenamiento que realiza Nightshade consiste en agregar cambios invisibles a los píxeles del arte antes de subirlo en línea, de modo que si se incluye en un conjunto de entrenamiento de IA, puede causar que el modelo de lenguaje genere una respuesta incongruente.
PUBLICIDAD
Esto sucede debido a que en el proceso de preparación de datos de los modelos de lenguaje, es posible que se cometan errores en la eliminación de contenido problemático. Si el contenido sesgado no se filtra adecuadamente, la IA podría aprender de esos errores, resultando en un envenenamiento.
Nightshade aprovecha que los modelos de lenguaje están entrenados con grandes cantidades de datos (en este caso, imágenes extraídas de Internet).
PUBLICIDAD
Uso de los artistas

El equipo de Zhao ha desarrollado una herramienta llamada Glaze, que permite a los artistas “enmascarar” su estilo personal para evitar que las empresas de inteligencia artificial lo supriman.
Esta herramienta opera de manera similar a Nightshade, realizando cambios sutiles en los píxeles de las imágenes que son imperceptibles para el ojo humano pero que engañan a los modelos de aprendizaje automático, haciendo que interpreten la imagen de una manera diferente a lo que realmente muestra.
PUBLICIDAD
El equipo tiene planes de incorporar Nightshade en Glaze, brindando a los artistas la opción de utilizar la herramienta de envenenamiento de datos según su preferencia. Además, están trabajando para hacer que Nightshade sea de código abierto, lo que permitirá a otros usuarios experimentar con ella y desarrollar sus propias variantes.
Zhao enfatiza que cuanto más extensa sea la adopción de la herramienta y la creación de versiones personalizadas por parte de la comunidad, más potente se volverá la herramienta en su capacidad para proteger la expresión artística y preservar el estilo personal de los creadores, ayudándolos a evitar la supresión o la manipulación no deseada de sus obras por parte de algoritmos de inteligencia artificial.
PUBLICIDAD

Los artistas que deseen compartir su trabajo en línea sin que las empresas de inteligencia artificial censuren sus imágenes pueden utilizar Glaze para enmascarar sus obras con un estilo artístico diferente al suyo. Además, tienen la opción de emplear Nightshade.
En esencia, estas herramientas permiten a los artistas proteger su expresión artística y mantener su estilo, mientras que al mismo tiempo introducen un elemento de confusión en los datos utilizados por los modelos de inteligencia artificial, evitando que las obras sean suprimidas o malinterpretadas por dichos modelos.
PUBLICIDAD
Ensayos de envenenamiento
Los investigadores llevaron a cabo pruebas de este ataque en los modelos de Stable Diffusion más recientes y en un modelo de inteligencia artificial que construyeron desde cero.
Cuando proporcionaron a Stable Diffusion solamente 50 imágenes de perros que habían sido envenenadas y luego solicitaron que generara imágenes de este mismo animal, los resultados comenzaron a mostrar anomalías notables, como criaturas con varias extremidades y rasgos faciales caricaturescos.
PUBLICIDAD

El ataque de veneno también funciona con imágenes relacionadas tangencialmente. Por ejemplo, si el modelo extrajo una imagen envenenada para el mensaje “arte de fantasía”, los mensajes “dragón” y “un castillo en El Señor de los Anillos” serían manipulados de manera similar para convertirlos en otra cosa.
Zhao admite que existe el riesgo de que las personas abusen de la técnica de envenenamiento de datos para usos maliciosos. Sin embargo, dice que los atacantes necesitarían miles de muestras envenenadas para infligir un daño real a modelos más grandes y potentes, ya que están entrenados con miles de millones de muestras de datos.
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Qué hacer si WhatsApp ocupa mucho espacio: consejos para gestionar y limpiar tu almacenamiento
Descubre cómo eliminar archivos grandes, gestionar chats y mantener copias de seguridad para que la app funcione rápido y sin problemas tanto en Android como en iOS

Seis tecnologías antiguas secretas que la ciencia moderna aún no logra replicar
Desde una copa que cambia de color según el ángulo que la mires, un pigmento azul que ha resistido siglos hasta hormigón romano

Adiós a las contraseñas tradicionales: así avanza la nueva era de la ciberseguridad digital
Tecnologías como la autenticación multifactor y las passkeys ganan terreno en la industria digital

Dónde ver la película de las Guerreras K-Pop en 2026 de forma legal: guía para fans
HUNTR/X supera a bandas reales, gana premios y genera un movimiento digital sin precedentes

Cómo activar el bloqueo remoto en Android y iOS para proteger tu celular ante robos
Estas herramientas también permiten mostrar mensajes en pantalla y ubicar el equipo en tiempo real


