
Durante una transmisión en vivo, el popular streamer estadounidense IShowSpeed, cuyo nombre real es Darren Jason Watkins Jr., expresó su indignación frente a una nueva ola de videos generados con inteligencia artificial que utilizan su imagen y su voz.
Con 44,9 millones de suscriptores en YouTube, el creador de contenido se ha convertido en uno de los referentes de la cultura digital, y su reacción ante los deepfakes de la plataforma Sora 2 evidencia los desafíos éticos y técnicos en la era de la generación audiovisual impulsada por IA.
Qué dijo IShowSpeed sobre el uso de su imagen con IA
La aplicación Sora 2 de OpenAI ha inaugurado una forma inédita de creación de contenido digital, permitiendo a los usuarios generar videos realistas en los que figuras públicas pueden aparecer haciendo y diciendo lo que nunca sucedió en la realidad.
Durante un reciente directo, IShowSpeed reaccionó videos cada vez más extravagantes producidos con Sora 2. Algunos clips mostraban al streamer besando a un fan, corriendo junto a un guepardo y visitando lugares en los que nunca ha estado, como Nepal.
La situación escaló cuando encontró decenas de deepfakes en los que supuestamente salía del armario ante sus seguidores. Ante lo que consideró una invasión y tergiversación inadmisible, el streamer pronunció frases tajantes. “Esto se apaga ya. Es IA, se acabó. No más. Adiós. No pueden seguir haciendo esto. Estoy incómodo”, aseguró.
La frustración creció aún más al comprender que tendría que eliminar manualmente, uno por uno, los videos donde hicieron uso de su imagen: “¡¿Por qué sigo saliendo?! ¡¿Por qué sigo saliendo?!“.
El enojo de IShowSpeed no solo estaba dirigido a los desarrolladores de la aplicación, sino también a sus propios seguidores. Durante la transmisión, responsabilizó a su comunidad de haberlo impulsado a hacer público su cameo en Sora 2. “Ese no fue el paso correcto. Quien me haya dicho que lo haga público, charla, no estás aquí por mi propia seguridad, hermano. Estoy jodido, charla”, dijo.
Qué es Sora y cómo funciona
Sora, lanzada por OpenAI, es una red social cuya particularidad radica en que solo permite la publicación de videos hechos con inteligencia artificial utilizando su propio modelo generativo, Sora 2.

Accesible, por ahora, únicamente mediante invitación y disponible en Estados Unidos y Canadá, la aplicación invita a los usuarios a crear “deepfakes” de sí mismos, grabando su rostro y su voz para mantener un avatar digital reconocible y reutilizable.
La generación de videos en Sora 2 alcanza un nivel de realismo notable. El proceso comienza con la grabación de un clip inicial en el que el usuario pronuncia números y gira su cabeza ante la cámara: esa muestra biométrica permite que la IA simule a la persona en múltiples escenarios y situaciones. Además, la aplicación permite etiquetar hasta tres amigos o a personajes famosos con cameo aprobado, y crear escenas tan sencillas o complejas como el usuario desee.
Por ejemplo, se puede solicitar “Estoy con @pepe y @juan en una catarata saltando al amanecer”, y la IA producirá el video solicitado con imagen, movimiento, voz y audio integrados.
Aunque la aplicación coloca una marca de agua (“Sora”) en sus videos, especialistas han advertido que esta no siempre resulta suficiente para diferenciar contenido real de generado, ya que puede disimularse o eliminarse durante la posterior edición.

La detección de deepfakes se ha vuelto tan sofisticada que, según Salvador Samper, del Observatorio Español de Delitos Informáticos, “ya cuesta tanto que se necesitan herramientas especializadas para poder contrarrestar lo que hacen otras tecnologías”, muchas de ellas con acceso restringido o aun en fase de desarrollo.
A esto hay que sumarle que crear un avatar digital implica entregar a la aplicación datos únicos y sensibles, como el rostro o la voz, que pueden asociarse a la identidad de una persona. Existe inquietud respecto al almacenamiento, tratamiento y posible uso no autorizado de estos datos.
Samper advierte que “ceder nuestra identificación única supone que podamos ser expuestos de manera indebida para generar un deepfake, para pornovenganza o situaciones aún más comprometedoras”. El valor comercial de los perfiles biométricos registrados de manera gratuita por millones representa un atractivo para empresas y terceros, quienes podrían ceder estos avatares a otras plataformas sin el consentimiento de sus dueños.
Últimas Noticias
Guía completa: qué hacer si el micrófono del teléfono deja de funcionar
Identificar si la causa es una configuración, suciedad o una app reciente permite resolver el problema y mantener tu dispositivo listo para cualquier tarea de voz o grabación

Meta AI en WhatsApp: las razones por las que se debe desactivar del celular
Aunque Meta asegura que las conversaciones con su inteligencia artificial están cifradas y no se almacenan, persiste la desconfianza sobre el posible uso de datos

Problemas en Xiaomi con los pagos usando NFC: qué celulares se afectaron y cómo resolver el fallo
Esta situación también ha impedido que algunos usuarios accedan al transporte público

Bill Gates revela los dos retos que tiene la humanidad ante el avance de la IA: impacto en el empleo, uno de ellos
Según el cofundador de Microsoft, la IA podría superar las capacidades humanas y facilitar el desarrollo de nuevas tecnologías, pero requiere regulación y políticas que garanticen el bienestar colectivo

Crearían la primera fábrica de vehículos y sin humanos para 2030: robots serían los trabajadores
La robótica y la inteligencia artificial permiten ciclos de producción más breves y reducen drásticamente la plantilla humana en las plantas de ensamblaje



