En el último año, la inteligencia artificial se ha desarrollado a tal punto que puede generar imágenes y videos que parecen tomados por humanos.
Recientemente, OpenAI presentó Sora, una IA que crea video hiperrealistas. Con el anuncio, en redes volvió a circular un video hecho con inteligencia artificial de Will Smith comiendo espagueti.
Dicho video del actor se viralizó en marzo del 2023 y regresó a los feeds de los internautas con el objetivo de comparar como ha avanzado la creación de piezas audiovisuales con IA.

Will Smith devorando un plato de espagueti
El año pasado, un usuario de Reddit compartió un curioso video realizado con inteligencia artificial de Will Smith comiendo espagueti de una forma algo grotesca.
Para lograrlo, utilizó el modelo Modelscope text2video con el comando ‘Will Smith comiendo espagueti’. Luego, ajustó la cantidad de imágenes por segundo de 15 a 24 FPS y empleó el programa informático Flowframes para elevar esta tasa de 24 a 48 imágenes por segundo, agregando finalmente un efecto de cámara lenta.
El resultado causó bastante sorpresa por la capacidad de la IA de crear videos que, en su momento, parecían de verdad.
Casi un año tuvo que pasar para que la comunidad de internet volviera a sorprenderse con Sora, la herramienta de OpenAI, capaz de crear videos que si pueden calificarse como hiperrealistas.

Con la popularidad de Sora y de aquel video publicado en 2023, Will Smith decidió ver la situación desde un punto de vista más cómico: realizó un live action de la escena de él comiendo espagueti.
“Esto se está saliendo de nuestras manos”, dijo el actor estadounidense para referirse (jocosamente) al avance de los videos generados por IA.
Quizás esto podría ser cierto ya que no faltaron los usuarios distraídos que pensaron que, efectivamente, se trataba de otro video hecho con tecnología avanzada.
Incluso el creador de contenido Deji Adebola comentó: “me tomó un segundo darme cuenta que el video no era una IA y que solo estoy en la página oficial de Will”.

Sora, videos hiperrealistas hechos con IA
OpenAI, la entidad dedicada a la investigación en inteligencia artificial y creadora del ChatGPT, ha logrado un avance significativo con el desarrollo de Sora, su nueva herramienta que transforma descripciones textuales en videos.
Este progreso no solo ensancha las posibilidades en la generación de contenido digital, sino que también brinda una mirada intrigante sobre el futuro de la interacción entre texto e imagen, y su potencial para cambiar el uso de la inteligencia artificial hoy en día.
Sora, que actualmente se encuentra en periodo de pruebas según ha indicado la compañía encabezada por Sam Altman, es capaz de generar videos de hasta un minuto de duración que resultan sorprendentemente realistas y fieles a las instrucciones específicas de los usuarios, manteniendo una alta calidad de imagen.
El funcionamiento de Sora se basa en un concepto parecido al de otros modelos de OpenAI que convierten textos en imágenes, permitiendo a los usuarios elaborar indicaciones o “prompts” muy precisas para definir el contenido visual deseado en el video.
En este momento, Sora está siendo probada exclusivamente por un grupo limitado de individuos que pertenecen al equipo rojo de OpenAI, cuya misión principal es descubrir cualquier defecto, daño o riesgo asociado con la herramienta.
El equipo rojo es un conjunto de expertos cuyo rol esencial es examinar y testear sistemas, software o aplicaciones para hallar vulnerabilidades, errores o amenazas potenciales. Para ello, adoptan la perspectiva de posibles adversarios, imitando las estrategias y tácticas que un atacante real emplearía.
Adicionalmente, OpenAI ha concedido acceso a Sora a un grupo reducido de artistas visuales, diseñadores y cineastas, con el propósito de obtener su feedback y, de esta manera, perfeccionar y ajustar el modelo para que sea aún más provechoso para aquellos en el sector creativo.
Últimas Noticias
Internet satelital de Starlink en celulares: lista completa de modelos compatibles y cómo acceder a este servicio
Con esta tecnología, algunos modelos de iPhone, Google Pixel, Motorola y Samsung pueden acceder a la red satelital directamente, sin requerir antenas externas

Este trapeador o fregona eléctrica se inclina 170° para limpiar bajo la cama y no usa filtros
Paradójicamente, dispone de dos depósitos: uno para agua limpia y otro para agua sucia

YouTube lanza su app oficial para Apple Vision Pro: cómo descargarla y qué funciones incluye
Hasta el momento, los usuarios de estas gafas solo podían acceder a YouTube mediante Safari, lo que impedía utilizar funciones como las descargas sin conexión

Pasos clave para alertar sobre páginas ilegales de gestación subrogada en España
Copiar la URL, certificar el contenido y recurrir a la Policía, Guardia Civil o a organismos como INCIBE y AEPD son pasos esenciales

Bixby deja de ser un bot: la advertencia de Samsung sobre el nuevo asistente con IA real
La actualización mejora las peticiones intuitivas y la información en línea a través de comandos espontáneos y expresiones propias




