
La llegada de gpt-oss-120b y gpt-oss-20b, los dos nuevos modelos de inteligencia artificial presentados por OpenAI, empresa propietaria de ChatGPT, marca un hito significativo al tratarse de sistemas avanzados que pueden descargarse de forma gratuita desde la plataforma de desarrolladores Hugging Face. Según señala la compañía, ambos modelos representan “un estado del arte” en su categoría.
Esta es la primera vez que OpenAI ofrece públicamente un modelo de lenguaje abierto desde la publicación de GPT-2 hace más de cinco años. Los nuevos modelos se presentan en dos formatos: gpt-oss-120b, orientado a servidores con una única GPU Nvidia, y una versión más ligera gpt-oss-20b, capaz de operar en un ordenador portátil con 16GB de memoria. Ambos utilizan una arquitectura “mixture-of-experts” (MoE) que, según explica OpenAI, permite activar solo una fracción de sus parámetros para cada consulta, logrando mayor eficiencia: en el modelo más grande, esto significa emplear solo 5.100 millones de parámetros por token de un total de 117.000 millones.
Rendimiento y limitaciones de los modelos
Los nuevos sistemas han sido entrenados con procesos similares a los modelos propietarios de la empresa, incluyendo aprendizaje por refuerzo (RL) de alto rendimiento usando grandes clústeres de GPU Nvidia. El objetivo de OpenAI con estos modelos es situarse entre los líderes del segmento open-weight, posicionándose directamente ante la competencia que representan los laboratorios chinos de inteligencia artificial como DeepSeek, Alibaba’s Qwen y Moonshot AI, quienes “han desarrollado varios de los modelos abiertos más capaces y populares del mundo”.
En comparación con los modelos abiertos existentes, gpt-oss-120b y gpt-oss-20b han superado a competidores en pruebas como Codeforces, anotando 2.622 y 2.516 puntos respectivamente, y también obtuvieron una puntuación alta en Humanity’s Last Exam (HLE), con 19% y 17,3%. Aún así, el rendimiento fue inferior al de los modelos cerrados más potentes de OpenAI, como o3 y o4-mini.
Un aspecto clave de la propuesta es la licencia Apache 2.0, una de las más permisivas del sector, permitiendo a empresas monetizar los modelos sin necesidad de permisos adicionales o pago de regalías. No obstante, OpenAI no publicará los datos de entrenamiento utilizados para construir estos modelos, a diferencia de otras iniciativas open source. La decisión responde a un contexto de creciente litigiosidad contra los grandes proveedores de IA, con demandas relacionadas con el uso de contenido protegido por derechos de autor en los entrenamientos.
Seguridad, acceso y próximos pasos en IA abierta
En el plano técnico, los modelos de código abierto de OpenAI están limitados a tareas de texto; no pueden generar ni procesar imágenes o audio. Sin embargo, la empresa destaca que “son capaces de enviar consultas complejas a modelos en la nube”, permitiendo que los desarrolladores conecten estos modelos abiertos con alternativas más avanzadas de la propia compañía para tareas especializadas.
En cuanto a los desafíos, las pruebas de precisión revelan que los modelos abiertos de OpenAI presentan tasas de “alucinación” —errores de invención en las respuestas— más elevadas que sus versiones cerradas, con un 49% y 53% en el benchmark interno PersonQA, en comparación con el 16% del modelo o1 o el 36% de o4-mini. La compañía atribuye estos resultados a la menor cantidad de parámetros efectivamente utilizados y reconoce en su libro blanco que “esto es esperado, ya que los modelos más pequeños tienen menos conocimiento enciclopédico que los modelos avanzados”.
En términos de seguridad, OpenAI informa que retrasó el lanzamiento para examinar riesgos potenciales relacionados con el uso indebido de estos sistemas, como su empleo en ciberataques o la creación de armas, y tras evaluaciones internas y externas asegura que “no se encontró evidencia de que estos modelos alcanzaran un umbral de alta capacidad de riesgo en dichos dominios”.
El anuncio de OpenAI llega en un momento en que desarrolladores y gobiernos aumentan su presión para la adopción mundial de IA basada en “valores democráticos” y accesibles. “Nuestro objetivo es garantizar una AGI que beneficie a toda la humanidad… y el mundo podrá construir sobre una pila de IA abierta creada en Estados Unidos”, subrayó Sam Altman, director ejecutivo de la compañía. Con la escena de la inteligencia artificial abierta cada vez más competitiva, la industria observa con atención el inminente lanzamiento de modelos rivales como DeepSeek R2 y la nueva propuesta del Superintelligence Lab de Meta.
Últimas Noticias
Criptomonedas: cotización de las principales divisas digitales
El bitcoin, una de las principales monedas digitales, tuvo un cambio de 1,78% en el último día

El uso de pantallas invade la primera infancia: el 72% de los bebés ya interactúa con dispositivos digitales a diario
Un informe británico difundido por The Independent advirtió sobre la temprana incorporación de tecnología en la vida cotidiana, señaló diferencias según la estructura familiar y analizó posibles efectos en rutinas claves del desarrollo y el entorno de crianza

La contundente advertencia de Mark Zuckerberg a su hija: “No puedes ser Taylor Swift”
El fundador de Meta relató esta anécdota durante su participación en un pódcast, donde destacó la importancia de construir una identidad propia

La batalla del sonido: pros y contras de los auriculares con cable e inalámbricos
La latencia, es decir, el retraso entre la emisión y la recepción del sonido, es crucial para gamers y profesionales del audio

PlayStation Network: qué es y por qué su posible cierre preocupa a jugadores
Un informe sugiere que Sony planea renovar la imagen de su plataforma en línea



