
La llegada de gpt-oss-120b y gpt-oss-20b, los dos nuevos modelos de inteligencia artificial presentados por OpenAI, empresa propietaria de ChatGPT, marca un hito significativo al tratarse de sistemas avanzados que pueden descargarse de forma gratuita desde la plataforma de desarrolladores Hugging Face. Según señala la compañía, ambos modelos representan “un estado del arte” en su categoría.
Esta es la primera vez que OpenAI ofrece públicamente un modelo de lenguaje abierto desde la publicación de GPT-2 hace más de cinco años. Los nuevos modelos se presentan en dos formatos: gpt-oss-120b, orientado a servidores con una única GPU Nvidia, y una versión más ligera gpt-oss-20b, capaz de operar en un ordenador portátil con 16GB de memoria. Ambos utilizan una arquitectura “mixture-of-experts” (MoE) que, según explica OpenAI, permite activar solo una fracción de sus parámetros para cada consulta, logrando mayor eficiencia: en el modelo más grande, esto significa emplear solo 5.100 millones de parámetros por token de un total de 117.000 millones.
Rendimiento y limitaciones de los modelos
Los nuevos sistemas han sido entrenados con procesos similares a los modelos propietarios de la empresa, incluyendo aprendizaje por refuerzo (RL) de alto rendimiento usando grandes clústeres de GPU Nvidia. El objetivo de OpenAI con estos modelos es situarse entre los líderes del segmento open-weight, posicionándose directamente ante la competencia que representan los laboratorios chinos de inteligencia artificial como DeepSeek, Alibaba’s Qwen y Moonshot AI, quienes “han desarrollado varios de los modelos abiertos más capaces y populares del mundo”.
En comparación con los modelos abiertos existentes, gpt-oss-120b y gpt-oss-20b han superado a competidores en pruebas como Codeforces, anotando 2.622 y 2.516 puntos respectivamente, y también obtuvieron una puntuación alta en Humanity’s Last Exam (HLE), con 19% y 17,3%. Aún así, el rendimiento fue inferior al de los modelos cerrados más potentes de OpenAI, como o3 y o4-mini.
Un aspecto clave de la propuesta es la licencia Apache 2.0, una de las más permisivas del sector, permitiendo a empresas monetizar los modelos sin necesidad de permisos adicionales o pago de regalías. No obstante, OpenAI no publicará los datos de entrenamiento utilizados para construir estos modelos, a diferencia de otras iniciativas open source. La decisión responde a un contexto de creciente litigiosidad contra los grandes proveedores de IA, con demandas relacionadas con el uso de contenido protegido por derechos de autor en los entrenamientos.
Seguridad, acceso y próximos pasos en IA abierta
En el plano técnico, los modelos de código abierto de OpenAI están limitados a tareas de texto; no pueden generar ni procesar imágenes o audio. Sin embargo, la empresa destaca que “son capaces de enviar consultas complejas a modelos en la nube”, permitiendo que los desarrolladores conecten estos modelos abiertos con alternativas más avanzadas de la propia compañía para tareas especializadas.
En cuanto a los desafíos, las pruebas de precisión revelan que los modelos abiertos de OpenAI presentan tasas de “alucinación” —errores de invención en las respuestas— más elevadas que sus versiones cerradas, con un 49% y 53% en el benchmark interno PersonQA, en comparación con el 16% del modelo o1 o el 36% de o4-mini. La compañía atribuye estos resultados a la menor cantidad de parámetros efectivamente utilizados y reconoce en su libro blanco que “esto es esperado, ya que los modelos más pequeños tienen menos conocimiento enciclopédico que los modelos avanzados”.
En términos de seguridad, OpenAI informa que retrasó el lanzamiento para examinar riesgos potenciales relacionados con el uso indebido de estos sistemas, como su empleo en ciberataques o la creación de armas, y tras evaluaciones internas y externas asegura que “no se encontró evidencia de que estos modelos alcanzaran un umbral de alta capacidad de riesgo en dichos dominios”.
El anuncio de OpenAI llega en un momento en que desarrolladores y gobiernos aumentan su presión para la adopción mundial de IA basada en “valores democráticos” y accesibles. “Nuestro objetivo es garantizar una AGI que beneficie a toda la humanidad… y el mundo podrá construir sobre una pila de IA abierta creada en Estados Unidos”, subrayó Sam Altman, director ejecutivo de la compañía. Con la escena de la inteligencia artificial abierta cada vez más competitiva, la industria observa con atención el inminente lanzamiento de modelos rivales como DeepSeek R2 y la nueva propuesta del Superintelligence Lab de Meta.
Últimas Noticias
Sam Altman predice que la IA traerá nuevas amenazas biológicas y cambios en la economía global
El CEO de OpenAI ha advertido en repetidas ocasiones sobre los riesgos de desarrollar esta tecnología sin un marco de supervisión internacional adecuado
De la ficción a la realidad: así juega World of Warcraft un paciente de Neuralink usando solo su mente
Jon L. Noble señaló que primero debió calibrar la conexión entre su implante y la computadora. Este proceso le permitió aprender a mover el cursor y escribir solo con la mente

Más allá del iPhone: el truco de Tim Cook para volver a Apple la compañía más rentable de la historia
El actual CEO de la empresa llevó a la tecnológica a superar la barrera de los 3 billones de dólares en valoración bursátil
Conoce las tecnologías que impulsan la carrera hacia Marte y acercan su exploración humana
La combinación de innovación en energía, biotecnología y transporte está redefiniendo los límites de lo posible en la carrera espacial

Steam lanza un descuento histórico para un juego que cuenta con 300.000 reseñas positivas
La promoción destaca dentro de Steam por tratarse de un título reciente con una rebaja poco habitual




