
La llegada de gpt-oss-120b y gpt-oss-20b, los dos nuevos modelos de inteligencia artificial presentados por OpenAI, empresa propietaria de ChatGPT, marca un hito significativo al tratarse de sistemas avanzados que pueden descargarse de forma gratuita desde la plataforma de desarrolladores Hugging Face. Según señala la compañía, ambos modelos representan “un estado del arte” en su categoría.
Esta es la primera vez que OpenAI ofrece públicamente un modelo de lenguaje abierto desde la publicación de GPT-2 hace más de cinco años. Los nuevos modelos se presentan en dos formatos: gpt-oss-120b, orientado a servidores con una única GPU Nvidia, y una versión más ligera gpt-oss-20b, capaz de operar en un ordenador portátil con 16GB de memoria. Ambos utilizan una arquitectura “mixture-of-experts” (MoE) que, según explica OpenAI, permite activar solo una fracción de sus parámetros para cada consulta, logrando mayor eficiencia: en el modelo más grande, esto significa emplear solo 5.100 millones de parámetros por token de un total de 117.000 millones.
Rendimiento y limitaciones de los modelos
Los nuevos sistemas han sido entrenados con procesos similares a los modelos propietarios de la empresa, incluyendo aprendizaje por refuerzo (RL) de alto rendimiento usando grandes clústeres de GPU Nvidia. El objetivo de OpenAI con estos modelos es situarse entre los líderes del segmento open-weight, posicionándose directamente ante la competencia que representan los laboratorios chinos de inteligencia artificial como DeepSeek, Alibaba’s Qwen y Moonshot AI, quienes “han desarrollado varios de los modelos abiertos más capaces y populares del mundo”.
En comparación con los modelos abiertos existentes, gpt-oss-120b y gpt-oss-20b han superado a competidores en pruebas como Codeforces, anotando 2.622 y 2.516 puntos respectivamente, y también obtuvieron una puntuación alta en Humanity’s Last Exam (HLE), con 19% y 17,3%. Aún así, el rendimiento fue inferior al de los modelos cerrados más potentes de OpenAI, como o3 y o4-mini.
Un aspecto clave de la propuesta es la licencia Apache 2.0, una de las más permisivas del sector, permitiendo a empresas monetizar los modelos sin necesidad de permisos adicionales o pago de regalías. No obstante, OpenAI no publicará los datos de entrenamiento utilizados para construir estos modelos, a diferencia de otras iniciativas open source. La decisión responde a un contexto de creciente litigiosidad contra los grandes proveedores de IA, con demandas relacionadas con el uso de contenido protegido por derechos de autor en los entrenamientos.
Seguridad, acceso y próximos pasos en IA abierta
En el plano técnico, los modelos de código abierto de OpenAI están limitados a tareas de texto; no pueden generar ni procesar imágenes o audio. Sin embargo, la empresa destaca que “son capaces de enviar consultas complejas a modelos en la nube”, permitiendo que los desarrolladores conecten estos modelos abiertos con alternativas más avanzadas de la propia compañía para tareas especializadas.
En cuanto a los desafíos, las pruebas de precisión revelan que los modelos abiertos de OpenAI presentan tasas de “alucinación” —errores de invención en las respuestas— más elevadas que sus versiones cerradas, con un 49% y 53% en el benchmark interno PersonQA, en comparación con el 16% del modelo o1 o el 36% de o4-mini. La compañía atribuye estos resultados a la menor cantidad de parámetros efectivamente utilizados y reconoce en su libro blanco que “esto es esperado, ya que los modelos más pequeños tienen menos conocimiento enciclopédico que los modelos avanzados”.
En términos de seguridad, OpenAI informa que retrasó el lanzamiento para examinar riesgos potenciales relacionados con el uso indebido de estos sistemas, como su empleo en ciberataques o la creación de armas, y tras evaluaciones internas y externas asegura que “no se encontró evidencia de que estos modelos alcanzaran un umbral de alta capacidad de riesgo en dichos dominios”.
El anuncio de OpenAI llega en un momento en que desarrolladores y gobiernos aumentan su presión para la adopción mundial de IA basada en “valores democráticos” y accesibles. “Nuestro objetivo es garantizar una AGI que beneficie a toda la humanidad… y el mundo podrá construir sobre una pila de IA abierta creada en Estados Unidos”, subrayó Sam Altman, director ejecutivo de la compañía. Con la escena de la inteligencia artificial abierta cada vez más competitiva, la industria observa con atención el inminente lanzamiento de modelos rivales como DeepSeek R2 y la nueva propuesta del Superintelligence Lab de Meta.
Últimas Noticias
El móvil te quita el sueño: descubre lo que dicen los estudios sobre dormir con el teléfono cerca
La OMS sostiene que, en condiciones habituales de uso del celular, no existen pruebas concluyentes de que los campos electromagnéticos de bajo nivel causen daño

Top 5 de agentes IA que hacen tareas por ti sin instalaciones largas ni enredos
Estas herramientas, aunque menos avanzadas que las soluciones empresariales, permiten explorar el potencial de la IA en pocos pasos

Alejo Igoa hace historia: es el primer canal hispano con el Botón de Diamante Rojo en YouTube
El creador argentino sorprende al convertirse en el único de habla hispana en alcanzar los 100 millones de suscriptores

Eficiencia, riesgos y desafíos: la inteligencia artificial revoluciona los hospitales en Estados Unidos
La incorporación de asistentes digitales y herramientas automatizadas agiliza tareas y reduce la carga administrativa, pero también genera preocupación entre médicos y enfermeros por posibles errores y desafíos en la atención al paciente

App de inteligencia artificial en Android deja al descubierto millones de archivos personales
La vulnerabilidad permitió que cualquier persona pudiera acceder a los archivos subidos o generados por los usuarios, sin ningún tipo de autenticación ni restricción




