
La llegada de gpt-oss-120b y gpt-oss-20b, los dos nuevos modelos de inteligencia artificial presentados por OpenAI, empresa propietaria de ChatGPT, marca un hito significativo al tratarse de sistemas avanzados que pueden descargarse de forma gratuita desde la plataforma de desarrolladores Hugging Face. Según señala la compañía, ambos modelos representan “un estado del arte” en su categoría.
Esta es la primera vez que OpenAI ofrece públicamente un modelo de lenguaje abierto desde la publicación de GPT-2 hace más de cinco años. Los nuevos modelos se presentan en dos formatos: gpt-oss-120b, orientado a servidores con una única GPU Nvidia, y una versión más ligera gpt-oss-20b, capaz de operar en un ordenador portátil con 16GB de memoria. Ambos utilizan una arquitectura “mixture-of-experts” (MoE) que, según explica OpenAI, permite activar solo una fracción de sus parámetros para cada consulta, logrando mayor eficiencia: en el modelo más grande, esto significa emplear solo 5.100 millones de parámetros por token de un total de 117.000 millones.
PUBLICIDAD
Rendimiento y limitaciones de los modelos
Los nuevos sistemas han sido entrenados con procesos similares a los modelos propietarios de la empresa, incluyendo aprendizaje por refuerzo (RL) de alto rendimiento usando grandes clústeres de GPU Nvidia. El objetivo de OpenAI con estos modelos es situarse entre los líderes del segmento open-weight, posicionándose directamente ante la competencia que representan los laboratorios chinos de inteligencia artificial como DeepSeek, Alibaba’s Qwen y Moonshot AI, quienes “han desarrollado varios de los modelos abiertos más capaces y populares del mundo”.
En comparación con los modelos abiertos existentes, gpt-oss-120b y gpt-oss-20b han superado a competidores en pruebas como Codeforces, anotando 2.622 y 2.516 puntos respectivamente, y también obtuvieron una puntuación alta en Humanity’s Last Exam (HLE), con 19% y 17,3%. Aún así, el rendimiento fue inferior al de los modelos cerrados más potentes de OpenAI, como o3 y o4-mini.
PUBLICIDAD
Un aspecto clave de la propuesta es la licencia Apache 2.0, una de las más permisivas del sector, permitiendo a empresas monetizar los modelos sin necesidad de permisos adicionales o pago de regalías. No obstante, OpenAI no publicará los datos de entrenamiento utilizados para construir estos modelos, a diferencia de otras iniciativas open source. La decisión responde a un contexto de creciente litigiosidad contra los grandes proveedores de IA, con demandas relacionadas con el uso de contenido protegido por derechos de autor en los entrenamientos.
Seguridad, acceso y próximos pasos en IA abierta
En el plano técnico, los modelos de código abierto de OpenAI están limitados a tareas de texto; no pueden generar ni procesar imágenes o audio. Sin embargo, la empresa destaca que “son capaces de enviar consultas complejas a modelos en la nube”, permitiendo que los desarrolladores conecten estos modelos abiertos con alternativas más avanzadas de la propia compañía para tareas especializadas.
PUBLICIDAD
En cuanto a los desafíos, las pruebas de precisión revelan que los modelos abiertos de OpenAI presentan tasas de “alucinación” —errores de invención en las respuestas— más elevadas que sus versiones cerradas, con un 49% y 53% en el benchmark interno PersonQA, en comparación con el 16% del modelo o1 o el 36% de o4-mini. La compañía atribuye estos resultados a la menor cantidad de parámetros efectivamente utilizados y reconoce en su libro blanco que “esto es esperado, ya que los modelos más pequeños tienen menos conocimiento enciclopédico que los modelos avanzados”.
En términos de seguridad, OpenAI informa que retrasó el lanzamiento para examinar riesgos potenciales relacionados con el uso indebido de estos sistemas, como su empleo en ciberataques o la creación de armas, y tras evaluaciones internas y externas asegura que “no se encontró evidencia de que estos modelos alcanzaran un umbral de alta capacidad de riesgo en dichos dominios”.
PUBLICIDAD
El anuncio de OpenAI llega en un momento en que desarrolladores y gobiernos aumentan su presión para la adopción mundial de IA basada en “valores democráticos” y accesibles. “Nuestro objetivo es garantizar una AGI que beneficie a toda la humanidad… y el mundo podrá construir sobre una pila de IA abierta creada en Estados Unidos”, subrayó Sam Altman, director ejecutivo de la compañía. Con la escena de la inteligencia artificial abierta cada vez más competitiva, la industria observa con atención el inminente lanzamiento de modelos rivales como DeepSeek R2 y la nueva propuesta del Superintelligence Lab de Meta.
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Drones inflables para entregas: por qué son presentados como una alternativa más eficiente y segura
Los drones ligeros pueden despegar y aterrizar en espacios reducidos, facilitando su uso urbano

Epic Games Store regala dos juegos y uno te invita a ser el héroe que Gotham necesita
The Telltale Batman Shadows Edition ofrece una visión diferente del universo de DC a través del característico enfoque narrativo de Telltale

Ciberataque deja contra las cuerdas al fabricante del iPhone: 8 TB de archivos con referencias a Apple, comprometidos
La amenaza de publicar los archivos sustraídos ha puesto en alerta tanto a Foxconn como a otras grandes compañías tecnológicas

Elon Musk enfrentaría una fuga de talentos tras fusionar SpaceX y xAI
Más de 50 investigadores e ingenieros han dejado SpaceXAI, nombre de la fusión empresarial
Así recomiendan los fabricantes limpiar la nevera por dentro y por fuera: pasos y productos adecuados
Una limpieza regular, la organización inteligente y el uso de desinfectantes naturales como el vinagre garantizan la seguridad alimentaria y el ahorro energético en el hogar



