Nvidia estrena familia de modelos abiertos Nemotron 3, diseñada para desarrollar sistemas de agentes de IA precisos

Guardar

Nvidia ha presentado una nueva familia de modelos de inteligencia artificial (IA) abiertos Nemotron 3 que, compuesta por los tamaños Nano, Super y Ultra, utilizan una arquitectura híbrida de mezcla de expertos (MoE) que impulsa el desarrollo e implementación de sistemas multiagente más transparentes y eficientes.

La compañía ha puesto sobre la mesa cómo las empresa se enfrentan a desafíos "cada vez mayores" cuando pasan de utilizar 'chatbots' de un solo modelo a sistemas colaborativos de IA multiagente, lo que provoca una sobrecarga de comunicación, desviación del contexto y altos costos de inferencia.

En este sentido, Nvidia ha subrayado la importancia de utilizar sistemas IA transparentes que permitan a las empresas confiar en los modelos utilizados para automatizar sus flujos de trabajo y, para responder a estas necesidades, ha presentado su nueva familia Nemotron 3.

Estos nuevos modelos de IA abiertos han sido ideados para impulsar el desarrollo de IA agéntica más "transparente, eficiente y especializada" pensada para impulsar el trabajo en todas las industrias, como ha explicado en un comunicado en su blog.

Para ello, la familia Nemotron 3 está basada en una nueva arquitectura híbrida de mezcla de expertos, que ayuda a los desarrolladores a crear e implementar sistemas de IA multiagente "más confiables a escala".

Concretamente, esta arquitectura permite que el modelo en cuestión seleccione y utilice solo las partes necesarias para ejecutar una tarea específica, aumentando la eficiencia a la hora de ofrecer resultados y gestionar tareas, sobre todo, cuando se ejecutan varias al mismo tiempo como ocurre con los sistemas agénticos.

Así, la familia se ha presentado en tres tamaños, comenzando por la versión Nemotron 3 Nano, que es la más pequeña con 30.000 millones de parámetros activos y sirve para tareas específicas y altamente eficientes.

Cabe destacar que, según Nvidia, esta versión es "la más eficiente" en cuanto a costo computacional, ya que ha sido optimizada para tareas como la depuración de 'software', resumir contenido, impulsar flujos de trabajo de asistentes de IA y recuperar información con bajos costos de inferencia. Todo ello, con un rendimiento de tokens hasta cuatro veces mayor al del modelo antecesor, Nemotron 2 Nano.

"Nemotron 3 Nano recuerda más, lo que lo hace más preciso y capaz de conectar información en tareas largas y de varios pasos", ha apostillado la tecnológica al respecto.

Siguiendo esta línea, la familia también incluye la versión Nemotron 3 Super, que cuenta con aproximadamente 100.000 millones de parámetros y ofrece hasta 10.000 millones activos por token, diseñada para aplicaciones de múltiples agentes de IA.

Finalmente, la versión Nemotron 3 Ultra, la opción más grande, cuenta con alrededor de 500.000 millones de parámetros y ofrece hasta 50.000 millones activos por token, con lo que es capaz de ejecutar tareas más complejas.

Ambos modelos, Super y Ultra, utilizan el formato de entrenamiento NVFP4 de 4 bits de Nvidia en la arquitectura Nvidia Blackwell, como ha matizado la compañía, esto hace que se "reduzcan significativamente los requisitos de memoria y se acelere el entrenamiento".

Con todas estas opciones, los desarrolladores pueden escoger el modelo abierto de la familia Nemotron 3 que más se ajuste a sus necesidades, con el tamaño más adecuado para sus cargas de trabajo específicas con agentes de IA.

"Con Nemotron, estamos transformando la IA avanzada en una plataforma abierta que ofrece a los desarrolladores la transparencia y la eficiencia que necesitan para crear sistemas agénticos a escala", ha afirmado al respecto el fundador y director ejecutivo de Nvidia, Jensen Huang.

Así, Nemotron 3 Nano ya está disponible a través de Hugging Face y proveedores de servicios de inferencia, así como en plataformas empresariales de IA e infraestructuras de datos. También está disponible a través de Amazon Bedrock y es compatible con Google Cloud, CoreWeave y Microsoft Foundry, entre otras opciones. Nvidia también ha especificado que está disponible como un microservicio de Nvidia NIM.

Por su parte, las versiones de Nemotron 3 Super y Ultra están previstas para ponerse a disposición de los usuarios durante la primera mitad de 2026.