
NVIDIA anunció oficialmente el jueves el lanzamiento de Nemotron 3 Super, un modelo de IA de peso abierto con 120 mil millones de parámetros, optimizado profundamente para agentes de IA autónomos y tareas de contexto extremadamente largo. NVIDIA reveló un plan estratégico para invertir 26 mil millones de dólares en cinco años en el desarrollo de modelos de IA de código abierto, respondiendo directamente al rápido crecimiento de los modelos de código abierto en China en el mercado global.
El núcleo del diseño de Nemotron 3 Super es resolver un problema fundamental en los sistemas multi-agente: cada llamada a herramienta, paso de razonamiento y fragmento de contexto requiere retransmitir grandes cantidades de datos desde cero, lo que aumenta los costos y desvía el modelo de su rendimiento esperado. NVIDIA integra tres componentes que raramente aparecen juntos en la misma arquitectura:
Las capas de espacio de estado Mamba-2, que sustituyen la atención, ofrecen mayor velocidad y eficiencia en memoria al procesar flujos de tokens largos; las capas de atención Transformer aseguran una recuperación precisa de la información; y el nuevo diseño de “Expertos Mixtos Latentes” (Latent MoE) comprime los tokens antes del enrutamiento, permitiendo que el modelo active cuatro veces más módulos expertos con el mismo costo computacional.
El modelo se entrena de forma nativa en formato NVFP4 propietario de NVIDIA, aprendiendo desde la primera actualización de gradiente en precisión de 4 bits, evitando la pérdida de precisión que implica entrenar en alta precisión y luego comprimir. La ventana de contexto alcanza un millón de tokens, permitiendo almacenar completamente bibliotecas de código o aproximadamente 750,000 palabras en inglés.
A continuación, datos clave comparativos del rendimiento de inferencia de Nemotron 3 Super:
En comparación con OpenAI GPT-OSS 120B: 2.2 veces más rápido
En comparación con Alibaba Qwen3.5-122B: 7.5 veces más rápido
En comparación con su predecesor: más de 5 veces mayor rendimiento general
NVIDIA ha publicado completamente el proceso de entrenamiento, incluyendo los pesos del modelo en Hugging Face, 10 billones de muestras preentrenadas seleccionadas (con un total de más de 25 billones de muestras utilizadas en el entrenamiento), 40 millones de muestras post-entrenamiento, y un esquema de aprendizaje reforzado que cubre 21 configuraciones ambientales. Actualmente, Perplexity, Palantir, Cadence y Siemens han integrado este modelo en sus flujos de trabajo.
El lanzamiento de Nemotron 3 Super es solo una parte de la estrategia más amplia de NVIDIA. Bryan Catanzaro, vicepresidente de investigación en aprendizaje profundo, dijo a la revista Wired que la compañía ya completó un preentrenamiento de un modelo con 550 mil millones de parámetros, y también anunció públicamente su plan de inversión de 26 mil millones de dólares en IA de código abierto en cinco años.
El contexto estratégico es muy apremiante: según investigaciones de OpenRouter y Andreessen Horowitz, la participación global de modelos de código abierto chinos ha aumentado del 1.2% a finales de 2024 a aproximadamente el 30% a finales de 2025; Qwen de Alibaba ha superado a Llama de Meta para convertirse en el modelo de código abierto más utilizado (según datos de Runpod). Se informa que el próximo modelo de DeepSeek se entrenó completamente en chips de Huawei, lo que, si es cierto, ofrecerá un fuerte incentivo para que desarrolladores en todo el mundo adopten hardware chino, una situación que NVIDIA busca contrarrestar mediante su estrategia de código abierto.
¿Qué ventajas tiene Nemotron 3 Super en comparación con Qwen y GPT-OSS?
En rendimiento de inferencia, Nemotron 3 Super es 2.2 veces más rápido que OpenAI GPT-OSS 120B y 7.5 veces más rápido que Alibaba Qwen3.5-122B. La diferencia clave radica en su arquitectura híbrida Mamba-Transformer MoE y en su entrenamiento nativo en formato NVFP4 de 4 bits, lo que permite activar más módulos expertos con el mismo costo computacional, logrando un rendimiento superior a su predecesor en más de cinco veces.
¿Por qué NVIDIA invierte 26 mil millones de dólares en modelos de IA de código abierto en este momento?
Las motivaciones principales son dos: primero, evitar que el ecosistema de modelos de código abierto en China y los chips chinos formen un ciclo cerrado que reduzca la posición central de NVIDIA en la infraestructura global de IA; y segundo, crear modelos optimizados para hardware de NVIDIA que aumenten la fidelidad de compra de sus chips. La participación global de modelos chinos de código abierto ha subido rápidamente del 1.2% al 30%, haciendo que la urgencia sea evidente.
¿Se publican completamente los datos de entrenamiento y los pesos del modelo de Nemotron 3 Super?
Sí, NVIDIA ha publicado en Hugging Face todo el proceso de entrenamiento, incluyendo los pesos del modelo, 10 billones de muestras preentrenadas seleccionadas, 40 millones de muestras post-entrenamiento y un esquema de aprendizaje reforzado con 21 configuraciones ambientales, demostrando una transparencia técnica superior a la de la mayoría de los modelos comerciales similares.