Nadie entiende mejor que Nvidia la «próxima generación de computación en IA»

Fuente: Geek Park

Escrito por: Xu Shan

「Estoy convencido de que estamos presenciando una fiesta tecnológica. Hoy, cada uno de los presentes representa el ecosistema de NVIDIA.» En la apertura del GTC 2026, ese hombre que siempre viste una chaqueta de cuero negra — Huang Renxun — subió al escenario con su confianza característica.

A diferencia de otros años, este año celebra el 20º aniversario del ecosistema CUDA. Desde el inicio, Huang explicó cómo NVIDIA ha construido su propia barrera competitiva paso a paso, desde GeForce hasta trazado de rayos y luego inteligencia artificial. «Hoy en día, el ecosistema CUDA ya forma un ciclo de datos en auge.» Bajo su relato, podemos ver que el ecosistema CUDA que él mismo creó ha construido un imperio comercial.

En esta conferencia, Huang presentó Vera Rubin, diseñada específicamente para inteligencia artificial de agentes inteligentes, con una capacidad de cálculo de 3.6 EFLOPS en operaciones de punto flotante. Combinado con la última infraestructura de racks, la eficiencia de cálculo por megavatio se ha incrementado 35 veces. Además, lanzó una CPU llamada Vera CPU, diseñada para un rendimiento de un solo hilo extremadamente alto.

Más importante aún, NVIDIA también presentó NemoClaw, una solución de referencia empresarial OpenClaw. Puedes descargarla, usarla, desarrollarla y conectarla con todas las SaaS del mundo. En comparación, en su discurso principal, NVIDIA redujo el énfasis en robots, conducción autónoma y computación cuántica.

Tras escuchar esta charla, tienes la sensación de que estamos en el inicio de una transformación en la plataforma de cálculo. Como en la revolución anterior con Google y Amazon, en esta explosión de IA, una serie de «gigantes de la IA» están gestándose para cambiar el mundo.

La lista interminable de empresas en la mano de Huang es su respaldo. No solo está definiendo el cálculo, sino que, usando la IA como pivote, está forzando a que las finanzas, la salud, la manufactura y el comercio minorista globales entren en una «Era de IA» dominada por GPU.

Una vez más, NVIDIA ha visto el futuro de la IA y ahora está arrastrando a todo el mundo a saltar con ella.

01 Vera Rubin: 7 chips revolucionarios, 5 sistemas de nivel rack, 1 supercomputadora

«En solo diez años, la capacidad de cálculo ha experimentado un salto de 40 millones de veces.» NVIDIA revisó cómo en la última década, la potencia de cálculo ha crecido rápidamente siguiendo las tres leyes de expansión, desde preentrenamiento, ajuste fino y inferencia, hasta sistemas de inteligencia general, con una demanda de cálculo que sigue creciendo exponencialmente.

Con la llegada de la era de los agentes de IA, NVIDIA presentó Vera Rubin. Diseñada para todo el ciclo de vida de los agentes inteligentes, redefine desde el nivel de chips la CPU, almacenamiento, red y seguridad necesarios para estos sistemas.

En cuanto a parámetros, Vera Rubin cuenta con NVLink 6, alcanzando una potencia total de 3.6 EFLOPS, convirtiéndose en un motor clave para impulsar la era de los agentes de IA. Además, en comparación con la generación anterior, Vera Rubin ha logrado una refrigeración líquida del 100%, eliminando todos los cables tradicionales.

En cuanto a configuración, actualmente, el rack Vera CPU está diseñado para orquestar cargas de trabajo generales y de programación. El rack STX, basado en BlueField-4, ofrece almacenamiento nativo para IA. También, mediante la tecnología de empaquetado óptico Spectrum-6, logra una expansión horizontal significativa, mejorando eficiencia energética y fiabilidad.

El rack Groq 3 LPX está profundamente interconectado con Vera Rubin, integrando 230MB de SRAM en chip, lo que impulsa aún más la velocidad de cálculo.

Todo el sistema, en conjunto, aumenta 35 veces la eficiencia de cálculo por megavatio. Sin duda, la plataforma Vera Rubin, con siete chips y cinco sistemas de nivel rack, crea una supercomputadora revolucionaria para IA general.

Al explicar el diseño del producto, Huang afirmó que los modelos de lenguaje grande seguirán creciendo en tamaño, con tokens generados cada vez más rápido y en mayor cantidad, para facilitar un pensamiento más rápido. Pero, al mismo tiempo, estos modelos deben acceder con frecuencia a la memoria, lo que genera una gran presión sobre ella, incluyendo cachés KV, datos estructurados QDF y datos no estructurados QVS. Por ello, los sistemas de almacenamiento deben ser completamente rediseñados para la era de la IA.

En la era de los agentes, la IA usará diversas herramientas y requerirá una alta velocidad en navegadores web y PCs virtuales. Por ello, estos nodos de cálculo deben ser aún más rápidos. NVIDIA ha desarrollado una nueva CPU, Vera CPU, diseñada para un rendimiento de un solo hilo extremadamente alto, con alta capacidad de salida de datos, eficiencia en procesamiento y buen rendimiento energético. Es la única CPU de centro de datos que utiliza LPDFR5X, con un rendimiento por vatio y por hilo en su máximo nivel.

La serie Vera Rubin|Fuente: NVIDIA

«Creamos esta CPU para colaborar con toda la infraestructura y soportar las tareas de los agentes. Este producto ya está en producción. Nunca pensamos en venderla por separado, pero ahora nuestras ventas independientes de CPU son muy significativas. Sin duda, será un negocio de miles de millones de dólares. Estoy muy satisfecho con nuestro equipo de arquitectura de CPU», afirmó Huang.

También mostró en vivo Rubin Ultra. A diferencia del método tradicional de inserción horizontal de Rubin, Rubin Ultra usa un nuevo rack Groq, insertado verticalmente en el rack Groq. «Este rack Groq es muy pesado, seguro que no puedo levantarlo, así que no lo intentaré.»

El rack Groq|Fuente: NVIDIA

En la parte trasera del panel, NVIDIA ya no usa cables de cobre tradicionales. Considera que los cables de cobre tienen limitaciones en distancia de transmisión, por lo que conecta 144 GPU con un sistema completamente nuevo, NVLink de próxima generación. Este también se instala verticalmente, conectándose a la parte trasera del panel. La parte frontal realiza cálculos, y la trasera conecta con un conmutador NVLink, formando una supercomputadora.

Finalmente, ¿cuánto beneficio real puede aportar esta nueva arquitectura de chips? Huang mencionó que, en última instancia, los chips influirán en la valoración y el precio de los tokens futuros.

«Los tokens son una nueva mercancía a granel. Como todos los productos, una vez que cruzan un umbral y maduran, se estratifican y clasifican.» Propuso varias categorías para los tokens futuros:

  • Versiones de alto rendimiento y baja velocidad, para planes gratuitos;
  • Planes intermedios, con modelos más grandes, más rápidos y mayor longitud de contexto;
  • En el futuro, incluso, versiones premium que soporten una generación de tokens extremadamente rápida, para tareas críticas o escenarios de investigación de larga duración. En ese momento, 150 dólares por millón de tokens será completamente razonable.

«Cuanto más grande sea el modelo, más inteligente será; cuanto más largo sea el contexto de tokens, más precisos y relevantes serán los resultados; más rápido sea, más plena será la reflexión y la iteración, y la IA será más inteligente. Cuanto más inteligente sea el modelo, más se podrá valorar, por ejemplo, en 45 dólares por nivel.» Él cree que el consumo de tokens cambiará todo en el futuro.

En su visión, si un investigador usa 50 millones de tokens al día, a 150 dólares por millón, para un equipo de investigación sería totalmente aceptable. «Este es el futuro de la IA.» Desde la perspectiva del cliente, propone redistribuir todos los recursos de cálculo: 25% para planes gratuitos, 25% para planes intermedios, 25% para planes premium y 25% para planes exclusivos. Si su centro de datos consume solo 1 gigavatio, puede decidir cómo distribuir estos recursos, atrayendo más usuarios con planes gratuitos y sirviendo a los clientes más valiosos con planes premium. Estas combinaciones, en última instancia, determinan los ingresos.

Bajo este modelo simple, afirmó que con la plataforma Blackwell, se puede lograr un aumento de 5 veces en los ingresos respecto a Hopper. Vera Rubin puede ofrecer un incremento de 5 veces en los ingresos respecto a Blackwell.

Vera Rubin|Fuente: NVIDIA

El sistema de cálculo Groq es un procesador de flujo de datos determinista, que usa compilación estática y arquitectura de programación. Es decir, toda la planificación de la secuencia, como cuándo se transmiten los datos, cuándo se ejecuta el cálculo y cómo llegan sincronizados, se realiza previamente mediante el compilador, sin programación dinámica. Este sistema cuenta con memoria HBM de gran capacidad, diseñado específicamente para cargas de trabajo de inferencia.

Actualmente, el LPU 3 de Groq ya está en producción, y se espera que comience a enviarse en el tercer trimestre de este año, bajo el nombre Groq LP.

En cuanto a Vera Rubin, aunque las primeras muestras de Grace Blackwell fueron muy complejas de ajustar, simulando 72 conexiones, las muestras de Vera Rubin ya han pasado las pruebas, y la primera infraestructura Vera Rubin ya está en línea en Microsoft Azure y funciona normalmente.

Actualmente, NVIDIA produce a toda velocidad racks Vera Rubin y GB300, con una cadena de suministro capaz de producir miles de sistemas semanalmente.

El próximo sistema de chips de NVIDIA se llama arquitectura Feynman.

Además, tanto Groq como Vera Rubin serán componentes clave en la fábrica de IA de NVIDIA.

Una sola chip de Groq tiene solo 500MB de almacenamiento; mientras que una GPU Vera Rubin tendrá 288GB de memoria HBM4.

Un modelo de billones de parámetros, que requiere almacenar todos sus parámetros en chips Groq, necesitará muchos chips para su almacenamiento. Pero si se coloca junto a Vera Rubin, podrá almacenar en ella la enorme caché KV necesaria para sistemas AIGC.

Por ello, NVIDIA ha reestructurado la asignación de recursos para inferencia de IA, asignando las tareas más adecuadas a los chips más adecuados.

En la visión de Huang, partes como la atención en decodificación de modelos, que requieren mucho cálculo, pueden realizarse en Vera Rubin; mientras que la generación de tokens en decodificación puede hacerse en chips Groq.

Mediante una conexión Ethernet especial y estrecha, estas dos plataformas de chips reducirán casi a la mitad la latencia de Alpamayo. Con la ayuda del software Dynamo de NVIDIA para coordinación e integración, la arquitectura Vera Rubin junto con Groq LPU ha mejorado el rendimiento de inferencia en un 35 veces.

02 NemoClaw: referencia comercial de AIOS

«OpenClaw es uno de los proyectos de código abierto más populares en la historia, y en solo unas semanas logró este éxito. Su velocidad de desarrollo incluso superó a Linux en su momento.» Huang mencionó que OpenClaw puede interactuar con cualquier modalidad, entenderla y responder; puede enviarte mensajes, SMS y correos electrónicos. Tiene capacidades completas de entrada y salida.

«OpenClaw ha abierto el sistema operativo para computadoras de agentes inteligentes. Es como cuando Windows nos permitió crear computadoras personales; ahora, OpenClaw nos permite crear agentes inteligentes personales.»

Huang considera que la estrategia más importante para cada empresa, cada CEO de software y tecnología, es: ¿Cuál es tu estrategia OpenClaw?

«Al igual que todos necesitamos una estrategia Linux, HTTP, HTML — que iniciaron la era de Internet; todos necesitamos Kubernetes — que hizo posible la era de la nube móvil. Hoy, cada empresa en el mundo debe tener una estrategia OpenClaw, que es una estrategia de sistemas de agentes.» Esto representa la nueva generación de computadoras.

Él piensa que en el futuro, la forma de trabajar de las empresas, la forma en que las personas trabajan e incluso la forma en que se pagan los salarios cambiarán.

Antes de OpenClaw, el modelo de TI empresarial era «centro de datos», donde en grandes salas y edificios se almacenaban datos, archivos y datos estructurados de la empresa. Los datos fluían a través de herramientas, sistemas de registro y flujos de trabajo en IT, convirtiéndose en herramientas para humanos y trabajadores digitales. En la industria de TI tradicional, las empresas de software crean herramientas, almacenan archivos y los consultores ayudan a integrar y usar esas herramientas.

La estructura futura de las empresas|Fuente: NVIDIA

Pero en la era de OpenClaw y los agentes, cada empresa, cada SaaS, será una «empresa de servicios de agentes» (Agent-as-a-Service, AAS).

Pero hay un problema clave sin resolver: los sistemas de agentes en las redes empresariales pueden acceder a información sensible, ejecutar código y comunicarse externamente. Podrían obtener datos confidenciales como información de empleados, cadenas de suministro y secretos financieros, y transmitir estos datos, generando riesgos de seguridad.

Luego, NVIDIA lanzó su propia solución de referencia OpenClaw: Open NemoClaw.

NemoClaw|Fuente: NVIDIA

Incluye un conjunto completo de herramientas de IA para agentes, con uno de sus componentes clave siendo el módulo OpenShell, que ya está completamente integrado en OpenClaw. Los usuarios pueden descargarlo, usarlo, desarrollarlo y conectarlo con los motores de estrategia de todas las SaaS del mundo.

Además, los usuarios pueden conectar estos motores de estrategia para aplicar políticas de seguridad, configurar cortafuegos, gestionar rutas de privacidad y proteger el entorno interno de la empresa, permitiendo que los agentes operen de forma segura y controlada. Open NemoClaw también soporta que los usuarios creen agentes personalizados con sus propios modelos.

NemoClaw con modelos de NVIDIA en la clasificación de productos similares|Fuente: NVIDIA

Piensa que en Silicon Valley, una de las formas de reclutamiento será: «¿Cuántos tokens incluye este trabajo?»

En el futuro, el salario base de los empleados podría ser de decenas de miles de dólares, y la empresa les pagaría adicionalmente la mitad en tokens, multiplicando su productividad por diez.

Cada empresa de software en el futuro será impulsada por agentes. Serán productores y consumidores de tokens, y también proveedores de tokens para todos sus clientes.

03 IA física: BYD, Geely se unen al círculo de NVIDIA Robotaxi, y Disney presenta a Olaf en escena

Tras hablar de los cambios en la capa de aplicación, Huang cambió el tema hacia la IA física, presentando a su familia de IA física.

La estrategia de NVIDIA en IA física|Fuente: NVIDIA

Actualmente, NVIDIA tiene tres tipos de computadoras: para entrenamiento, para generación de datos sintéticos y simulaciones, y para los sistemas internos de los vehículos autónomos.

También anunció una gran cantidad de nuevos socios. «El momento de ChatGPT para conducción autónoma ya ha llegado. Ahora estamos seguros de que los autos pueden lograr una conducción totalmente automática con éxito.» Huang afirmó.

NVIDIA anunció que sumará cuatro nuevos socios a su plataforma de Robotaxi: BYD, Hyundai, Nissan y Geely. Estas marcas producen en conjunto 18 millones de autos al año. Sumando a socios anteriores como Mercedes, Toyota y GM, la cantidad de vehículos compatibles con Robotaxi será muy significativa. Además, NVIDIA anunció que integrará estos vehículos en las redes operativas de los socios en varias ciudades.

En el futuro, las torres de radio tradicionales se convertirán en estaciones base inteligentes NVIDIA Aerial AI RIM, que funcionarán como «torres de radio para Robotaxi». Las empresas podrán entender el tráfico, ajustar la formación de haces de forma inteligente y ahorrar energía mientras maximizan la fidelidad.

También mencionó que, con Alpamayo, los vehículos ahora tienen capacidades de inferencia para conducir de forma segura e inteligente en diferentes escenarios. Se podrán explicar las decisiones del vehículo y responder a comandos de voz.

Por ejemplo, podemos decirle al coche: «Hey Mercedes, ¿podemos acelerar un poco?» y el vehículo responderá: «Por supuesto, voy a acelerar ahora.» Combinando simulaciones tradicionales y neuronales, generan datos sintéticos en gran escala y entrenan modelos de estrategia.

NVIDIA también desarrolló varias herramientas de código abierto: Isaac Lab para entrenamiento y evaluación en simulación, Newton, un motor de física diferencial acelerado por GPU, Cosmos, un modelo de mundo neuronal, y GR00T, un modelo base de robot de código abierto para inferencia y acción.

Al final del discurso, el robot de Olaf de Frozen subió al escenario, y actualmente Disney entrena a sus robots con simulaciones de NVIDIA. «Uno de mis robots favoritos es el de Disney», afirmó Huang.

Huang y Olaf saludan en GTC|Fuente: NVIDIA

Este año, Huang no solo presentó ideas y slogans, sino un conjunto completo de herramientas prácticas para los emprendedores en IA.

Desde chips de IA, sistemas de agentes, IA física, robots y conducción autónoma, explicó el camino que la industria de IA debe seguir en los próximos años, los problemas más difíciles y los cuellos de botella más dolorosos. Cada empresa y desarrollador puede encontrar su lugar en este nuevo marco.

Desde este año, la IA dejará de ser solo parámetros, potencia de cálculo y narrativa, para convertirse en una tecnología que llega a las empresas y a la práctica real. Quizá no sea solo la victoria de una compañía, sino que la rueda de la IA comience a girar de verdad.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado