Google Ironwood TPU: 10 veces el rendimiento + cuatro socios para competir contra Nvidia

Según los informes en profundidad de Bloomberg y el anuncio oficial de Google, Google amplió oficialmente su cartera de chips de IA el 22 de abril: el chip especializado en inferencia Ironwood (TPU de séptima generación) se suministra en forma integral a través de Google Cloud, y al mismo tiempo se puso en marcha la colaboración de próxima generación con cuatro socios: Broadcom, MediaTek, Marvell e Intel. El objetivo es desafiar de forma positiva la posición dominante de Nvidia en el mercado de cómputo de IA mediante una cadena de suministro de chips a medida.

Ironwood: TPU de séptima generación, diseñada por primera vez para inferencia

Ironwood es el producto de séptima generación de la serie TPU de Google y también el primer chip especializado en inferencia bajo la estrategia de “separación entre entrenamiento e inferencia”. Las especificaciones divulgadas por Google: el rendimiento pico por chip es 10 veces el de TPU v5p, con 192GB de memoria HBM3E, un ancho de banda de memoria de 7.2 TB/s; un único superpod puede ampliarse hasta 9,216 chips Ironwood enfriados por líquido, y el cómputo total en FP8 alcanza 42.5 exaflops.

Google afirma oficialmente que Ironwood ya está “disponible en su totalidad para que los clientes de Google Cloud lo usen”. Para este año, el volumen de envíos se prevé en el nivel de “millones de unidades”. Anthropic se ha comprometido a adoptar hasta 1 millón de chips Ironwood TPU; Meta, en cambio, firmó un contrato multianual de “miles de millones de dólares” para usar TPU mediante Google Cloud.

División del trabajo entre cuatro socios: entrenamiento a cargo de Broadcom, inferencia a cargo de MediaTek

La cadena de suministro de chips de próxima generación de Google se divide de manera clara de la siguiente forma:

Socio Código Rol Característica Broadcom Sunfish Entrenamiento especializado Da continuidad a la relación de colaboración existente con TPU y lidera nodos de entrenamiento a gran escala MediaTek (聯發科) Zebrafish Inferencia especializada Afirma que el costo es 20–30% menor que la solución de Broadcom Marvell En negociaciones Unidad de procesamiento de memoria (MPU) + TPU adicional para inferencia Optimización para HBM e inference Intel No divulgado Participación en el diseño para fortalecer la diversificación de la cadena de suministro

Este es el primer modelo en la industria de la IA de “participación en paralelo de cuatro socios, con división explícita entre entrenamiento e inferencia”. Google evita la dependencia estructural de un único proveedor como Nvidia mediante la dispersión del riesgo de IP y la negociación de precios competitiva. El roadmap se extiende hasta finales de 2027 con el TPU v8, que se producirá en el proceso de 2nm de TSMC.

Significado estratégico: no es un solo chip lo que desafía a Nvidia, sino la cadena de suministro

En los últimos tres años, el mercado de chips de IA ha estado casi monopolizado por Nvidia, con una doble muralla defensiva: el ecosistema de software CUDA y los chips H100/GB200. La estrategia de Ironwood de Google y la de los cuatro socios no busca “superar una especificación puntual” como objetivo, sino replicar la lógica de Nvidia en la industria: “plataforma estandarizada + compra de múltiples clientes”, de modo que la TPU no sea solo para uso interno de Google, sino una opción de cómputo comercial que también puedan compartir principales compañías de IA como Anthropic y Meta.

El compromiso de Anthropic de 1 millón de chips TPU es especialmente clave: se trata de la mayor promesa de cómputo de una sola empresa de IA fuera de Nvidia. Además, complementa los acuerdos de 5GW/10 mil millones de AWS en la línea de compromisos de 4/20 de Anthropic y Amazon: por un lado, se vincula a AWS Trainium; por el otro, se vincula a Google TPU. Con la estrategia de “doble chip a medida”, Anthropic reduce la dependencia de Nvidia. Meta, a su vez, es la primera empresa en hacer público que incorpora TPU en sus cargas de trabajo de entrenamiento/inferencia de IA, generando otra señal.

Reacción del mercado y conexión con la industria

Antes de esta revelación, MediaTek ya era considerada como “beneficiaria de chips personalizados de Google”. La exposición del código Zebrafish fue la primera vez que coloca directamente a MediaTek como socio de diseño de chips de inferencia de Google. Esto extiende la narrativa reciente de la “alianza no-Nvidia”, con el enfoque de AMD × GlobalFoundries en fotónica de silicio y Marvell × Google en MPU.

Nvidia todavía cuenta con el soporte de GB200 y la plataforma de próxima generación Rubin en el mismo periodo, pero la combinación de cómputo del lado del cliente está pasando de “todo Nvidia” a un enfoque de tres vías en paralelo: “Nvidia + TPU + AWS Trainium”. Esto también implica que la capacidad de 2nm de TSMC significará que Google, Nvidia, Apple y Amazon estén haciendo fila como grandes clientes, y que la fuerza de negociación sobre el suministro de foundry seguirá aumentando.

Este artículo “Google Ironwood TPU: 10 veces el rendimiento + cuatro socios para enfrentar a Nvidia” apareció por primera vez en Cadena News ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

La API DeepSeek V4-Pro obtiene un 75% de descuento hasta el 5 de mayo; el precio de salida baja a $0.87 por cada millón de tokens

Mensaje de Gate News, 26 de abril — DeepSeek anunció un descuento del 75% por tiempo limitado en los precios de la API V4-Pro, válido hasta el 5 de mayo a las 15:59 UTC. Después del descuento, los precios por cada millón de tokens son: caché de entrada con aciertos $0.03625

GateNewsHace30m

Anthropic implementa salvaguardas electorales para Claude antes de las elecciones legislativas de mitad de mandato de 2026

Anthropic anunció el viernes un conjunto de medidas de integridad electoral diseñadas para evitar que su chatbot de IA Claude sea utilizado como arma para difundir desinformación o manipular a los votantes antes de las elecciones legislativas de mitad de período de EE. UU. de 2026 y otros grandes comicios en todo el mundo este año. Con sede en San Francisco,

CryptoFrontierhace5h

DeepRoute.ai sistema avanzado de asistencia a la conducción supera las 300.000 unidades desplegadas: objetivo 2026 de 1.000.000 flotas urbanas NOA

DeepRoute.ai anuncia que su avanzado sistema de asistencia para conducción ha acumulado más de 300.000 vehículos desplegados en China, y que durante el último año ha ayudado a evitar más de 180.000 incidentes potenciales. El objetivo para 2026 es alcanzar un parque de NOA para ciudades de 1 millón de vehículos, con una utilización superior al 50%, lo que se considera clave para la comercialización a gran escala de Robotaxi. Esta medida muestra que la conducción autónoma en China ya ha entrado en un uso normalizado, al tiempo que crea una división con la ruta de integración vertical que sigue Estados Unidos, lo que afecta la cronología de la cadena de suministro en Asia-Pacífico.

ChainNewsAbmediahace7h

DeepSeek lanza los modelos V4-Pro y V4-Flash con un costo un 98% menor que el GPT-5.5 Pro de OpenAI

Mensaje de Gate News, 25 de abril — DeepSeek lanzó versiones de vista previa de V4-Pro y V4-Flash el 24 de abril, ambos modelos de código abierto con ventanas de contexto de un millón de tokens. V4-Pro presenta 1,6 billones de parámetros totales, pero activa solo 49 mil millones por pasada de inferencia usando una arquitectura Mixture-of-Experts.

GateNewshace12h

El juez desestima las acusaciones de fraude en la demanda de Elon Musk contra OpenAI; el caso avanza a juicio con dos acusaciones restantes

Mensaje de Gate News, 24 de abril — Un juez federal ha desestimado las acusaciones de fraude de la demanda de Elon Musk contra OpenAI, Sam Altman, Greg Brockman y Microsoft, despejando el camino para que el caso avance a juicio con dos acusaciones restantes: incumplimiento de la confianza caritativa y enriquecimiento injusto. EE. UU.

GateNewshace15h

El CEO de OpenAI, Sam Altman, se disculpa por no reportar a la policía la cuenta prohibida del agresor de una escuela

Mensaje de Gate News, 25 de abril — El director ejecutivo de OpenAI, Sam Altman, se disculpó con la comunidad de Tamborine en Canadá por el fallo de la empresa al no notificar a la policía sobre una cuenta prohibida vinculada a Jesse Van Rootselaar, quien mató a ocho personas en una escuela en febrero antes de quitarse la vida. OpenAI

GateNewshace16h
Comentar
0/400
Sin comentarios