Com base em uma reportagem aprofundada da Bloomberg e em um anúncio oficial do Google, o Google, em 22 de abril, expandiu oficialmente sua linha de chips de IA desenvolvidos internamente: a TPU Ironwood (7ª geração), dedicada a inferência, passou a ser fornecida em caráter integral no Google Cloud e, simultaneamente, lançou parcerias de design de próxima geração com quatro empresas — Broadcom, MediaTek, Marvell e Intel — com o objetivo de, com uma cadeia de suprimentos de chips customizados, desafiar a posição dominante da Nvidia no mercado de capacidade de IA.
Ironwood: TPU de 7ª geração, primeira feita especificamente para inferência
A Ironwood é o produto de 7ª geração da série de TPUs da Google e o primeiro chip dedicado a inferência no âmbito da estratégia de “divisão entre treinamento e inferência”. As especificações divulgadas pelo Google incluem: desempenho de pico por chip de 10 vezes o da TPU v5p, 192GB de memória HBM3E, largura de banda de memória de 7,2 TB/s, capacidade de um único superpod de escalar até 9.216 unidades de Ironwood resfriadas a líquido, com volume de computação FP8 total de 42,5 exaflops.
O Google afirma oficialmente que a Ironwood já está “totalmente disponível para clientes do Google Cloud usarem”, e que a remessa deste ano deve atingir o nível de “1 milhão de unidades”. A Anthropic se comprometeu a adotar até 1 milhão de TPUs Ironwood; a Meta, por sua vez, assinou um “contrato plurianual de vários bilhões de dólares” para usar TPUs via Google Cloud.
Divisão entre as quatro parceiras: treinamento com a Broadcom, inferência com a MediaTek
A cadeia de suprimentos de chips de próxima geração do Google tem a seguinte divisão clara:
Parceira Código Papel Destaque Broadcom Sunfish Treinamento dedicado Mantém a relação existente de colaboração com TPUs e lidera nós de grande escala de treinamento MediaTek (聯發科) Zebrafish Inferência dedicada Alega ser 20–30% mais barato em custo do que a solução da Broadcom Marvell Em negociações Unidade de Processamento de Memória (MPU) + TPU de inferência adicional, para otimizações em HBM e inference Intel Não divulgado Participação em design Fortalecer a diversificação da cadeia de suprimentos
Este é o primeiro modelo visto na indústria de IA em que “quatro parceiras em paralelo” e “divisão clara entre treinamento e inferência”. Por meio da dispersão do risco de IP e de negociações competitivas, a Google evita a dependência estrutural de um único fornecedor como a Nvidia. O roadmap se estende até o fim de 2027 na TPU v8, a ser produzida no processo de 2nm da TSMC.
Significado da estratégia: desafiar a Nvidia não com um único chip, mas com a cadeia de suprimentos
Nos últimos três anos, o mercado de chips de IA foi quase monopolizado pela Nvidia, com uma dupla barreira de proteção: o ecossistema de software CUDA e os chips H100/GB200. A estratégia da Ironwood da Google e a dos quatro parceiros não tem como alvo “superar em especificações pontuais”, e sim replicar a lógica que a Nvidia estabeleceu na indústria: “plataforma padronizada + compras de vários clientes” — para que as TPUs não sejam apenas para uso interno da Google, mas uma opção de capacidade computacional comercial que pode ser compartilhada por grandes empresas de IA como Anthropic e Meta.
O significado do compromisso da Anthropic com 1 milhão de TPUs é especialmente crucial: é a maior promessa de capacidade computacional por uma única empresa de IA fora da Nvidia. Isso se complementa com os compromissos de 5GW/US$ 10 bilhões da Anthropic, anunciados em 4/20, e da Amazon — de um lado, atrelando-se ao AWS Trainium; de outro, atrelando-se ao Google TPU. Com a estratégia de “dois chips customizados”, a Anthropic reduz a dependência da Nvidia. A Meta, por sua vez, foi a primeira a tornar público que incorporaria TPUs em suas próprias cargas de trabalho de treinamento/inferência de IA, criando outro sinal.
Reação do mercado e ligação com a indústria
A MediaTek já era vista antes desta revelação como uma “beneficiária de chips customizados da Google”, e a exposição do código Zebrafish foi a primeira vez em que a MediaTek foi listada diretamente como parceira de design de chips de inferência da Google. Isso amplia a narrativa de “aliança de chips não-Nvidia”, envolvendo recentemente a linha AMD × GlobalFoundries de silício-fotônica e Marvell × Google MPU.
A Nvidia, no mesmo período, ainda tem suporte de GB200 e do próximo platform Rubin, mas a composição de capacidade computacional do lado dos clientes está saindo de “somente Nvidia” para a via tripla “Nvidia + TPU + AWS Trainium”. Isso também significa que a capacidade da TSMC em 2nm terá clientes — Google, Nvidia, Apple e Amazon — na fila, elevando continuamente o poder de negociação nas negociações de fundição.
Este artigo “Google Ironwood TPU: 10x de desempenho + quatro parceiros contra a Nvidia” foi publicado pela primeira vez em 鏈新聞 ABMedia.
Related Articles
OpenAI lança GPT-5.5: contexto de 12M, índice AA em primeiro lugar, Terminal-Bench 82,7% reescreve o benchmark de agentes
Cluster Protocol Capta $5M para Acelerar o CodeXero, IDE de IA Nativa do Navegador para EVM
Nvidia Expande Parcerias de IA no Reino Unido, China e Setor Automotivo Diante de Desafios na Cadeia de Suprimentos
A Anthropic revela que o Claude Code tem três bugs em cascata: degradação do raciocínio, esquecimento de cache e instruções de 25 caracteres com efeito colateral adverso
A Casa Branca acusa a China de roubo de um modelo de IA em “escala industrial”
OpenClaw 2026.4.22 Unifica o Ciclo de Vida do Plugin entre os Harnesses do Codex e do Pi, Reduz o Tempo de Carregamento do Plugin em Até 90%