Google Ironwood TPU: 10x de desempenho + quatro parceiros contra a Nvidia

ChainNewsAbmedia

Com base em uma reportagem aprofundada da Bloomberg e em um anúncio oficial do Google, o Google, em 22 de abril, expandiu oficialmente sua linha de chips de IA desenvolvidos internamente: a TPU Ironwood (7ª geração), dedicada a inferência, passou a ser fornecida em caráter integral no Google Cloud e, simultaneamente, lançou parcerias de design de próxima geração com quatro empresas — Broadcom, MediaTek, Marvell e Intel — com o objetivo de, com uma cadeia de suprimentos de chips customizados, desafiar a posição dominante da Nvidia no mercado de capacidade de IA.

Ironwood: TPU de 7ª geração, primeira feita especificamente para inferência

A Ironwood é o produto de 7ª geração da série de TPUs da Google e o primeiro chip dedicado a inferência no âmbito da estratégia de “divisão entre treinamento e inferência”. As especificações divulgadas pelo Google incluem: desempenho de pico por chip de 10 vezes o da TPU v5p, 192GB de memória HBM3E, largura de banda de memória de 7,2 TB/s, capacidade de um único superpod de escalar até 9.216 unidades de Ironwood resfriadas a líquido, com volume de computação FP8 total de 42,5 exaflops.

O Google afirma oficialmente que a Ironwood já está “totalmente disponível para clientes do Google Cloud usarem”, e que a remessa deste ano deve atingir o nível de “1 milhão de unidades”. A Anthropic se comprometeu a adotar até 1 milhão de TPUs Ironwood; a Meta, por sua vez, assinou um “contrato plurianual de vários bilhões de dólares” para usar TPUs via Google Cloud.

Divisão entre as quatro parceiras: treinamento com a Broadcom, inferência com a MediaTek

A cadeia de suprimentos de chips de próxima geração do Google tem a seguinte divisão clara:

Parceira Código Papel Destaque Broadcom Sunfish Treinamento dedicado Mantém a relação existente de colaboração com TPUs e lidera nós de grande escala de treinamento MediaTek (聯發科) Zebrafish Inferência dedicada Alega ser 20–30% mais barato em custo do que a solução da Broadcom Marvell Em negociações Unidade de Processamento de Memória (MPU) + TPU de inferência adicional, para otimizações em HBM e inference Intel Não divulgado Participação em design Fortalecer a diversificação da cadeia de suprimentos

Este é o primeiro modelo visto na indústria de IA em que “quatro parceiras em paralelo” e “divisão clara entre treinamento e inferência”. Por meio da dispersão do risco de IP e de negociações competitivas, a Google evita a dependência estrutural de um único fornecedor como a Nvidia. O roadmap se estende até o fim de 2027 na TPU v8, a ser produzida no processo de 2nm da TSMC.

Significado da estratégia: desafiar a Nvidia não com um único chip, mas com a cadeia de suprimentos

Nos últimos três anos, o mercado de chips de IA foi quase monopolizado pela Nvidia, com uma dupla barreira de proteção: o ecossistema de software CUDA e os chips H100/GB200. A estratégia da Ironwood da Google e a dos quatro parceiros não tem como alvo “superar em especificações pontuais”, e sim replicar a lógica que a Nvidia estabeleceu na indústria: “plataforma padronizada + compras de vários clientes” — para que as TPUs não sejam apenas para uso interno da Google, mas uma opção de capacidade computacional comercial que pode ser compartilhada por grandes empresas de IA como Anthropic e Meta.

O significado do compromisso da Anthropic com 1 milhão de TPUs é especialmente crucial: é a maior promessa de capacidade computacional por uma única empresa de IA fora da Nvidia. Isso se complementa com os compromissos de 5GW/US$ 10 bilhões da Anthropic, anunciados em 4/20, e da Amazon — de um lado, atrelando-se ao AWS Trainium; de outro, atrelando-se ao Google TPU. Com a estratégia de “dois chips customizados”, a Anthropic reduz a dependência da Nvidia. A Meta, por sua vez, foi a primeira a tornar público que incorporaria TPUs em suas próprias cargas de trabalho de treinamento/inferência de IA, criando outro sinal.

Reação do mercado e ligação com a indústria

A MediaTek já era vista antes desta revelação como uma “beneficiária de chips customizados da Google”, e a exposição do código Zebrafish foi a primeira vez em que a MediaTek foi listada diretamente como parceira de design de chips de inferência da Google. Isso amplia a narrativa de “aliança de chips não-Nvidia”, envolvendo recentemente a linha AMD × GlobalFoundries de silício-fotônica e Marvell × Google MPU.

A Nvidia, no mesmo período, ainda tem suporte de GB200 e do próximo platform Rubin, mas a composição de capacidade computacional do lado dos clientes está saindo de “somente Nvidia” para a via tripla “Nvidia + TPU + AWS Trainium”. Isso também significa que a capacidade da TSMC em 2nm terá clientes — Google, Nvidia, Apple e Amazon — na fila, elevando continuamente o poder de negociação nas negociações de fundição.

Este artigo “Google Ironwood TPU: 10x de desempenho + quatro parceiros contra a Nvidia” foi publicado pela primeira vez em 鏈新聞 ABMedia.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

OpenAI lança GPT-5.5: contexto de 12M, índice AA em primeiro lugar, Terminal-Bench 82,7% reescreve o benchmark de agentes

A OpenAI anunciou o GPT-5.5, com foco em trabalho orientado por agentes e processamento de conhecimento empresarial, e também lançou em sincronia no ChatGPT e no Codex. Os principais pontos incluem uma janela de contexto de 1200 milhões de tokens, AA Intelligence Index 60, superando o Claude Opus em 4,7 e o Gemini 3,1 Pro; os preços são de 5 dólares por 1 milhão de tokens de entrada e 30 dólares por 1 milhão de tokens de saída, com redução de tokens de saída de aproximadamente 40%, e custo real aumentando aproximadamente 20%.

ChainNewsAbmedia31m atrás

Cluster Protocol Capta $5M para Acelerar o CodeXero, IDE de IA Nativa do Navegador para EVM

Mensagem do Gate News, 23 de abril — O Cluster Protocol, uma empresa de infraestrutura Web3 e deeptech em IA, anunciou que captou $5 milhões em uma nova rodada de financiamento liderada pela DAO5, com participação da Paper Ventures, JPEG Trading e Mapleblock Capital, elevando o financiamento total para US$ 7,75 milhões. O capital wi

GateNews43m atrás

Nvidia Expande Parcerias de IA no Reino Unido, China e Setor Automotivo Diante de Desafios na Cadeia de Suprimentos

Mensagem do Gate News, 23 de abril — Apesar da concorrência do Google e das interrupções na cadeia de suprimentos, a Nvidia continua sendo a principal empresa no setor de hardware de IA. A TD Cowen reafirmou sua recomendação de compra para a Nvidia na quinta-feira, citando a liderança da empresa em desempenho e a amplitude do ecossistema de software. A recomendação

GateNews44m atrás

A Anthropic revela que o Claude Code tem três bugs em cascata: degradação do raciocínio, esquecimento de cache e instruções de 25 caracteres com efeito colateral adverso

A Anthropic publica três falhas do Claude Code em sobreposição: de 3/4–4/7, o nível de raciocínio foi reduzido para medium, causando atrasos na resposta e fazendo com que pareça mais “burro”; de 3/26–4/10, erros na limpeza de cache causaram esquecimento em conversas longas; de 4/16–4/20, foi adicionado um comando de chamada de ferramenta “dentro de 25 caracteres”, que depois foi revertido em 4/20. Foram afetados o Claude Code, Agent SDK e Cowork; os modelos são Sonnet 4.6 e Opus 4.6/4.7; a API não foi afetada. Em 4/23, foi redefinido o uso e reforçada a avaliação e a detecção de regressão.

ChainNewsAbmedia2h atrás

A Casa Branca acusa a China de roubo de um modelo de IA em “escala industrial”

A Casa Branca alertou em 23 de abril de 2026 que entidades estrangeiras, principalmente na China, estão conduzindo campanhas em “escala industrial” para copiar modelos de inteligência artificial americanos, de acordo com um memorando de Michael Kratsios, Assessor de

CryptoFrontier4h atrás

OpenClaw 2026.4.22 Unifica o Ciclo de Vida do Plugin entre os Harnesses do Codex e do Pi, Reduz o Tempo de Carregamento do Plugin em Até 90%

Mensagem do Gate News, 23 de abril — OpenClaw, uma plataforma de agentes de IA de código aberto, lançou a versão 2026.4.22 em 22 de abril, com sua maior mudança sendo o alinhamento dos ciclos de vida do harness do Codex e do harness do Pi. Antes, os plugins se comportavam de forma inconsistente entre os dois caminhos do harness, com alguns hooks faltando em certos ambientes.

GateNews5h atrás
Comentário
0/400
Sem comentários