Google Ironwood TPU: desempenho 10x + quatro parceiros a enfrentar a Nvidia

Com base em reportagens aprofundadas da Bloomberg e em anúncios oficiais da Google, a Google expandiu oficialmente o seu portefólio de chips de IA próprios no dia 22 de abril: o Ironwood, dedicado à inferência (7.ª geração de TPU), está agora em fornecimento total no Google Cloud, e em simultâneo foi lançada a colaboração de próxima geração com quatro parceiros — Broadcom, MediaTek, Marvell e Intel — com o objetivo de, através de uma cadeia de fornecimento de chips personalizados, desafiar de forma positiva a posição dominante da Nvidia no mercado de capacidade de computação em IA.

Ironwood: 7.ª geração de TPU, primeira vez concebida especificamente para inferência

O Ironwood é o produto de 7.ª geração da série de TPU da Google e o primeiro chip dedicado à inferência no âmbito da estratégia de “separação treino/inferência”. As especificações divulgadas pela Google: desempenho de ponta por chip 10 vezes superior ao do TPU v5p, com 192GB de memória HBM3E, largura de banda de memória até 7,2 TB/s, um superpod pode ser expandido até 9.216 unidades de Ironwood arrefecidas a líquido e, no total, a capacidade de computação FP8 atinge 42,5 exaflops.

A Google diz oficialmente que o Ironwood já está “totalmente disponível para clientes do Google Cloud” e que, este ano, as remessas deverão atingir o patamar de “um milhão de unidades”. A Anthropic já se comprometeu a adotar até 1 milhão de Ironwood TPU, enquanto a Meta assinou um acordo multianual de “dezenas de milhares de milhões de dólares” para utilizar TPU através do Google Cloud.

Repartição entre os quatro parceiros: treino fica com a Broadcom, inferência fica com a MediaTek

A cadeia de fornecimento de chips de próxima geração da Google tem a seguinte divisão clara:

Parceiro Código Papel Característica Broadcom Sunfish Treino dedicado Dá continuidade à relação de colaboração existente com TPU, lidera nós de treino de grande escala MediaTek (联发科) Zebrafish Inferência dedicada Afirma ser 20–30% mais barato em custos do que a solução da Broadcom Marvell Em negociação Unidade de processamento de memória (MPU) + TPU de inferência adicional para otimizações de HBM e inference Intel Não divulgado Participação no desenho para reforçar a dispersão da cadeia de fornecimento

Trata-se da primeira vez, na indústria de IA, que se vê o modelo de “quatro parceiros em paralelo, divisão de trabalho explícita entre treino e inferência”. A Google, ao dispersar riscos de IP e ao negociar preços perante a concorrência, evita a dependência estrutural de um único fornecedor como a Nvidia. O roadmap estende-se até ao final de 2027, com o TPU v8, a ser produzido no processo de 2nm da TSMC.

Significado estratégico: o que a Google está a desafiar não é um único chip, é a cadeia de fornecimento

Nos últimos três anos, o mercado de chips de IA tem sido quase monopolizado pela Nvidia, com a ecossistema de software CUDA e a dupla muralha formada pelos chips H100/GB200. A estratégia do Ironwood da Google e dos quatro parceiros não tem como objetivo “ultrapassar um requisito específico” em termos isolados, mas sim replicar a lógica da Nvidia na indústria — “plataforma padronizada + compras por múltiplos clientes” — para que as TPU não sejam apenas para uso próprio da Google, mas uma opção de capacidade de computação comercial que pode ser partilhada por principais empresas de IA como Anthropic e Meta.

O significado do compromisso da Anthropic de 1 milhão de TPU é particularmente crítico: trata-se do maior compromisso de capacidade de computação de uma única empresa de IA fora da Nvidia. E complementa-se com os compromissos da Anthropic 4/20 e com a Amazon ao alcançar 5GW/100 mil milhões de dólares em AWS — de um lado, a ligação ao AWS Trainium; do outro, a ligação às TPU da Google. A Anthropic reduz a dependência da Nvidia com uma estratégia de “dois chips personalizados”. A Meta, por sua vez, é a primeira empresa a incluir publicamente as TPU nos seus próprios workloads de treino/inferência de IA, criando mais um sinal.

Reação do mercado e ligação com a indústria

A MediaTek já era vista, antes desta divulgação, como “beneficiária de chips personalizados da Google”, e a exposição do código Zebrafish é a primeira vez que a MediaTek é listada diretamente como parceira de conceção de chips de inferência da Google. Esta extensão segue a linha narrativa recente da “aliança não-Nvidia”: AMD × GlobalFoundries para fotónica em silício e Marvell × Google para MPU.

A Nvidia, no mesmo período, ainda tem suporte do GB200 e da plataforma Rubin de próxima geração, mas a combinação de capacidade do lado do cliente está a passar de “total Nvidia” para a operação em três vias “Nvidia + TPU + AWS Trainium”. Isto também significa que, para a capacidade da TSMC em 2nm, Google, Nvidia, Apple e Amazon estão todas em fila, elevando continuamente o poder negocial do produtor por contrato de foundry.

Este artigo “Google Ironwood TPU: 10 vezes o desempenho + quatro parceiros a enfrentar a Nvidia” apareceu pela primeira vez em 鏈新聞 ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

A Anthropic Implementa Salvaguardas Eleitorais para o Claude Antes das Eleições Gerais de 2026

A Anthropic anunciou na sexta-feira um conjunto de medidas de integridade eleitoral concebidas para impedir que o seu chatbot de IA Claude seja usado como arma para espalhar desinformação ou manipular eleitores antes das eleições legislativas intercalares dos EUA de 2026 e de outras grandes contendas a nível mundial este ano. A sede da San Francisco-based

CryptoFrontier5h atrás

DeepRoute.ai Sistema avançado de assistência à condução supera o avanço de 300 000 veículos: Objetivo de 2026: uma frota de 1 milhão de veículos NOA da cidade

DeepRoute.ai anuncia que o seu avançado sistema de assistência à condução já foi implantado em mais de 300.000 veículos na China, tendo evitado mais de 180.000 potenciais incidentes ao longo do ano passado. A meta para 2026 é atingir 1 milhão de veículos na frota de NOA urbana, com uma utilização superior a 50%, sendo considerado um fator-chave para a comercialização em larga escala do Robotaxi. Este movimento mostra que a condução autónoma na China entrou numa utilização normalizada, ao mesmo tempo que cria uma distinção em relação ao percurso de integração vertical com os EUA, afetando o calendário da cadeia de abastecimento na Ásia-Pacífico.

ChainNewsAbmedia6h atrás

DeepSeek lança os modelos V4-Pro e V4-Flash a um custo 98% inferior ao do GPT-5.5 Pro da OpenAI

Notícias Gate, 25 de abril — A DeepSeek lançou versões de pré-visualização de V4-Pro e V4-Flash a 24 de abril, ambos modelos open-weight com janelas de contexto de um milhão de tokens. O V4-Pro tem 1,6 triliões de parâmetros no total, mas activa apenas 49 mil milhões por passagem de inferência utilizando uma arquitectura Mixture-of-Experts.

GateNews11h atrás

Juiz rejeita alegações de fraude no processo de Elon Musk contra a OpenAI; caso avança para julgamento com duas alegações remanescentes

Notícias do Gate, 24 de abril — Um juiz federal indeferiu as acusações de fraude do processo de Elon Musk contra a OpenAI, Sam Altman, Greg Brockman e a Microsoft, abrindo caminho para que o caso avance para julgamento com base em duas alegações que permanecem: violação de confiança fiduciária de caráter beneficente e enriquecimento sem causa. EUA.

GateNews14h atrás

O CEO da OpenAI, Sam Altman, pede desculpa por não ter denunciado às autoridades a conta banida do atirador da escola

Mensagem do Gate News, 25 de abril — O director executivo da OpenAI, Sam Altman, pediu desculpa à comunidade de Tamborine, no Canadá, pela falha da empresa em notificar a polícia sobre uma conta banida associada a Jesse Van Rootselaar, que matou oito pessoas numa escola em fevereiro antes de tirar a própria vida. OpenAI

GateNews15h atrás

Os EAU Anunciam uma Mudança Para um Modelo de Governo Baseado em IA nos Próximos Dois Anos

Sua Alteza o Sheikha Mohammed bin Rashid Al Maktoum afirmou que o objectivo era fazer com que 50% dos sectores do governo operassem através de IA agentic autónoma. A transição irá também incluir a formação dos funcionários federais para “dominar a IA” e será supervisionada por Sheikh Mansour bin Zayed. Principais Conclusões:

Coinpedia15h atrás
Comentar
0/400
Nenhum comentário