Bloomberg の深掘り報道と Google の公式発表によると、Google は 4 月 22 日に正式に自社開発 AI チップのラインナップを拡張した。推論専用 Ironwood(第7世代 TPU)を Google Cloud で全面的に提供し、あわせて Broadcom、MediaTek、Marvell、Intel の4社パートナーとの次世代設計協業も同時に開始する。狙いは、カスタム・チップのサプライチェーンを通じて、AI 計算能力市場における Nvidia の主導的地位に正面から挑戦することだ。
Ironwood:第7世代 TPU、初めて推論向けに設計
Ironwood は Google の TPU シリーズ第7世代製品であり、「訓練と推論の分流」戦略の下で初めて推論専用として設計されたチップだ。Google が明らかにした仕様:単一チップのピーク性能は TPU v5p の 10 倍。192GB HBM3E メモリを搭載し、メモリ帯域は 7.2 TB/s。単一の superpod は 液冷 Ironwood を 9,216 台までスケール可能で、合計 FP8 演算量は 42.5 exaflops。
Google 公式は Ironwood が「Google Cloud の顧客が利用できるよう全面的に開放された」と述べ、今年の出荷量見込みは「100万台」規模だという。Anthropic は最大 100 万枚の Ironwood TPU を採用することを約束している。Meta は「数十億ドルの複数年契約」を締結し、Google Cloud 経由で TPU を利用する。
4社パートナーの分業:訓練は Broadcom、推論は MediaTek
Google の次世代チップ供給チェーンには、明確な分業がある。
パートナー コード名 役割 特長 Broadcom Sunfish 訓練専用 既存の TPU 協業関係を継承し、大規模な訓練ノードを主導 MediaTek(聯発科) Zebrafish 推論専用 Broadcom の案よりコストが 20–30% 低いと主張 Marvell 談判中 メモリ処理ユニット(MPU)+ 追加の推論 TPU。HBM と inference を最適化 Intel 非公開の設計参加。供給チェーンの分散を強化
これは AI 産業で初めての「4社パートナー並行、訓練と推論の分業が明確」なモデルだ。Google は、IP リスクの分散と競争的な価格交渉によって、Nvidia の単一サプライヤーに依存する構造を回避する。ロードマップは 2027 年末までの TPU v8 に拡張され、台積電の 2nm プロセスで製造される。
戦略的意義:挑戦しているのは単一チップではなく、供給チェーン
過去3年、AI チップ市場は Nvidia がほぼ独占しており、CUDA ソフトウェア・エコシステムと H100/GB200 チップによる二重の堀がある。Google の Ironwood と4社パートナーの戦略は、「単一点の仕様で上回る」ことを目標にしているわけではなく、Nvidia が産業で展開してきた「標準化プラットフォーム+複数顧客の調達」というロジックを模倣することが狙いだ——TPU を単に Google 自社利用に留めず、Anthropic、Meta など主要な AI 企業が共有できる商用的な計算能力の選択肢にする。
Anthropic が 100 万枚の TPU を約束した意味は、とりわけ重要だ。これは Nvidia 以外の単一の AI 企業として最大級の計算能力コミットメントであり、Anthropic の 4/20 と Amazon が結んだ 5GW/1000 億 AWS の約束と補完し合う——一方で AWS Trainium に結びつき、他方で Google TPU に結びつく。Anthropic は「二重のカスタム・チップ」戦略で Nvidia への依存を下げる。Meta はまた、初めて TPU を自社の AI 訓練/推論ワークロードに組み込むことを公開し、別のシグナルを形成した。
市場反応と産業の連動
今回の開示以前から聯発科は「Google のカスタム・チップの恩恵を受ける側」と見なされていた。Zebrafish のコード名が明らかになったことで、聯発科が Google の推論チップ設計パートナーとして直接リストアップされたのは初めてだ。これに続いて、直近の AMD × GlobalFoundries によるシリコンフォトニクス、Marvell × Google の MPU による「非 Nvidia チップ連合」というストーリーラインが広がっている。
Nvidia は同時期に GB200 と次世代 Rubin プラットフォームで支えがあるものの、顧客側の計算能力の組み合わせは「全 Nvidia」から「Nvidia + TPU + AWS Trainium」の三本立て並行へと移っている。これは台積電の 2nm の生産能力にとっても意味がある。つまり、Google、Nvidia、Apple、Amazon の4大顧客が行列を作ることになり、半導体受託製造(ファウンドリ)の供給能力をめぐる交渉力が引き続き上がる。
この記事「Google Ironwood TPU:10 倍の性能 + 4社パートナーで Nvidia に対抗」は最初に 鏈新聞 ABMedia に掲載された。
関連記事
Judge Dismisses Fraud Claims in Elon Musk's OpenAI Lawsuit; Case Advances to Trial with Two Remaining Allegations