Google Ironwood TPU:Performa 10x + Empat mitra untuk menantang Nvidia

ChainNewsAbmedia

Berdasarkan laporan mendalam Bloomberg dan pengumuman resmi Google, pada 22 April Google secara resmi memperluas jajaran chip AI buatannya: Ironwood yang khusus untuk komputasi inferensi (TPU generasi ketujuh) kini tersedia secara penuh di Google Cloud, sekaligus meluncurkan kerja sama desain generasi berikutnya dengan empat mitra—Broadcom, MediaTek, Marvell, dan Intel. Tujuannya adalah menantang posisi dominan Nvidia di pasar komputasi AI melalui rantai pasokan chip yang disesuaikan.

Ironwood: TPU generasi ketujuh, pertama kali dirancang khusus untuk inferensi

Ironwood merupakan produk generasi ketujuh dari rangkaian TPU milik Google, dan juga chip khusus inferensi pertama di bawah strategi “pemisahan pelatihan dan inferensi.” Spesifikasi yang diungkapkan Google: kinerja puncak per chip untuk TPU v5p adalah 10 kali lipat, dilengkapi memori 192GB HBM3E, lebar pita memori mencapai 7,2 TB/s, satu superpod dapat diskalakan hingga 9.216 unit Ironwood berpendingin cair (liquid-cooled), dengan total beban komputasi FP8 mencapai 42,5 exaflops.

Google secara resmi menyatakan Ironwood kini telah “dibuka sepenuhnya untuk pelanggan Google Cloud agar dapat digunakan,” dan perkiraan jumlah pengiriman tahun ini mencapai level “jutaan unit.” Anthropic telah berkomitmen menggunakan hingga 1 juta unit Ironwood TPU, sementara Meta menandatangani “kontrak multi-tahun bernilai miliaran dolar” untuk menggunakan TPU melalui Google Cloud.

Pembagian tugas empat mitra: pelatihan ke Broadcom, inferensi ke MediaTek

Rantai pasokan chip generasi berikutnya dari Google dibagi dengan jelas sebagai berikut:

Mitra Kode Peran Keunggulan Broadcom Sunfish Pelatihan khusus Melanjutkan kerja sama TPU yang sudah ada, memimpin node pelatihan skala besar MediaTek (聯發科) Zebrafish Khusus inferensi Mengklaim biaya 20–30% lebih rendah dibanding solusi Broadcom Marvell Dalam tahap negosiasi Unit pemrosesan memori (MPU) + tambahan TPU inferensi untuk optimalisasi HBM dan inference Intel Tidak dipublikasikan Ikut berperan dalam desain, memperkuat diversifikasi rantai pasokan

Ini adalah model pertama yang terlihat di industri AI: “empat mitra berjalan paralel, dengan pembagian tugas pelatihan-inferensi yang jelas.” Google menghindari ketergantungan struktural pada satu vendor tunggal seperti Nvidia melalui penyebaran risiko IP dan strategi tawar-menawar dengan pihak kompetitor. Peta jalan berlanjut hingga akhir 2027 untuk TPU v8, yang akan diproduksi menggunakan proses 2nm TSMC.

Makna strategis: yang ditantang bukan chip tunggal, melainkan rantai pasokan

Dalam tiga tahun terakhir, pasar chip AI hampir didominasi sepenuhnya oleh Nvidia, dengan ekosistem perangkat lunak CUDA dan dua lapis parit pertahanan berupa chip H100/GB200. Strategi Ironwood Google dan empat mitranya bukan bertujuan “melampaui” spesifikasi di satu titik, melainkan meniru logika industri Nvidia: “platform terstandarisasi + pembelian oleh banyak pelanggan”—agar TPU tidak hanya dipakai sendiri oleh Google, tetapi menjadi opsi komputasi berorientasi komersial yang bisa digunakan bersama oleh perusahaan AI utama seperti Anthropic dan Meta.

Makna komitmen 1 juta TPU dari Anthropic sangatlah krusial: ini adalah komitmen kapasitas komputasi terbesar dari satu perusahaan AI selain Nvidia. Komitmen tersebut saling melengkapi dengan kesepakatan 5GW/100 miliar AWS yang dicapai pada 4/20 Anthropic dan Amazon—di satu sisi terikat pada AWS Trainium, di sisi lain terikat pada Google TPU. Anthropic menurunkan ketergantungan pada Nvidia melalui strategi “dual chip kustom.” Meta juga untuk pertama kalinya secara terbuka memasukkan TPU ke dalam beban kerja pelatihan/inferensi AI mereka sendiri, membentuk sinyal lain.

Respons pasar dan keterkaitan industri

Sebelum pengungkapan kali ini, MediaTek telah dipandang sebagai “penerima manfaat chip kustom Google,” dan pengungkapan kode Zebrafish untuk pertama kalinya secara langsung menempatkan MediaTek sebagai mitra desain chip inferensi Google. Ini memperpanjang narasi “aliansi chip non-Nvidia” yang terkait baru-baru ini: AMD × GlobalFoundries (silikon fotonik) serta Marvell × Google (MPU).

Nvidia pada periode yang sama masih didukung oleh GB200 dan platform Rubin generasi berikutnya, tetapi kombinasi komputasi pada sisi pelanggan sedang bergeser dari “sepenuhnya Nvidia” menjadi paralel tiga jalur: Nvidia + TPU + AWS Trainium. Hal ini juga berarti kapasitas produksi 2nm TSMC makin ramai diperebutkan: empat pelanggan besar—Google, Nvidia, Apple, dan Amazon—antri, dan daya tawar pasokan untuk pembuatan wafer (foundry) terus meningkat.

Artikel Google Ironwood TPU: 10 kali kinerja + empat mitra melawan Nvidia pertama kali muncul di Lian News ABMedia.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.

Artikel Terkait

OpenAI's Greg Brockman: AI Shifting from Chat to Autonomous Task Execution

Gate News message, April 27 — Greg Brockman, president and co-founder of OpenAI, says the next wave of artificial intelligence will move users from chatting with AI bots to assigning real-world tasks. This shift requires enterprises to rethink operational workflows and establish new protocols for se

GateNews5menit yang lalu

B.AI Meningkatkan Infrastruktur, Meluncurkan Fitur Keahlian Utama

Pesan Berita Gate, 27 April — B.AI mengumumkan berbagai kemajuan produk dan ekosistem minggu ini. Halaman pendaratan BAIclaw menerima perombakan total dari segi visual dan interaksi, dengan dukungan multibahasa situs web diperluas hingga 10 bahasa, sehingga memperkuat kegunaan globalnya. Dalam hal infrastruktur

GateNews19menit yang lalu

Beijing menerapkan larangan perdagangan menuntut pencabutan transaksi! Meta menggagalkan rencana akuisisi perusahaan rintisan AI China, Manus, senilai 2 miliar dolar AS

Komisi Pembangunan dan Reformasi Nasional Tiongkok hari ini (27 April) secara resmi merilis pengumuman bahwa kantor mekanisme peninjauan keamanan investasi asing “secara sah dan sesuai peraturan mengambil keputusan melarang investasi terhadap akuisisi proyek Manus oleh modal asing, serta meminta pihak terkait untuk membatalkan transaksi akuisisi tersebut”. Ini adalah salah satu dari sedikit kasus sejak penerapan “Peraturan Peninjauan Keamanan Investasi Asing” Tiongkok yang menggunakan tingkat penanganan tertinggi untuk melakukan tindakan “melarang investasi” dan meminta agar transaksi yang sudah terjadi dibatalkan. Meta menggelontorkan 2 miliar dolar AS, membeli aplikasi AI termurah Waktunya kembali ke 29 Desember 2025. Meta mengumumkan akuisisi startup AI agen baru Manus di Tiongkok, dan pasar memperkirakan harga berada di kisaran 2 hingga 3 miliar dolar AS. Manus adalah AI umum yang dikembangkan oleh Beijing Butterfly Effect Technology Development, setelah diluncurkan pada 6 Maret 2025, karena performa yang menonjol dalam benchmark GAIA, dalam semalam

ChainNewsAbmedia33menit yang lalu

Saham IPO Xizhi Technology-P Melonjak Lebih dari 360% di Pasar Gelap, Kenaikan Menyempit hingga 320%

Gate News pesan, 27 April — Xizhi Technology-P (01879.HK), sebuah perusahaan chip AI yang terdaftar di Hong Kong, melihat sahamnya melonjak lebih dari 360% di pasar gelap (dark market) lebih awal hari ini, meskipun kenaikannya sejak itu menyempit menjadi 320%. Saham tersebut diperdagangkan menjelang pencatatan IPO resmi Hong Kong

GateNews45menit yang lalu

Tingkatkan produktivitas dengan AI atau turunkan biaya? Efisiensi seratus kali lipat tidak menghasilkan pendapatan seratus kali lipat, tetapi di Silicon Valley tidak ada yang berani mengatakannya untuk dihentikan

Mitra di Fiveyuan Capital, Meng Xing, baru-baru ini menerbitkan laporan kunjungan observasinya ke Silicon Valley, dan mengajukan sebuah penilaian yang bahkan membuatnya sendiri mengubah kebiasaan mencatat: Silicon Valley sedang memasuki tahap di mana bahkan orang yang mencoba “membuat gelombang” pun bisa tersapu oleh gelombang. Kecepatan iterasi AI telah berubah dari “per bulan” menjadi “per minggu”; bahkan Silicon Valley sendiri sudah tidak bisa mengejar kecepatan dirinya sendiri. Ketika AI melipatgandakan produktivitas sebuah tim sampai lima kali, Anda dapat mengurangi delapan puluh persen tenaga kerja untuk mempertahankan output semula, atau mempertahankan jumlah orang untuk melakukan lima kali lebih banyak pekerjaan. Observasi Meng Xing kali ini di Silicon Valley, setara dengan memberikan draf awal jawaban di tempat kejadian: ketika efisiensi 100 kali tidak menghasilkan pendapatan 100 kali, ketika anggaran token mendekati biaya tenaga kerja, ketika mesin uap belum bisa melampaui kereta kuda tetapi tak ada yang berani berhenti, Silicon Valley sekarang memilih “yang penting dorong dulu kecepatannya”. Namun pada akhirnya, jalan ini akan mengarah ke “kemampuan untuk melakukan ekspansi” atau “menekan biaya”, saat ini belum ada kesimpulan. YC beralih dari indikator terdepan menjadi indikator tertinggal Meng Xing tahun ini

ChainNewsAbmedia1jam yang lalu
Komentar
0/400
Tidak ada komentar