Згідно з глибоким репортажем Bloomberg та офіційним оголошенням Google, 22 квітня Google офіційно розширює власну лінійку AI-чипів: спеціалізований для інференсу Ironwood (шосте покоління TPU) повністю постачається на Google Cloud, а також одночасно стартує співпраця наступного покоління з партнерами Broadcom, MediaTek, Marvell, Intel. Мета — позитивно кинути виклик домінуванню Nvidia на ринку обчислювальної потужності для ШІ за рахунок ланцюга постачання кастомних чипів.
Ironwood: сьоме покоління TPU, вперше — чипи, створені спеціально для інференсу
Ironwood — це сьоме покоління продуктів лінійки Google TPU, а також перший чип, розроблений спеціально для інференсу в межах стратегії «розділення тренування та інференсу». Розкриті Google специфікації: пікова продуктивність одного чипа в 10 разів вища, ніж у TPU v5p, 192GB HBM3E пам’яті, пропускна здатність пам’яті — 7.2 TB/s; один superpod може масштабуватися до 9,216 рідинно охолоджених Ironwood, а сумарний обсяг обчислень FP8 досягає 42.5 exaflops.
Офіційно Google заявляє, що Ironwood вже «повністю відкритий для використання клієнтами Google Cloud», а обсяги відвантажень цього року, як очікується, досягнуть «рівня мільйона чипів». Anthropic пообіцяла використовувати до 1 млн Ironwood TPU; Meta натомість підписала «багаторічний контракт на десятки мільярдів доларів» для використання TPU через Google Cloud.
Розподіл між чотирма партнерами: тренування — Broadcom, інференс — MediaTek
Постачальницький ланцюг чипів наступного покоління від Google має чіткий розподіл ролей:
партнер позначення роль особливості Broadcom Sunfish для тренування спеціально Продовжує чинні партнерства щодо TPU, керує великими вузлами тренування MediaTek (聯發科) Zebrafish для інференсу спеціально Заявляє, що рішення на 20–30% дешевше, ніж варіант Broadcom Marvell у процесі переговорів Блок обробки пам’яті (MPU) + додатковий інференс TPU для оптимізації під HBM та inference Intel не розкрито бере участь у дизайні Підсилення розподілу ризиків у ланцюгу постачання
Це перша в індустрії ШІ модель із «паралельною роботою чотирьох партнерів і чітким розподілом між тренуванням та інференсом». Google через диверсифікацію ризиків IP та конкурентне торгування ціною уникає структури залежності від одного постачальника. Дорожня карта простягається до кінця 2027 року для TPU v8, які вироблятимуться на потужностях TSMC за 2nm техпроцесом.
Стратегічний зміст: кинути виклик Nvidia має не один чип, а ланцюг постачання
За останні три роки ринок AI-чипів майже монополізувала Nvidia: екосистема CUDA та подвійний бар’єр — H100/GB200 чипи. Залізо Ironwood від Google та стратегія з чотирма партнерами не орієнтовані на мету «перевершити за одним конкретним параметром», натомість копіюють логіку Nvidia в індустрії — «стандартизована платформа + закупівлі багатьма клієнтами»: щоб TPU був не лише для власного використання Google, а як комерційний варіант обчислювальної потужності, яким можуть користуватися основні AI-компанії на кшталт Anthropic та Meta.
Значення обіцянки Anthropic на 1 млн TPU особливо важливе: це найбільша обчислювальна потужність, яку зобов’язується надати окрема AI-компанія поза межами Nvidia. Вона доповнює домовленості Anthropic 4/20 та Amazon про 5GW/100 млрд AWS-проєкту — з одного боку прив’язка до AWS Trainium, з іншого — до Google TPU. Стратегія «два кастомні чипи» від Anthropic знижує залежність від Nvidia. Meta ж уперше публічно включила TPU до власних AI робочих навантажень для тренування/інференсу, формуючи ще один сигнал.
Реакція ринку та взаємозв’язок із індустрією
До цього розкриття MediaTek уже вважали «вигодонабувачем кастомних чипів Google», а поява в інфопросторі коду Zebrafish уперше напряму внесла MediaTek у список партнерів з дизайну Google inference-чипів. Це продовжує сюжетну лінію про «не-Nvidia альянси» найближчим часом: AMD × GlobalFoundries (кремнієва фотоніка) та Marvell × Google (MPU).
У той самий період у Nvidia все ще є підтримка з боку GB200 та платформи наступного покоління Rubin, але обчислювальна комбінація клієнтської сторони зміщується з формату «все Nvidia» до паралельної трьохсмугової моделі «Nvidia + TPU + AWS Trainium». Це також означає, що для потужностей TSMC за 2nm у черзі стоять Google, Nvidia, Apple та Amazon як чотири головні клієнти, а переговорна сила виробника щодо ціни за контрактами на виробництво зростає.
Ця стаття «Google Ironwood TPU: 10-кратна ефективність + чотири партнери проти Nvidia» вперше з’явилася в Ланцюжкових новинах ABMedia.
Пов'язані статті
RE:AI Singtel співпрацює з Mistral AI для розвитку ШІ-інфраструктури в Сінгапурі
YZi Labs Хе Ї інвестує в китайську компанію великомовної моделі ШІ
OpenAI співпрацює з MediaTek і Qualcomm для розробки AI-процесора для смартфонів, Foxconn Connector розпочне виробництво у 2028 році
MiniMax-W, що котирується в Гонконзі, падає більш ніж на 14%, Zhipu знижується більш ніж на 6% під час запуску моделі DeepSeek
Співзасновники Gentrace Даг Сафрено та Вівек Найр приєднуються до Anthropic після закриття інструменту для оцінювання AI
Суд штату Каліфорнія розглядатиме позов Ілона Маска проти OpenAI, генеральний директор Microsoft дасть свідчення в суді