Согласно официальному заявлению Anthropic и официальному пресс-релизу Amazon, обе стороны расширяют стратегическое сотрудничество 4/20: Amazon дополнительно инвестирует в Anthropic до 25 млрд долларов, а Anthropic обязуется в ближайшие десять лет направить на AWS расходы более 100 млрд долларов, а также получить до 5 ГВт дополнительной вычислительной мощности для обучения и развертывания моделей Claude.
Это вторая волна масштабного расширения после 4/7, когда Anthropic вместе с Google и Broadcom получил вычислительную мощность TPU на 3,5 ГВт; также это второй крупный этап «гонки вооружений» по вычислениям Anthropic. Кроме того, это крупнейшее обязательство Amazon перед компанией в сфере ИИ: в результате оценка Anthropic закрепилась на уровне 3800 млрд долларов.
Инвестиционная структура: 5 млрд — аванс, 20 млрд — привязка к вехам
На этот раз инвестиции Amazon разделены на два этапа: 5 млрд долларов перечисляются немедленно в день объявления, а еще до 20 млрд долларов высвобождаются траншами после привязки к «определенным коммерческим вехам». В сочетании с ранее уже вложенными 8 млрд долларов, верхний предел совокупных инвестиций Amazon в Anthropic достигнет 33 млрд долларов.
В рамках этого раунда 5 млрд долларов размещаются в рамках долевого участия по последней оценке Anthropic 3800 млрд долларов, и это также впервые эта оценка подтверждена новым контрактом со стороны инвестора первой линии.
Anthropic обязуется потратить на AWS 1000 млрд долларов за 10 лет
В качестве встречного обязательства Anthropic обещает, что в ближайшие десять лет расходы на AWS превысят 1000 млрд долларов; это включает как действующие, так и будущие поколения заказных AI-чипов Trainium, а также «десятки миллионов ядер» Graviton — универсальные вычислительные CPU.
Andy Jassy (CEO Amazon) в заявлении отметил: «Anthropic обязуется в ближайшие десять лет запускать большие языковые модели на AWS Trainium, что отражает наше общее прогрессирование по пути к заказным чипам». Dario Amodei (CEO Anthropic) также подчеркнул: «Пользователи говорят нам, что Claude становится для них все более важной частью работы, и нам нужно создать инфраструктуру, которая сможет расти вместе со спросом».
Дорожная карта вычислительной мощности: Trainium2, 3, 4 — все серии закреплены
Настоящее соглашение включает три поколения чипов Trainium2, Trainium3 и Trainium4, при этом Anthropic сохраняет опцию закупки последующих поколений заказных чипов. Что касается конкретного графика: во 2 квартале 2026 года на рынок выйдут крупные объемы Trainium2, а крупные объемы Trainium3 будут вводиться в работу поэтапно до конца года; за весь год суммарно Trainium2 и Trainium3 составят почти 1 ГВт.
Project Rainier — флагманский проект, уже существующий в рамках сотрудничества обеих сторон; этот учебный кластер на данный момент развернул примерно 0,5 млн чипов Trainium2, которые являются основной инфраструктурой для обучения моделей Claude.
Выручка от 90 млрд до 300 млрд: резкий рост спроса у Anthropic — это мотивация для переговоров
В объявлении Anthropic в редком порядке раскрывает текущее финансовое состояние: текущая годовая (annualized) выручка уже превысила 300 млрд долларов; по сравнению с 90 млрд долларов на конец 2025 года, за полгода она выросла более чем втрое. Число корпоративных клиентов, которые запускают Claude на AWS, также превысило 100 000; Claude на платформе Amazon Bedrock является одной из самых используемых семейств моделей.
Anthropic также признает, что резкий рост спроса создал нагрузку на инфраструктуру в пиковые часы, повлияв на доступность и производительность. Именно это и стало прямой причиной столь масштабного расширения вычислительных мощностей. Споры вокруг tokenizer в Claude Opus 4.7 и корректировки ограничений по использованию в последнее время тоже связаны с этой реальностью «инфраструктура в дефиците».
Связка «тройка по вычислительной мощности»: AWS, Google и собственные чипы — параллельное продвижение
Помимо объявления в начале апреля о сотрудничестве Anthropic с Broadcom и Google по вычислительной мощности TPU 3,5 ГВт, Anthropic уже одновременно закрепил два направления заказных чипов — AWS Trainium и Google TPU — и при этом сохраняет долгосрочную опцию по разработке и использованию собственных ускорителей. Это контрастирует с маршрутом OpenAI, который идет с опорой в основном на Microsoft Azure и только недавно расширяет AWS.
Для тайваньской полупроводниковой цепочки поставок массовое расширение производства Trainium2–Trainium4 означает, что Marvell, TSMC передовая корпусная упаковка и поставщики памяти HBM в ближайшие три–пять лет будут продолжать получать заказы на заказные чипы AWS.
Уверенность в вычислениях за ускорением гонки за IPO
Это объявление также укрепляет основу истории Anthropic об IPO. Недавно появившийся отчет о подготовке к IPO раскрывает, что разрыв в выручке между двумя компаниями сокращается: годовая выручка OpenAI превысила 250 млрд долларов, а Anthropic догоняет с 190 млрд. Официальное объявление показывает, что годовая выручка Anthropic уже достигла 300 млрд долларов, и разрыв продолжает сокращаться.
Для инвесторов смысл обязательства Amazon заключается не в сумме одного транша, а в глубокой привязке «расходы AWS на 1000 млрд долларов в ближайшие десять лет», которая дает рынку четкую «якорную» точку для понимания предложения вычислительных мощностей Anthropic и долгосрочной структуры затрат. Модель с высокой планкой Project Glasswing Mythos, а также последующие тренировочные вычисления для серии Claude 4.x будут поддерживаться этим новым объемом 5 ГВт.
Эта статья «Amazon увеличивает вложения в Anthropic на 25 млрд долларов: 5 ГВт вычислительной мощности, привязка к AWS на 1000 млрд долларов» впервые появилась в «Цепных новостях ABMedia».
Связанные статьи
Hugging Face Open-Source ml-intern — AI-агент для автономных ML-исследований
JPMorgan Chase повышает целевой показатель по S&P 500 на конец года до 7,600, ссылаясь на всплеск инвестиций в ИИ и снижение геополитических рисков
OpenAI проинформировала правительство США и альянс Five Eyes о продукте в сфере кибербезопасности
OpenAI инвестирует до $1,5 млрд в совместное предприятие DeployCo с крупными PE-фирмами
Google Research представляет ReasoningBank: ИИ-агенты учатся стратегиям рассуждений на успехах и неудачах
SK Telecom и Nvidia объединяются для партнерства по модели ИИ A.X K2 в рамках правительственной инициативы Южной Кореи