A Amazon aumenta o valor para a Anthropic em 25 bilhões de dólares: 5 GW de capacidade computacional, vinculamento de 100 bilhões de dólares da AWS

ChainNewsAbmedia

De acordo com os comunicados oficiais da Anthropic e com o release oficial da Amazon, as duas empresas ampliaram a parceria estratégica em 4/20: a Amazon adicionou um investimento de até 25 bilhões de dólares na Anthropic, enquanto a Anthropic se comprometeu a que, nos próximos dez anos, as despesas na AWS ultrapassarão 100 bilhões de dólares, e a obter até 5GW de capacidade computacional adicional, para treinar e implantar modelos da Claude.

Esta é a segunda grande onda de expansão decisiva na corrida armamentista de capacidade computacional da Anthropic, após a parceria em 4/7 entre a Anthropic e a Google e a Broadcom, que resultou na obtenção de 3.5GW de capacidade de TPU; também é o maior compromisso já feito pela Amazon com uma única empresa de IA. Com isso, a avaliação da Anthropic fica fixada em 3800 bilhões de dólares.

Estrutura de investimento: 5 bilhões liberados primeiro, 20 bilhões vinculados a marcos

O investimento desta vez da Amazon foi dividido em duas etapas: 5 bilhões de dólares serão pagos imediatamente na data do anúncio, e mais até 20 bilhões de dólares serão liberados em parcelas após ficarem vinculados a “marcos comerciais específicos”. Somados aos 8 bilhões de dólares já investidos anteriormente, o teto de investimento acumulado da Amazon na Anthropic chegará a 33 bilhões de dólares.

Estes 5 bilhões de dólares serão feitos com base na avaliação mais recente da Anthropic de 3800 bilhões de dólares. Esse é também o primeiro momento em que essa avaliação é confirmada por um investidor de primeira linha por meio de um novo contrato.

A Anthropic se compromete com gastos de mil bilhões na AWS por dez anos

Como contrapartida da parceria, a Anthropic se comprometeu a que, nos próximos dez anos, as despesas na AWS ultrapassarão 100 bilhões de dólares. O escopo abrange os chips de IA customizados Trainium das gerações atuais e futuras, bem como as CPUs de uso geral Graviton com “dezenas de milhões de núcleos”.

Andy Jassy (CEO da Amazon), no comunicado, afirmou: “A Anthropic se comprometeu a permitir que grandes modelos de linguagem rodem na AWS Trainium nos próximos dez anos, refletindo o progresso conjunto que fizemos no caminho de chips customizados.” Dario Amodei (CEO da Anthropic) disse: “Os usuários nos contam que o Claude se tornou cada vez mais importante para o trabalho deles, e precisamos construir uma infraestrutura que consiga acompanhar o crescimento da demanda.”

Roteiro de 5GW de capacidade computacional: séries Trainium2, 3 e 4 inteiras bloqueadas

A presente negociação abrange três gerações de chips — Trainium2, Trainium3 e Trainium4 — e a Anthropic mantém a opção de comprar chips customizados das gerações seguintes. Em termos de cronograma, em Q2 de 2026 haverá uma grande entrada de capacidade de Trainium2 online; as capacidades em grande escala de Trainium3 serão abertas gradualmente antes do fim do ano, e no acumulado do ano Trainium2 e Trainium3 somarão quase 1GW.

O Project Rainier é o projeto carro-chefe da cooperação já existente entre as duas partes. Este cluster de treinamento, atualmente, já implantou cerca de 500 mil chips Trainium2, sendo a infraestrutura principal para treinar os modelos Claude.

Receita de 9 bilhões a 30 bilhões: o aumento explosivo da demanda da Anthropic como força motriz da negociação

No comunicado, a Anthropic revelou de forma rara a sua situação financeira: a receita anualizada do ano já ultrapassou 30 bilhões de dólares. Isso representa uma alta de mais de três vezes em seis meses, em comparação com os 9 bilhões de dólares no fim de 2025. O número de clientes empresariais que rodam o Claude na AWS também já ultrapassou 100 mil; no Bedrock da Amazon, o Claude é uma das famílias de modelos com maior uso.

A Anthropic também admite que o aumento explosivo da demanda está fazendo a infraestrutura sofrer pressão nos horários de pico, afetando a disponibilidade e o desempenho. Essa é justamente a motivação direta para a grande expansão de capacidade computacional desta vez. A controvérsia recente sobre o consumo de tokens do tokenizer do Claude Opus 4.7 e os ajustes nas limitações de uso também se relacionam com essa realidade de “infraestrutura apertada”.

Três frentes de capacidade computacional travadas: AWS, Google e chips de fabricação própria avançam em paralelo

Além dos 3.5GW de capacidade de TPU anunciados um pouco mais cedo em abril para a parceria da Anthropic com a Broadcom e a Google, a Anthropic atualmente já fica simultaneamente vinculada às duas rotas de chips customizados — a do AWS Trainium e a do Google TPU — e mantém a opção de longo prazo de aceleradores próprios. Isso contrasta com o caminho da OpenAI, que segue “dependendo principalmente do Microsoft Azure e expandindo a AWS apenas recentemente”.

Para a cadeia de suprimentos de semicondutores de Taiwan, a ampliação em larga escala da produção de Trainium2 a Trainium4 significa que os fornecedores de memória HBM, além da Marvell e da TSMC (advanced packaging), continuarão a atender continuamente os pedidos de chips customizados da AWS nos próximos três a cinco anos.

A base de capacidade computacional por trás da corrida do IPO

O presente anúncio também reforça a base narrativa de listagem da Anthropic. Relatórios recentes mostram que, com a receita anualizada da OpenAI ultrapassando 25 bilhões de dólares, e a preparação de IPO da Anthropic para correr atrás com 19 bilhões de dólares, a diferença entre as duas receitas está diminuindo; já os comunicados oficiais indicam que a receita anualizada da Anthropic chegou a 30 bilhões de dólares, reduzindo ainda mais a diferença.

Para os investidores, o significado do compromisso da Amazon não está em um único montante, mas sim no “desembolso de 100 bilhões de dólares na AWS nos próximos dez anos”, um vínculo profundo que dá ao mercado uma referência clara sobre a oferta de capacidade computacional da Anthropic e a estrutura de custos de longo prazo. O modelo de alta barreira Mythos do Project Glasswing e a capacidade computacional de treinamento subsequente da série Claude 4.x serão sustentados por essas 5GW de novas capacidades.

Este artigo “Amazon adiciona mais 25 bilhões de dólares à Anthropic: 5GW de capacidade computacional, vínculo de mil bilhões com a AWS” apareceu pela primeira vez em 鏈新聞 ABMedia.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

A Anthropic Identifica Três Mudanças na Camada de Produto Por Trás da Queda de Qualidade do Claude Code, e Não um Problema de Modelo

Mensagem do Gate News, 23 de abril — A equipe de engenharia da Anthropic confirmou que a degradação da qualidade do Claude Code relatada pelos usuários no último mês se deveu a três mudanças independentes na camada de produto, e não a problemas de API ou do modelo subjacente. Os três problemas foram corrigidos em 7 de abril, 10 de abril e A

GateNewsAgora mesmo

A NEC Corporation se tornará o primeiro parceiro global da Anthropic no Japão

A NEC anuncia se tornar o primeiro parceiro global da Anthropic no Japão, e ambas as partes desenvolverão soluções de IA seguras e altamente especializadas em conhecimento do setor para indústrias altamente regulamentadas, como finanças, manufatura e governos locais, além de integrar a série Claude ao NEC BluStellar, com foco em transformação de gerenciamento orientada por dados e experiência do cliente. Ao mesmo tempo, introduzem o Claude Cowork e a integração com SOC para aprimorar a proteção de segurança cibernética. Para validar a eficácia, a NEC inicia o Zero Client Program para testar internamente, de forma abrangente, agentes de IA, e planeja promover a implantação do Claude globalmente, estabelecendo o maior CoE (Centro de Excelência) em engenharia nativa de IA do Japão.

ChainNewsAbmedia1h atrás

Brecha de Segurança da Vercel se Expande para Centenas de Usuários; Desenvolvedores de IA em Maior Risco

Mensagem do Gate News, 23 de abril — A Vercel revelou em 19 de abril que seu incidente de segurança, inicialmente descrito como afetando um "subconjunto limitado de clientes", se expandiu para uma comunidade de desenvolvedores muito mais ampla, especialmente aqueles que estão construindo fluxos de trabalho de agentes de IA. O ataque pode afetar centenas de usuários

GateNews3h atrás

OpenAI lança GPT-5.5: contexto de 12M, índice AA em primeiro lugar, Terminal-Bench 82,7% reescreve o benchmark de agentes

A OpenAI anunciou o GPT-5.5, com foco em trabalho orientado por agentes e processamento de conhecimento empresarial, e também lançou em sincronia no ChatGPT e no Codex. Os principais pontos incluem uma janela de contexto de 1200 milhões de tokens, AA Intelligence Index 60, superando o Claude Opus em 4,7 e o Gemini 3,1 Pro; os preços são de 5 dólares por 1 milhão de tokens de entrada e 30 dólares por 1 milhão de tokens de saída, com redução de tokens de saída de aproximadamente 40%, e custo real aumentando aproximadamente 20%.

ChainNewsAbmedia4h atrás

Cluster Protocol Capta $5M para Acelerar o CodeXero, IDE de IA Nativa do Navegador para EVM

Mensagem do Gate News, 23 de abril — O Cluster Protocol, uma empresa de infraestrutura Web3 e deeptech em IA, anunciou que captou $5 milhões em uma nova rodada de financiamento liderada pela DAO5, com participação da Paper Ventures, JPEG Trading e Mapleblock Capital, elevando o financiamento total para US$ 7,75 milhões. O capital wi

GateNews4h atrás

Nvidia Expande Parcerias de IA no Reino Unido, China e Setor Automotivo Diante de Desafios na Cadeia de Suprimentos

Mensagem do Gate News, 23 de abril — Apesar da concorrência do Google e das interrupções na cadeia de suprimentos, a Nvidia continua sendo a principal empresa no setor de hardware de IA. A TD Cowen reafirmou sua recomendação de compra para a Nvidia na quinta-feira, citando a liderança da empresa em desempenho e a amplitude do ecossistema de software. A recomendação

GateNews4h atrás
Comentário
0/400
Sem comentários